


摘" 要" 發展智慧養老是應對人口快速老齡化挑戰的重要舉措, 既能緩解社會養老壓力, 又能滿足老年人日益多樣化的需求。然而, 當前智慧養老系統的應用仍面臨老年人接受度較低、交互效能較低、信任度較低、責任分配不明晰等一系列問題。因此, 本研究旨在從用戶需求、交互行為、人機信任、人機責任多層次構建老年用戶與智能系統人機共融的理論框架, 深入探究用戶特征、系統屬性、情境因素對人機共融的影響機理。本研究在用戶需求、交互行為層次, 構建用戶畫像、需求模型與交互行為模型, 優化智能系統屬性, 提升老年用戶的接受度、交互效能; 在人機信任層次, 探究老年用戶與智能系統的人機動態信任發展規律, 剖析各類因素對動態信任的綜合影響機理, 提升老年用戶使用行為的持續性和人機關系的穩定性; 在人機責任層次, 面對智能系統應用可能帶來的正面、負面結果, 剖析各類因素對人機責任歸因的影響機制, 促進更好的人機協同。開展本研究可促進人機共融理論的發展, 為智能系統的適老化設計與升級提供理論支撐與實踐參考。
關鍵詞" 人機共融, 用戶需求, 交互行為, 人機信任, 人機責任
分類號 "B849
1" 問題提出
智慧養老將成為應對人口快速老齡化、解決養老難題的重要支撐。2023年末, 我國60歲及以上人口為2.97億人, 占全國人口的21.1%, 其中65歲及以上人口為2.17億人, 占全國人口的15.4%。為積極應對人口老齡化挑戰, 國務院印發《“十四五”國家老齡事業發展和養老服務體系規劃》, 強調促進老年用品科技化、智能化升級(國務院, 2022)。智能系統將人與物、物與物連接起來, 實現“萬物互聯”, 可為老年人提供實時高效的個性化養老服務。一方面, 智能系統可以實時監測老年人的健康狀況與家庭環境, 并對突發情況做出及時響應。例如, 摔倒監測設備、可燃氣體探測器等可較大程度保障空巢老人的居家安全。另一方面, 智能系統也能為老年人提供社交支持, 滿足老年人更高層次的精神需求。研究表明, 通過與智能機器人交互, 老年人的身心健康狀況可得到改善。例如, 海豹機器人PARO被老年人認為是“像朋友一樣”的社會存在, 不僅能為健康老年人提供社交和情感支持(McGlynn et al., 2017), 還能幫助阿爾茨海默癥患者克服暫時性語言障礙(Hung et al., 2021)。
但現實中, 老年人使用智能系統仍面臨數字鴻溝。數字鴻溝的出現與智能技術研究、開發和實施過程中對老年用戶的重視程度不夠有關(Ball et al., 2019; Kanstrup amp; Bygholm, 2019; Rosales amp; Fernández-Ardèvol, 2020)。智能系統具備的情境感知、自主學習、自主決策、主動交互等能力將讓人機關系進一步向“人機共融”發展。目前, 用戶與智能系統人機共融相關研究也主要聚焦于青年用戶在工作場景中的使用(Peek et al., 2016)。在需求與交互行為層次上, 研究者探究了用戶的技術接受模型(Ferreira et al., 2023; Gansser amp; Reich, 2021)、用戶與不同類型智能系統交互的效能(Xie et al., 2023)。在人機信任層次中, 研究者探究了人機信任關系及影響因素(黃心語, 李曄, 2024; Guoamp; Yang, 2021; Hancock et al., 2021; Hancock et al., 2011; Yang et al., 2021)。在人機責任層次中, 研究者探究了用戶對智能系統的責任歸因機制(Liu amp; Du, 2022; Navare et al., 2024)。這些研究正在逐步探明用戶對智能系統的需求、用戶的交互行為、人機信任與人機責任分配機制, 但尚未有研究進一步整合、構建涉及用戶使用前、中、后的多層次人機共融理論框架。
同時, 老年人與青年人在思想觀念、實際需求、身體機能、使用經驗等方面存在諸多差異, 以往關于青年用戶與智能系統人機共融的研究成果很難直接應用在老年用戶與智能系統的人機共融關系構建中。一是老年用戶對智能系統的實際需求與青年用戶不同。在居家智能系統中, 老年用戶更關注健康和醫療管理類、輔助生活類的智能系統, 青年用戶則更關注娛樂類的智能系統(Robinson et al., 2014; Zhong et al., 2024)。二是老年用戶使用智能系統面臨更多困難。老年人感官、認知和身體上的衰退、對智能系統使用經驗的不足、心智模型的差異會給老年人使用智能系統帶來更多困難, 導致老年人使用新技術的信心不足(Ball et al., 2019; Tomasino et al., 2017)。三是老年用戶與智能系統的人機信任關系構建過程可能不同。在持續性的交互中, 老年用戶對智能系統不同的心理預期、感知、交互偏好、使用場景會影響人機信任構建過程(Schaefer et al., 2016)。四是老年用戶對智能系統應用帶來的結果可能有不同的責任分配態度。之前的研究表明, 與青年人相比, 老年人更可能將負面事件結果歸因于行為者的特質, 而不是與情境背景相關的因素(Blanchard-Fields amp; Beatty, 2005)。并且, 老年用戶與智能系統人機共融過程受各類因素的影響機理也可能與青年用戶有較大差異。
盡管研究者開始關注老年用戶與智能系統的人機共融機制, 但現有研究仍較分散, 缺乏整體性的理論框架與實證結果支撐。一是現有研究大多關注老年用戶對智能系統的技術接受度(Ghorayeb et al., 2021; Zhang, 2023)、初次接觸時的信任態度(Liu et al., 2021), 較少關注老年用戶與智能系統真實的動態交互過程和對交互結果的責任分配機制, 忽略了從動態性、整體性視角去構建老年用戶與智能系統人機共融機制的必要性與重要性。智能系統具有自主性、復雜性、不確定性等特點。在用戶與智能系統的交互過程中, 系統可自主、動態地學習用戶的偏好與行為, 修正自己的行為實現更有效和友好的交互。傳統基于“刺激—反應”的人機關系模式也發生了改變, 需進一步分析用戶使用智能系統前、中、后的人機關系是如何發生變化的, 針對某一層次的理論框架無法全面解釋老年用戶與智能系統人機共融的動態發展過程。因此, 有必要從動態性、整體性視角構建人機共融理論框架(孫效華 等, 2020; Farooq amp; Grudin, 2016; Rodrigues Barbosa et al., 2024)。二是現有研究主要探究某一類因素對單一層次人機共融的影響, 很難厘清用戶特征、系統屬性和情境因素對人機共融各個層次的復雜影響機理。基于此, 本研究擬從動態性、整體性的視角進行探究, 基于老年用戶使用前的需求特征、使用中的交互行為、人機信任關系、使用后的人機責任歸因構建多層次人機共融理論框架, 并探究用戶特征、系統屬性和情境因素對各層次的影響機理。老年用戶與智能系統的多層次人機共融機制可為智能系統的適老化設計提供理論見解和實踐啟示, 推動智慧養老的發展。
2" 研究現狀分析
2.1" 用戶對智能系統的需求與交互行為研究
智能系統與交互界面的設計應與老年用戶需求、心智模型、交互能力相匹配(Shi et al., 2023; Zhou amp; Gao, 2021)。在需求層次上, 應基于老年用戶對提高生活獨立性、緩解孤獨感、就地養老、健康管理等需求設計智能系統的功能(Ghorayeb et al., 2021; Li et al., 2021), 并化解老年用戶對智能系統可用性、易用性、安全性、隱私性、控制性等方面的擔憂(Li et al., 2021; Peek et al., 2014; Tsertsidis et al., 2019; Zafrani et al., 2023)。在滿足用戶對智能系統基本功能需求的同時, 也應關注用戶的情感需求。智能系統應理解用戶的意圖并提供人性化的服務(曹劍琴 等, 2023)。現有關于老年用戶對智能系統需求的研究往往忽略了老年用戶的異質性特點, 不同價值觀、健康狀況、使用經驗的老年用戶對智能系統的需求可能有較大差異(Chu et al., 2022)。
智能系統交互界面的設計仍需考慮用戶對信息的動態加工過程, 在不同情境下調整系統與用戶心智模型相匹配, 提高界面與記憶決策的相容性, 滿足用戶心理、交互能力等方面的自然性約束, 取得情境?心理?信道相容匹配(史元春, 2018)。在系統屬性中, “媒體等同”理論和“計算機為社會行動者”范式指出, 計算機是社會性的, 用戶會根據計算機等媒體呈現的社會化線索(如語言、社會角色、性別、種族和個性), 將人際交往準則(如互惠交往準則、刻板印象等)運用到人機交互中, 對計算機等媒體產生社會化反應(如信任、喜愛等) (Nass et al., 1994; Reeves amp; Nass, 1996)。盡管用戶知道這些智能系統不具備意圖、動機或情感(Gambino et al., 2020; Reeves amp; Nass, 1996), 還是會無意識地依賴人際交往中的慣例和社交腳本與智能系統交互(Nass amp; Moon, 2000)。
在智能居家環境中, 不同的設備和物品都可配備傳感、聯網和處理能力, 并賦予智能, 作為交互終端與用戶進行交互(Taing et al., 2017; Whitmore et al., 2015)。例如, 老年用戶可以與智能家電、智能手機、語音助手、機器人、可穿戴設備等多種交互終端進行交互。有些交互終端具有擬人化特征, 老年用戶可能不僅將其看作是工具, 還可能當作是陪伴自己的伙伴。例如, 機器人的擬人化特征, 包括人臉、人類語言和個性會讓用戶覺得自己在與社交實體交互(Jin amp; Youn, 2022; Lee amp; Oh, 2021)。研究者發現相比于平板電腦陪伴用戶運動, 機器人陪伴用戶運動時, 用戶與機器人的互動更加積極, 包括用戶更多的語言交流、積極情緒和運動練習次數(Mann et al., 2015)。當機器人頭部、身體都有屏幕時, 擬人度更高、信息展現效率更高, 更受人們的喜愛(葛翔 等, 2020)。但在這些研究中, 實驗參與者大部分是青年用戶, 并且大部分是在實驗室環境中完成單一任務, 缺乏關注長期使用過程的縱向研究。未來研究應進一步關注老年用戶在生活場景中使用不同交互終端或完成不同類型任務的交互行為(Mann et al., 2015)。
同時, 智能系統的社會化線索能為用戶提供系統的社會性信息, 促發用戶的社會反應(Chaves amp; Gerosa, 2021; Feine et al., 2019)。根據社會分類理論, 在人際交往中, 人們會自動基于他人明顯的社會特征, 如性別、年齡等進行分類, 并形成印象(Ito amp; Urland, 2003; Liberman et al., 2017; Macrae amp; Bodenhausen, 2000; Nicolas et al., 2017)。在人機交互中, 用戶也會通過智能系統呈現的相關信息, 例如聲音、面孔和名字, 迅速推測智能系統的性別、年齡, 并進行社會分類(Fiore et"al., 2013)。研究發現短發的男性機器人被認為更適合承擔監控設備等任務, 而長發的女性機器人被認為更適合承擔照顧小孩等任務(Tay et al., 2014)。用戶更喜歡陪伴型的智能系統使用女性的聲音(Chang et al., 2018), 但也有研究發現用戶更喜歡智能語音助手Siri采用和自己性別相同的聲音。用戶可能會經歷一個社會認同過程, 從而對同一性別的聲音產生更多的信任(Lee, Kavya, amp; Lasser, 2021)。一項關于我國老年用戶對社交機器人的偏好研究發現, 當老年用戶感知到社交機器人能力更強時, 對機器人的擔憂反而更多(Liu et"al., 2021), 這項研究邀請老年用戶對機器人圖片進行評價, 仍需開展老年用戶與社交機器人的實際交互研究驗證這項問卷調研的結果。
2.2" 用戶與智能系統的人機信任研究
信任是支持用戶與智能系統交互的關鍵要素(Schaefer et al., 2016; Shin, 2021)。人機信任相關研究大多基于Mayer等(1995)對信任的定義, 即“一方承受另一方風險或傷害行為的意愿”。智能系統采用的人工智能技術本質上是復雜的, 用戶無法立即理解智能系統的運作原理(Bathaee, 2018; Fainman, 2019; Mittelstadt, 2019)。一方面, 用戶對智能系統的理解與智能系統的實際能力之間總是存在差距。信任被認為是影響用戶接受機器人、建立和保持與機器人有效互動的關鍵要素(Naneva et al., 2020; Yang et al., 2018)。并且, 信任對人機交互與協作的積極影響在使用經驗有限的人群中顯著增強(Chen et al., 2017), 如老年人(Fischl et al., 2017; Zafrani et al., 2023)。另一方面, 智能系統的使用往往會涉及訪問私人和敏感數據(Schwaninger, 2020)。信任對老年用戶的風險感知(Huff et al., 2019)、控制感(de Graaf et al., 2015)和使用意圖(Bux et al., 2019)有顯著影響。因此, 人機信任對于老年用戶在家中使用智能系統尤為重要(Krajník et al., 2015)。
同時, 人機信任具有動態性特征。Hoffman (2017)指出人機信任是“在不斷變化的交互內容中, 積極探索、評估可信度和可靠性的持續過程”。行為科學領域研究普遍指出信任的動態發展過程分為初始型信任和持續型信任兩個階段。初始型信任是指人們合作之前, 信任方缺乏對被信任方的了解, 在信息不充分條件下信任方必須冒著某種風險去信任被信任方。而持續型信任發生在合作建立之后, 意味著信任方對被信任方有了更深的了解, 可以在某些情況下預測被信任方的行為。持續型信任的核心是將合作行為的結果加入信任的反饋環中, 進一步影響下一次合作。如何在長期的人機交互中衡量信任, 并維持對系統的持續信任, 是人機共融的基礎和挑戰(孔祥維 等, 2022)。一方面, 用戶的信任可能隨著用戶與智能系統交互時間的增加而增加, 背后的原因可能是交互時間的增加讓用戶對系統的運行方式有更清楚的理解(Elkins amp; Derrick, 2013)。交互經驗可能會讓用戶調整他們對系統的期望和信任(Lee, Frank, amp; Ijsselsteijn, 2021)。另一方面, 智能系統并不總是完美的, 在交互過程中, 智能系統也可能出現一些故障或者是用戶難以理解、預測的行為, 引起負面的用戶體驗與信任下降(Brooks, 2017)。當智能系統失效時, 智能系統可嘗試用為自己的行為道歉(Albayram et al., 2020)、否認自己的錯誤(Kohn et al., 2019)、解釋錯誤發生的原因(Natarajan amp; Gombolay, 2020)、承諾之后不再犯錯(Reig et al., 2021)等策略修復信任(Esterwood amp; Robert, 2022)。但當智能系統多次犯錯后, 人機信任較難修復(Esterwood amp; Robert, 2023)。
研究者進一步探究人機信任的影響因素, 優化智能系統的設計。以機器人為例, 研究者將影響人機信任的因素分為三類:(1)機器人相關因素, (2)用戶相關因素, 和(3)情境相關因素(Akalin et"al., 2022; Hancock et al., 2011; Lewis et al., 2018)。這些類別可進一步細分:與用戶相關的因素可細分為用戶的能力(例如, 用戶的專業度和以往經驗)和特點(例如, 個性和信任傾向); 與機器人相關的因素可細分為機器人的性能(例如, 可靠性、誤報率和故障率)和屬性(例如, 機器人個性、適應性和擬人化); 與情境相關的因素可細分為團隊合作(例如, 組內?組外成員)和基于任務的因素(例如, 任務類型、任務復雜度和多任務要求) (Hancock et al., 2011)。同時, 技術接受模型相關研究也指出老年用戶對新技術的使用態度和行為受自身因素(例如, 年齡、性別、教育背景)、技術因素(例如, 獲取難度、成本、感知有用性和感知易用性)和社會背景(例如, 社會結構、技術環境、社交網絡和文化因素)的影響(Zhang, 2023)。未來研究可進一步探究機器人相關的、用戶相關的、情境相關的因素對老年用戶人機信任的綜合影響(Hancock et al., 2021)。
2.3 "用戶與智能系統的人機責任歸因研究
智能技術賦予智能系統新的角色。在智能時代下, 智能系統從輔助人們的工具發展成為具有一定認知、獨立執行、自適應能力的自主化智能體。智能系統從扮演輔助工具的角色轉變為扮演“輔助工具+人機合作隊友”的雙重新角色, 人機關系也進一步演變成一種團隊合作的隊友關系(許為 等, 2023)。智能系統可以輔助老年人在家生活, 但系統并非完美, 也可能因為故障帶來負面的結果(Madhavan amp; Wiegmann, 2007)。這些故障既包括硬件或軟件系統中的技術故障, 也包括周圍環境的不確定性導致的交互故障(Honig amp; Oron-Gilad, 2018)。當一項服務出現故障時, 用戶往往會分析故障的原因, 分析故障為什么會發生, 并確定責任方(Mattila amp; Patterson, 2004; Weiner, 2000)。歸因是指人們對已發生事件的原因的推論或知覺(Heider, 1958)。歸因能夠幫助人們認識事物發展的因果關系, 通過歸因, 個體能夠更好地理解事件并調整自己的決策和行為, 預測和控制未來的事件, 從而更有效地與外界環境進行互動。研究者發現人們在歸因過程中存在著自我服務歸因偏差(Miller amp; Ross, 1975)、行為者與觀察者效應(Jones amp; Nisbett, 1972)等現象。
雖然智能系統可能具有類人的外觀和行為, 但是其運行方式、情感理解、表達方式與人類仍存在一定差異。智能系統正逐漸改變人們的工作和生活, 并被人們視為是一種重要的社會存在, 有必要研究在人機協同過程中的人機責任歸因機制。在人機交互領域, 研究發現自利偏差現象的出現具有一定的邊界條件。研究發現人機協作中, 用戶和機器人的相對地位高低調節了自利偏差, 當機器人作為領導者時, 個體傾向于將積極結果歸因于自己, 將消極結果歸因于機器人, 出現自利偏差現象; 而當機器人作為同事或下屬時, 個體傾向于將積極結果和消極結果都歸因于自己, 未出現自利偏差現象(Lei amp; Rau, 2021)。另一項研究則發現, 自利偏差僅在積極結果下出現, 而在消極結果下, 當個體對智能系統有所有權時, 個體會傾向于認為自身需承擔較大責任(J?rling et"al., 2019)。在酒店前臺機器人和人類服務員為顧客服務的場景中, 研究者發現無論是積極還是消極的服務結果, 參與者都認為前臺機器人相比于人類服務員, 對服務結果需承擔較少的責任, 并且這個差異在消極結果的責任分配上更明顯(Belanche et al., 2020)。從總體上看, 結果效價可能對人機交互中的歸因有較大影響, 但目前的研究也尚未得出一致的研究結論, 仍需進一步探究結果效價對責任歸因的影響。
此外, 用戶感知的智能系統控制性也可能會影響用戶對智能系統的歸因。智能系統自主性的提升使其更加社會化, 人機交互模式將更接近于人類的互動模式, 促使個體可能將更多的責任歸因于智能系統。當智能系統無自主性時, 人們基本不會將責任歸因于智能系統(Furlough et al., 2021)。自主性的提升意味著智能系統控制自身行為的能力增強, 能在更大程度上獨立完成任務。研究發現, 當智能系統具有一定自主性時, 人們會認為智能系統具有更多的能動性, 智能系統需承擔更多的責任(Horstmann amp; Kr?mer, 2022)。在半自動駕駛場景中, 研究者發現人們會更嚴厲地評判由自動化引起的事故, 把更多的責任歸咎于自動化及其創造者, 并認為這次事故的受害者應得到更多補償(Liu amp; Du, 2022)。歸因理論指出, 當個體對事件的參與程度越高, 結果與自身原因更相關(Weiner, 1995)。當智能系統的參與程度越高, 個體可能會將更多的責任歸于智能系統, 應進一步考慮智能系統控制性對責任歸因的影響。
2.4" 小結
盡管在以往的研究中, 用戶與智能系統的交互得到了學者的關注, 在人機共融機制方面取得了一些有益成果, 但仍存在多方面問題需要進一步深入研究。
首先, 在用戶需求與交互行為層次上, 現有研究主要聚焦于青年用戶在工作環境中使用智能系統的需求、行為與效能, 對老年用戶的異質性特點關注不足, 老年用戶與智能系統交互的理論探索與實證研究有待加強。目前老年人面臨的數字鴻溝問題, 很大程度上是因為老年用戶與青年用戶需求有較大差異, 產品設計、開發主要圍繞青年用戶的需求與交互特點展開。未來研究應基于老年用戶畫像和行為特征, 挖掘老年用戶對智能系統具體的輔助功能需求和情感陪伴需求。在此基礎上, 進一步基于“媒體等同”理論、“計算機為社會行動者”范式、心智模型與信息加工模型, 深入探究老年用戶與智能系統的交互過程, 以及系統屬性、情境因素對交互行為的綜合影響。
其次, 在人機信任層次, 現有理論與實證研究聚焦于初始型信任與單類型因素對人機信任的影響機制, 較少探究人機動態信任的發展規律及綜合考慮用戶、系統、情境多方面因素的影響。人機信任是一個動態變量, 是用戶在不斷變化的交互中, 探索、評估可信度和可靠性的持續過程。信任可能隨著交互時間的增加而增加, 也可能因為系統出現故障和用戶難以理解、預測的行為而下降。為確保用戶和智能系統之間的高質量交互, 需要進一步建立機制以培養、維護和修復用戶信任。并且, 相比于青年用戶在工作環境中使用智能系統, 老年用戶在居家環境中使用智能系統的情境更為多樣復雜, 智能系統的呈現形式也更多樣化, 應進一步探究系統屬性、情境因素對動態信任的影響機制。未來研究應進一步探究老年用戶對智能系統的動態信任發展規律及關鍵因素的影響機制。
再者, 在人機責任層次, 現有研究主要聚焦于駕駛、酒店服務、工作建議等場景, 對生活場景中的人機責任歸因研究較為缺乏。生活場景與工作場景在交互任務類型、交互效能要求、任務風險等方面有諸多差異。因此, 研究者在工作場景中得出的歸因機制相關結論推廣到生活場景中存在困難。在實際生活中, 運用于居家環境的智能系統一般由企業服務商設計和提供, 探究用戶如何對交互結果進行歸因, 是亟待解決的理論與實踐問題。此外, 現有研究尚未明確不同類型因素對人機責任歸因的影響, 如交互終端類型、事件效價、任務特征等因素的綜合影響。未來研究應綜合考慮多類別因素的主效應、中介、調節作用, 細化人機共融歸因機制。
綜上所述, 本研究將緊密圍繞老年用戶與智能系統的人機共融機制展開, 層層遞進, 從用戶需求、交互行為、人機信任、人機責任層次構建人機共融理論框架, 突破以往研究大多數聚焦青年用戶、工作場景、單次交互、單一類別因素影響的研究局限, 在居家環境中拓展智能系統的相關研究, 為居家智慧養老的實踐、智能系統的適老化設計提供理論支撐與重要參考。
3 "研究構想
本研究擬構建老年用戶與智能系統的多層次人機共融關系理論框架, 并探究用戶、系統、情境多類別因素對人機共融的影響機理。本研究將從老年用戶與智能系統互動的多個層次展開:在需求與交互行為層次上, 精準識別居家智慧養老場景中異質參與者的需求特征, 探究老年用戶與智能系統的交互行為模型, 探究符合老年用戶信息加工模型、心智模型的交互終端和系統社會特征, 提升交互自然性與效能; 在人機信任層次, 基于動態信任理論, 探究老年用戶與智能系統交互的人機動態信任發展規律, 探究用戶、系統、情境因素對動態信任的影響機制, 為老年用戶在居家環境中持續使用智能系統奠定基礎, 促進穩定的人機關系; 在人機責任層次, 基于責任歸因理論, 面對智能系統可能帶來的正面、負面結果, 明確不同類型因素對人機責任歸因的影響機制, 促進更好的人機協同。
本研究擬結合人機交互、社會心理學、決策科學等多學科理論與方法, 通過用戶訪談、問卷調研、人機交互實驗等研究, 在需求與交互行為層次, 識別老年用戶的需求特征, 構建老年用戶畫像與需求模型, 探究智能系統交互終端和社會特征對老年用戶交互行為的影響機制, 提升交互自然性與效能(研究1); 在人機信任層次, 探究老年用戶與智能系統交互的人機動態信任發展規律及多類別因素的影響機制(研究2); 在人機責任層次, 針對交互結果構建人機共融的責任歸因機制及多類別因素的影響機制(研究3)。
3.1" 研究1:老年用戶對智能居家服務的需求模型及人機交互效能提升研究
研究1擬探究老年用戶對智能居家服務的需求特征(研究1.1)與影響老年用戶與智能系統交互效能的關鍵因素(研究1.2) (見表1)。首先, 本研究遵循以用戶為中心的設計方法, 通過用戶訪談、問卷調研、個案分析等方法探究居家環境中異質參與者對居家智能系統的輔助功能需求、情感陪伴需求等, 剖析年齡效應, 對使用居家智能系統的典型用戶進行聚類分析, 探究老年用戶對不同類型智能系統的需求和使用意愿以及個體差異的影響, 細化使用場景, 識別使用居家智能系統的關鍵用戶特征, 構建使用居家智能系統的用戶畫像和需求模型(研究1.1)。研究1.2進一步根據研究1.1輸出的用戶畫像與需求模型構建智能居家環境和智能系統原型, 基于“媒體等同”理論、“計算機為社會行為者”范式、信息加工模型和心智模型探究智能系統交互終端、社會特征等因素對老年用戶使用意愿、交互效能與交互體驗的影響, 進一步根據人?任務?技術匹配框架(Ammenwerth et al., 2006), 探究用戶、系統、情境因素及交互作用對老年用戶交互效能與體驗的影響機制, 在不同情境下, 調整系統模型與用戶心智模型相匹配, 提升老年用戶與智能系統的交互效能與體驗。
3.2" 研究2:老年用戶與智能系統交互的人機動態信任研究
構建人機信任關系是老年用戶在居家環境中長期使用智能系統的關鍵環節。用戶與智能系統的交互不是一次性完成的, 人機信任具有動態性特征。現有人機信任相關研究主要集中在工作場景中, 關注初始型信任, 對持續型、動態信任的關注不足。因此, 研究2關注老年用戶與智能系統的人機信任動態發展規律(見表2), 擬結合主觀報告法與行為測量法構建動態信任測量方法, 測量老年用戶對智能系統的動態感知與信任行為(研究2.1)。在此基礎上, 進一步探究老年用戶與智能系統初次交互時, 信任動態構建過程及智能系統失效時, 動態信任的修復過程, 構建動態信任模型(研究2.2)。此外, 研究2.3將探究用戶、系統、情境因素對老年用戶與智能系統動態信任的綜合影響機制, 探究系統優化方案, 促進老年用戶與智能系統間穩定的人機動態信任關系。
3.3" 研究3:老年用戶與智能系統交互的人機責任歸因機制研究
智能居家養老系統的使用給老年用戶帶來便利的同時, 由于使用環境的復雜性、系統噪音等不確定性問題, 不可避免地有時也會帶來負面的交互結果。對于正面或負面的交互結果, 用戶如何進行責任的分配是社會關注的熱點。智能系統隨著智能程度和自主性的不斷提升, 逐漸具有獨立的分析、思考、決策的能力, 應把智能系統看作行為的主體, 而不僅是執行指令的普通工具。在這種情況下, 智能系統可能應與用戶共同承擔責任。已有研究在自動駕駛、酒店服務等場景中初步探索了個體對智能系統的責任推斷特點。在居家環境中, 有多種設備可以作為智能系統的交互終端與老年用戶進行交互, 不同的交互終端是否會引起用戶的責任歸因差異也是需要研究的重點內容。根據社會分類理論、刻板印象內容模型, 不同的交互終端給用戶帶來不同體驗的同時, 也有可能帶來用戶責任歸因的差異。交互情境在涉及的內容、重要性等方面的差異也可能引起用戶的責任歸因差異。基于此, 研究3關注老年用戶與智能系統的交互結果層次, 探究老年用戶對智能系統的責任歸因機制, 并探究交互終端、任務特征等因素的影響機制, 建立居家場景中人機共融的責任歸因機制, 剖析智能系統應用的利弊關系及潛在風險。
4 "理論建構與應用前景
伴隨智能科技的快速發展, 智慧養老將成為應對老齡化社會的重要支撐, 智能系統可為老年人實現個性化的養老提供有力保障。在此背景下, 居家智慧養老場景中老年用戶與智能系統之間的人機共融機制尤為重要。老年用戶對智能系統的需求是什么?老年用戶在使用智能系統上是否存在困難?老年用戶是否接受、信任智能系統?面對智能系統應用帶來的結果, 老年用戶是如何進行責任推斷的?目前, 老年用戶使用智能系統的過程仍存在用戶需求不明確、交互效能較低、信任度較低、責任分配不清晰等問題, 其交互效能與主觀體驗均有待提升。
本研究擬從用戶為中心的角度, 圍繞老年用戶使用智能系統的前、中、后三個階段展開研究, 基于“媒體等同”理論、“計算機為社會行動者”范式、信息加工模型、心智模型、信任理論、歸因理論等進行研究, 從使用前的用戶需求、使用中的交互效能、動態信任、使用后的責任歸因構建居家智慧養老場景中的多層次人機共融關系理論, 主要理論建構如下(見圖1):
第一, 在用戶需求、交互行為層次, 本研究關注居家環境中老年用戶的實際需求特征, 剖析年齡效應, 構建用戶畫像, 增強相關利益者對老年用戶需求的理解, 使智能系統服務與老年用戶的需求相匹配; 進一步探究老年用戶與智能系統的交互行為機理, 基于信息加工模型、心智模型、“媒體等同”理論、人?任務?技術匹配框架等架構, 探究智能系統交互終端、社會特征等因素對老年用戶使用意愿、交互效能與交互體驗的綜合影響, 根據實際使用場景調整系統模型與用戶心智模型相匹配, 提升老年用戶與智能系統的交互效能與體驗。
第二, 在人機信任層次, 本研究突破以往聚焦于用戶與智能系統單次交互的局限, 探究老年用戶與智能系統的動態信任構建過程, 包含初始型信任的構建過程, 使用過程中的持續型信任, 任務失效時的信任修復過程。在此基礎上, 本研究突破以往研究關注單一類別因素對信任的影響機制, 基于居家場景復雜多樣的特征, 探究用戶、系統、情境多類別因素對動態信任的綜合影響機制, 優化系統設計, 促進老年用戶與智能系統構建穩定的信任關系, 為老年用戶持續性使用智能系統提供理論基礎。
第三, 在人機責任層次, 本研究關注智能系統應用于居家場景帶來的正面、負面結果, 探究結果效價、終端類型、任務特征等因素的影響, 剖析智能系統應用的利弊關系及潛在風險, 建立居家場景中的人機共融責任歸因機制, 防范智能系統使用帶來的風險和責任溯源不清晰等問題。
本研究具有理論創新性。以往關于人機共融的研究主要考察青年用戶在工作場景中(如決策支持、協同制造等)的人機共融機理, 聚焦于青年用戶在工作環境中與單個智能設備的交互行為與效能問題, 較少關注不同智能設備之間的比較。智能居家環境中有多種終端可作為交互界面與老年用戶交互, 并且與工作場景不同, 居家養老不僅追求效率, 還追尋情感滿足等目標。此外, 人機共融過程中, 用戶需求、交互行為、人機信任、人機責任問題是緊密相連的, 現有研究主要關注其中某一問題的解決方案。用戶需求、交互行為層次側重于讓老年用戶能高效、自然地開始使用智能系統, 人機信任層次側重于支撐老年用戶持續性的使用行為, 人機責任層次側重于對交互結果的處理, 這些層次都影響著數字鴻溝的產生。本研究采取了整體性的研究視角, 認為人機共融中的需求、交互、信任、責任問題需要用整體性、系統性的角度進行探究, 不能被孤立理解和研究, 消除老年用戶面臨的數字鴻溝也需從這些關鍵問題整體突破。并且, 現有研究主要關注單一類別因素對某一層次人機共融的影響, 應綜合考慮多類別因素對不同層次人機共融的影響。基于此, 本研究進一步探究影響這些層次的“用戶?系統?情境”因素及其作用機制, 如用戶的個體差異、系統的交互終端、任務的多樣性等。
同時, 本研究的成果兼具較好的應用前景。首先, 本研究構建的老年用戶畫像與需求模型, 可有效預測老年用戶使用智能系統的高頻場景與產品功能, 有利于研發人員精準把握用戶的實際需求, 針對相應場景與功能進行研發, 降低成本, 提升對實際需求的滿足程度, 為智慧養老相關產品的創新提供支持。其次, 老年用戶與智能系統交互行為研究擬剖析多模態交互終端與系統設計特征對交互自然性與交互效能的影響機制, 進一步提出基于個體差異與任務特性的智能系統設計指南, 幫助研發人員確定智能系統的交互終端類型與其他設計特征, 推動“以老年人為本”的智能系統研發, 提升交互自然性與效能, 幫助老年人跨越數字鴻溝。在此基礎上, 本研究對于人機信任動態發展規律的探索涵蓋用戶、系統、情境多類別因素對人機信任的影響機制, 分析老年人初步使用智能系統的信任建立過程, 智能系統失效后可采取的補救措施與修復機制, 可為老年用戶與智能系統之間的高質量、持續性交互提供重要理論依據, 有助于研發人員完善信任修復策略。此外, 本研究針對老年用戶與智能系統的交互結果, 探究老年用戶對智能系統的責任歸因機制, 剖析智能系統應用的利弊關系及潛在風險, 并從實踐角度解讀智慧養老責任分配問題, 積極尋找應對策略, 對智慧養老的實踐及政策制定具有重要的現實意義, 促進智慧養老的正面效應。
總體而言, 本研究從用戶需求、交互行為、人機信任、人機責任多層次構建人機共融機理, 探究用戶、系統、情境多類別因素對人機共融的影響機制。本研究的重點與我國新一代人工智能發展規劃接軌, 進一步豐富人機共融管理理論, 為人機協同提供理論支持與實證參考。同時, 本研究探究困擾智慧養老實施的關鍵瓶頸, 研究成果有利于推動智能系統的適老化設計, 促進老年用戶與智能系統的高質量交互, 化解數字鴻溝, 助力老年友好型智慧社會的實現, 對我國老齡事業發展具有重要意義。
參考文獻
曹劍琴, 張警吁, 張亮, 王曉宇. (2023). 交互自然性的心理結構及其影響. 心理學報, 55(1), 55?65.
葛翔, 許詩卉, 王璟銘, 楊帆, 劉玳言, 趙敏, 徐濛. (2020). 服務機器人的屏幕設計偏好研究. 人類工效學, 26(2), 5.
國務院. (2022). 國務院關于印發“十四五”國家老齡事業發展和養老服務體系規劃的通知. 2022-02-21 取自 http://www.gov.cn/zhengce/zhengceku/2022-02/21/content_5674844.htm
黃心語, 李曄. (2024). 人機信任校準的雙途徑:信任抑制與信任提升. 心理科學進展, 32(3), 527?542.
孔祥維, 王子明, 王明征, 胡祥培. (2022). 人工智能使能系統的可信決策:進展與挑戰. 管理工程學報, 36(6), 1?14.
史元春. (2018). 自然人機交互. 中國計算機學會通訊, 14(5), 8?10.
孫效華, 張義文, 秦覺曉, 李璟璐, 王舒超. (2020). 人機智能協同研究綜述. 包裝工程, 41(18), 12.
許為, 高在峰, 葛列眾. (2023). 智能時代人因科學研究的新范式取向及重點. 心理學報, 56(3), 363?382.
Akalin, N., Kristoffersson, A., amp; Loutfi, A. (2022). Do you feel safe with your robot? Factors influencing perceived safety in human-robot interaction based on subjective and objective measures. International Journal of Human- Computer Studies, 158, 102744.
Albayram, Y., Jensen, T., Khan, M. M. H., Fahim, M. A. A., Buck, R., amp; Coman, E. (2020, November). Investigating the effects of (empty) promises on human-automation interaction and trust repair. Paper presented at the Proceedings of the 8th International Conference on Human-Agent Interaction, Virtual Event, USA.
Ammenwerth, E., Iller, C., amp; Mahler, C. (2006). IT-adoption and the interaction of task, technology and individuals: A fit framework and a case study. BMC Medical Informatics and Decision Making, 6(1), 3.
Ball, C., Francis, J., Huang, K.-T., Kadylak, T., Cotten, S. R., amp; Rikard, R. V. (2019). The physical?digital divide: Exploring the social gap between digital natives and physical natives. Journal of Applied Gerontology, 38(8), 1167?1184.
Bathaee, Y. (2018). The artificial intelligence black box and the failure of intent and causation. Harvard Journal of Law Technology, 31, 889.
Belanche, D., Casaló, L. V., Flavián, C., amp; Schepers, J. (2020). Robots or frontline employees? Exploring customers’ attributions of responsibility and stability after service failure or success. Journal of Service Management, 31(2), 267?289.
Blanchard-Fields, F., amp; Beatty, C. (2005). Age differences in blame attributions: The role of relationship outcome ambiguity and personal identification. The Journals of Gerontology: Series B, 60(1), 19?26.
Brooks, D. J. (2017). A Human-centric approach to autonomous robot failures. (Unpublished doctorial dissertation). University of Massachusetts Lowell.
Bux, R., Gilal, A., Waqas, A., amp; Kumar, M. (2019). Role of age and gender in the adoption of m-commerce in Australia. International Journal of Advanced and Applied Sciences, 6, 48?52.
Chang, R. C.-S., Lu, H.-P., amp; Yang, P. (2018). Stereotypes or golden rules? Exploring likable voice traits of social robots as active aging companions for tech-savvy baby boomers in Taiwan. Computers in Human Behavior, 84, 194?210.
Chaves, A. P., amp; Gerosa, M. A. (2021). How should my Chatbot interact? A Survey on social characteristics in Human?Chatbot interaction design. International Journal of Human?Computer Interaction, 37(8), 729?758.
Chen, C., Xu, X., amp; Arpan, L. (2017). Between the technology acceptance model and sustainable energy technology acceptance model: Investigating smart meter acceptance in the United States. Energy Research amp; Social Science, 25, 93?104.
Chu, C. H., Nyrup, R., Leslie, K., Shi, J., Bianchi, A., Lyn, A., ... Grenier, A. (2022). Digital ageism: Challenges and opportunities in artificial intelligence for older adults. The Gerontologist, 62(7), 947?955.
de Graaf, M. M. A., Allouch, S. B., amp; Klamer, T. (2015). Sharing a life with harvey: Exploring the acceptance of and relationship-building with a social robot. Computers in Human Behavior, 43, 1?14.
Elkins, A. C., amp; Derrick, D. C. (2013). The sound of trust: Voice as a measurement of trust during interactions with embodied conversational agents. Group Decision and Negotiation, 22(5), 897?913.
Esterwood, C., amp; Robert, L. P., Jr. (2023). Three strikes and you are out!: The impacts of multiple human?robot trust violations and repairs on robot trustworthiness. Computers in Human Behavior, 142, 107658.
Esterwood, C., amp; Robert, L. P. (2022, August). A literature review of trust repair in HRI. Paper presented at the 2022 31st IEEE International Conference on Robot and Human Interactive Communication (RO-MAN), Napoli, Italy.
Fainman, A. (2019). The problem with opaque AI. The Thinker, 82(4), 44?55.
Farooq, U., amp; Grudin, J. (2016). Human-computer integration. Interactions, 23(6), 26?32.
Feine, J., Gnewuch, U., Morana, S., amp; Maedche, A. (2019). A taxonomy of social cues for conversational agents. International Journal of Human-Computer Studies, 132, 138?161.
Ferreira, L., Oliveira, T., amp; Neves, C. (2023). Consumer's intention to use and recommend smart home technologies: The role of environmental awareness. Energy, 263, 125814.
Fiore, S. M., Wiltshire, T. J., Lobato, E. J., Jentsch, F. G., Huang, W. H., amp; Axelrod, B. (2013). Toward understanding social cues and signals in human-robot interaction: Effects of robot gaze and proxemic behavior. Frontiers in Psychology, 4, 859.
Fischl, C., Asaba, E., amp; Nilsson, I. (2017). Exploring potential in participation mediated by digital technology among older adults. Journal of Occupational Science, 24(3), 314?326.
Furlough, C., Stokes, T., amp; Gillan, D. J. (2021). Attributing blame to robots: I. The influence of robot autonomy. Human Factors, 63(4), 592?602.
Gambino, A., Fox, J., amp; Ratan, R. A. (2020). Building a stronger CASA: Extending the computers are social actors paradigm. Human-Machine Communication, 1, 71?86.
Gansser, O. A., amp; Reich, C. S. (2021). A new acceptance model for artificial intelligence with extensions to UTAUT2: An empirical study in three segments of application. Technology in Society, 65, 101535.
Ghorayeb, A., Comber, R., amp; Gooberman-Hill, R. (2021). Older adults' perspectives of smart home technology: Are we developing the technology that older people want? International Journal of Human-Computer Studies, 147, 102571.
Guo, Y., amp; Yang, X. J. (2021). Modeling and predicting trust dynamics in human?robot teaming: A bayesian inference approach. International Journal of Social Robotics, 13(8), 1899?1909.
Hancock, P. A., Billings, D. R., Schaefer, K. E., Chen, J. Y., de Visser, E. J., amp; Parasuraman, R. (2011). A meta-analysis of factors affecting trust in human-robot interaction. Human Factors, 53(5), 517?527.
Hancock, P. A., Kessler, T. T., Kaplan, A. D., Brill, J. C., amp; Szalma, J. L. (2021). Evolving trust in robots: Specification through sequential and comparative meta-analyses. Human Factors, 63(7), 1196?1229.
Heider, F. (1958). The psychology of interpersonal relations. Hoboken: John Wiley amp; Sons Inc.
Hoffman, R. R. (2017). A taxonomy of emergent trusting in the human?machine relationship. In P. J. Smith amp; R. R. Hoffman (Eds.), Cognitive systems engineering (pp. 137?164), London: CRC Press.
Honig, S., amp; Oron-Gilad, T. (2018). Understanding and resolving failures in human-robot interaction: Literature review and model development. Frontiers in Psychology, 9, 861.
Horstmann, A. C., amp; Kr?mer, N. C. (2022). The fundamental attribution error in human-robot interaction: An experimental investigation on attributing responsibility to a social robot for its pre-programmed behavior. International Journal of Social Robotics, 14(5), 1137? 1153.
Huff, E., Jr., DellaMaria, N., Posadas, B., amp; Brinkley, J. (2019, October). Am I too old to drive?: Opinions of older adults on self-driving vehicles. Paper presented at the 21st International ACM SIGACCESS Conference on Computers and Accessibility, Pittsburgh PA, USA.
Hung, L., Gregorio, M., Mann, J., Wallsworth, C., Horne, N., Berndt, A., ... Chaudhury, H. (2021). Exploring the perceptions of people with dementia about the social robot PARO in a hospital setting. Dementia: The International Journal of Social Research and Practice, 20(2), 485?504.
Ito, T. A., amp; Urland, G. R. (2003). Race and gender on the brain: Electrocortical measures of attention to the race and gender of multiply categorizable individuals. Journal of Personality and Social Psychology, 85(4), 616?626.
Jin, S. V., amp; Youn, S. (2022). Social presence and imagery processing as predictors of Chatbot continuance intention in Human-AI-Interaction. International Journal of Human?Computer Interaction, 39(9), 1874?1886.
Jones, E. E., amp; Nisbett, R. E. (1972). The actor and the observer: Divergent perceptions of the causes of behavior. New York: Gerneral Learning Press.
J?rling, M., B?hm, R., amp; Paluch, S. (2019). Service robots: Drivers of perceived responsibility for service outcomes. Journal of Service Research, 22(4), 404?420.
Kanstrup, A. M., amp; Bygholm, A. (2019). The lady with the roses and other invisible users: Revisiting unused data on nursing home residents in living labs. In Neves, B amp; Vetere, F (Eds.), Ageing and digital technology: Designing and evaluating emerging technologies for older adults (pp. 17?33). Springer, Singapore.
Kohn, S. C., Momen, A., Wiese, E., Lee, Y.-C., amp; Shaw, T. H. (2019). The consequences of purposefulness and human- likeness on trust repair attempts made by self-driving vehicles. Human Factors and Ergonomics Society, 63(1), 222?226.
Krajník, T., Kulich, M., Mudrová, L., Ambrus, R., amp; Duckett, T. (2015, May). Where's waldo at time t ? Using spatio-temporal models for mobile robot search. Paper presented at the 2015 IEEE International Conference on Robotics and Automation (ICRA), Seattle, WA, USA.
Lee, M., Frank, L., amp; Ijsselsteijn, W. (2021). Brokerbot: A cryptocurrency Chatbot in the social-technical gap of trust. Computer Supported Cooperative Work, 30(1), 79?117.
Lee, S., amp; Oh, H. (2021). Anthropomorphism and its implications for advertising hotel brands. Journal of Business Research, 129, 455?464.
Lee, S. K., Kavya, P., amp; Lasser, S. C. (2021). Social interactions and relationships with an intelligent virtual agent. International Journal of Human-Computer Studies, 150, 102608.
Lei, X., amp; Rau, P.-L. P. (2021). Effect of relative status on responsibility attributions in human?robot collaboration: Mediating role of sense of responsibility and moderating role of power distance orientation. Computers in Human Behavior, 122, 106820.
Lewis, M., Sycara, K., amp; Walker, P. (2018). The role of trust in human-robot interaction. In H. A. Abbass, J. Scholz, amp; D. J. Reid (Eds.), Foundations of trusted autonomy (pp. 135?159). Cham: Springer International Publishing.
Li, W., Yigitcanlar, T., Erol, I., amp; Liu, A. (2021). Motivations, barriers and risks of smart home adoption: From systematic literature review to conceptual framework. Energy research and Social Science, 80, 102211.
Liberman, Z., Woodward, A. L., amp; Kinzler, K. D. (2017). The origins of social categorization. Trends in Cognitive Sciences, 21(7), 556?568.
Liu, P., amp; Du, Y. (2022). Blame attribution asymmetry in human-automation cooperation. Risk Analysis, 42(8), 1769?1783.
Liu, S. X., Shen, Q., amp; Hancock, J. (2021). Can a social robot be too warm or too competent? Older Chinese adults' perceptions of social robots and vulnerabilities. Computers in Human Behavior, 125, 106942.
Macrae, C. N., amp; Bodenhausen, G. V. (2000). Social cognition: Thinking categorically about others. Annual Review of Psychology, 51, 93?120.
Madhavan, P., amp; Wiegmann, D. A. (2007). Similarities and differences between human?human and human?automation trust: An integrative review. Theoretical Issues in Ergonomics Science, 8(4), 277?301.
Mann, J. A., Macdonald, B. A., Kuo, I. H., Li, X., amp; Broadbent, E. (2015). People respond better to robots than computer tablets delivering healthcare instructions. Computers in Human Behavior, 43, 112?117.
Mattila, A. S., amp; Patterson, P. G. (2004). Service recovery and fairness perceptions in collectivist and individualist contexts. Journal of Service Research, 6(4), 336?346.
Mayer, R. C., Davis, J. H., amp; Schoorman, F. D. (1995). An integrative model of organizational trust. The Academy of Management Review, 20(3), 709?734.
McGlynn, S. A., Kemple, S., Mitzner, T. L., King, C. A., amp; Rogers, W. A. (2017). Understanding the potential of PARO for healthy older adults. International Journal of Human-Computer Studies, 100, 33?47.
Miller, D. T., amp; Ross, M. (1975). Self-serving biases in the attribution of causality: Fact or fiction? Psychological Bulletin, 82(2), 213?225.
Mittelstadt, B. (2019). Principles alone cannot guarantee ethical AI. Nature Machine Intelligence, 1(11), 501?507.
Naneva, S., Sarda Gou, M., Webb, T. L., amp; Prescott, T. J. (2020). A systematic review of attitudes, anxiety, acceptance, and trust towards social robots. International Journal of Social Robotics, 12(6), 1179?1201.
Nass, C., amp; Moon, Y. (2000). Machines and mindlessness: Social responses to computers. Journal of Social Issues, 56(1), 81?103.
Nass, C., Steuer, J., amp; Tauber, E. R. (1994, April). Computers are social actors. Paper presented at the International Conference on Human Factors in Computing Systems, Boston, USA.
Natarajan, M., amp; Gombolay, M. (2020, March). Effects of anthropomorphism and accountability on trust in human robot interaction. Paper presented at the Proceedings of the 2020 ACM/IEEE International Conference on Human-Robot Interaction, Cambridge, United Kingdom.
Navare, U. P., Ciardo, F., Kompatsiari, K., De Tommaso, D., amp; Wykowska, A. (2024). When performing actions with robots, attribution of intentionality affects the sense of joint agency. Science Robotics, 9(91), eadj3665.
Nicolas, G., de la Fuente, M., amp; Fiske, S. T. (2017). Mind the overlap in multiple categorization: A review of crossed categorization, intersectionality, and multiracial perception. Group Processes amp; Intergroup Relations, 20(5), 621?631.
Peek, S. T., Luijkx, K. G., Rijnaard, M. D., Nieboer, M. E., van der Voort, C. S., Aarts, S., ... Wouters, E. J. (2016). Older adults' reasons for using technology while aging in place. Gerontology, 62(2), 226?237.
Peek, S. T., Wouters, E. J., van Hoof, J., Luijkx, K. G., Boeije, H. R., amp; Vrijhoef, H. J. (2014). Factors influencing acceptance of technology for aging in place: A systematic review. Journal of Medical Informatics, 83(4), 235?248.
Reeves, B., amp; Nass, C. (1996). The media equation: How people treat computers, television, and new media like real people and places. Cambridge: Cambridge University Press.
Reig, S., Carter, E. J., Fong, T., Forlizzi, J., amp; Steinfeld, A. (2021, March). Flailing, hailing, prevailing: Perceptions of multi-robot failure recovery strategies. Paper presented at the 16th ACM/IEEE International Conference on Human-Robot Interaction, Boulder, CO, USA.
Robinson, H., MacDonald, B. A., amp; Broadbent, E. (2014). The role of healthcare robots for older people at home: A Review. International Journal of Social Robotics, 6, 575?591.
Rodrigues Barbosa, G. A., da Silva Fernandes, U., Sales Santos, N., amp; Oliveira Prates, R. (2024). Human-computer integration as an extension of interaction: Understanding its state-of-the-art and the next challenges. International Journal of Human?Computer Interaction, 40(11), 2761? 2780.
Rosales, A., amp; Fernández-Ardèvol, M. (2020). Ageism in the era of digital platforms. Convergence (Lond), 26(5?6), 1074?1087.
Schaefer, K. E., Chen, J. Y. C., Szalma, J. L., amp; Hancock, P. A. (2016). A meta-analysis of factors influencing the development of trust in automation: Implications for understanding Autonomy in Future Systems. Human Factors, 58(3), 377?400.
Schwaninger, I. (2020, March). Robots in older people's living spaces: Designing for trust in situated human-robot interaction. Paper presented at the Companion of the 2020 ACM/IEEE International Conference on Human-Robot Interaction, Cambridge, United Kingdom.
Shi, J.-g., Liu, M., Fu, G., amp; Dai, X. (2023). Internet use among older adults: Determinants of usage and impacts on individuals’ well-being. Computers in Human Behavior, 139, 107538.
Shin, D. (2021). The effects of explainability and causability on perception, trust, and acceptance: Implications for explainable AI. International Journal of Human-Computer Studies, 146, 102551.
Taing, C.-M., Rau, P.-L. P., amp; Huang, H. (2017). Handpad: A virtual mouse for controlling laptops in a smart home. Human-centric Computing Information Sciences, 7, 1?11.
Tay, B., Jung, Y., amp; Park, T. (2014). When stereotypes meet robots: The double-edge sword of robot gender and personality in human?robot interaction. Computers in Human Behavior, 38, 75?84.
Tomasino, K. N., Lattie, E. G., Ho, J., Palac, H. L., Kaiser, S. M., amp; Mohr, D. C. (2017). Harnessing peer support in an online intervention for older adults with depression. The American Journal of Geriatric Psychiatry, 25(10), 1109? 1119.
Tsertsidis, A., Kolkowska, E., amp; Hedstr?m, K. (2019). Factors influencing seniors' acceptance of technology for ageing in place in the post-implementation stage: A literature review. International Journal of Medical Informatics, 129, 324?333.
Weiner, B. (1995). Judgments of responsibility: A foundation for a theory of social conduct. New York: Guilford Press.
Weiner, B. (2000). Intrapersonal and interpersonal theories of motivation from an attributional perspective. Educational Psychology Review, 12(1), 1?14.
Whitmore, A., Agarwal, A., amp; Xu, L. D. (2015). The internet of things—A survey of topics and trends. Information Systems Frontiers, 17(2), 261?274.
Xie, Y., Zhu, K., Zhou, P., amp; Liang, C. (2023). How does anthropomorphism improve human-AI interaction satisfaction: A dual-path model. Computers in Human Behavior, 148, 107878.
Yang, G. Z., Dario, P., amp; Kragic, D. (2018). Social robotics-Trust, learning, and social interaction. Science Robotics, 3(21), eaau8839.
Yang, X. J., Schemanske, C., amp; Searle, C. (2021). Toward quantifying trust dynamics: How people adjust their trust after moment-to-moment interaction with automation. Human Factors, 65(5), 862?878.
Zafrani, O., Nimrod, G., amp; Edan, Y. (2023). Between fear and trust: Older adults’ evaluation of socially assistive robots. International Journal of Human-Computer Studies, 171, 102981.
Zhang, M. X. (2023). Older people's attitudes towards emerging technologies: A systematic literature review. Public Understanding of Science, 32(8), 948?968.
Zhong, R., Ma, M., Zhou, Y., Lin, Q., Li, L., amp; Zhang, N. (2024). User acceptance of smart home voice assistant: A comparison among younger, middle-aged, and older adults. Universal Access in the Information Society, 23(1), 275?292.
Zhou, J., amp; Gao, Q. (2021). Design for aging. In G. Salvendy, amp; W. Karwowski (Eds.), Handbook of human factors and ergonomics (pp. 1249?1286). John Wiley amp; Sons, Inc.
Exploration of multi-level human-machine integration theorybetween elderly users and intelligent systems
HUANG Hanjing1, RAU Pei-Luen Patrick2
(1 School of Economics and Management, Fuzhou University 350108, China)(2 Department of Industrial Engineering, Tsinghua University 100084, China)
Abstract: The development of smart aging is an important measure to meet the challenge of rapid population aging, which can both ease the pressure of social aging and meet the increasingly diversified needs of the elderly. However, the current applications of smart aging systems face a series of problems such as low acceptance of the elderly, low interaction effectiveness, low trust, and unclear responsibility allocations. Therefore, this study aims to construct a theoretical framework of human-machine integration between elderly users and intelligent systems from user needs, interaction behaviors, human-machine trust, and human-machine responsibility at multiple levels, and to deeply investigate the influence mechanisms of user characteristics, system attributes, and situational factors on human-machine integration. At the level of user demands and interaction behavior, this study constructs user persona, demand models, and interaction behavior models, optimizes the attributes of intelligent systems, and enhances the acceptance and interaction effectiveness of elderly users; At the level of human-machine trust, this study investigates the development law of human-machine dynamic trust between elderly users and intelligent systems, analyzes the comprehensive influence mechanism of various factors on dynamic trust, and promotes the sustainable use behavior and stable human-machine relationships. At the level of human-machine responsibility, in the face of the potential positive and negative consequences of applying intelligent systems, this study analyzes the impact mechanisms of various factors on the attribution of human-machine responsibility, and promotes better human-machine collaboration. Conducting this research will facilitate the development of human-machine integration theory and provide theoretical bases and practical contributions for the aging-friendly design and upgrading of intelligent systems.
Keywords: human-machine integration, user need, interaction behavior, human-machine trust, human-machine responsibility
* 國家自然科學基金青年項目(72301073), 福建省自然科學基金項目(2022J05018)資助。
通信作者:黃晗靜, E-mail: hhj@fzu.edu.cn