陳奕延 李 曄
1(北京理工大學管理與經濟學院 北京 100081) 2(南開大學經濟與社會發展研究院 天津 300071) 3(河北省公共政策評估研究中心 河北 秦皇島 066004)
技術的發展始終伴隨著人類文明前進的步伐,Norman[1]認為技術的目的是通過設備簡化人類的生活,但同時也使得這些設備變得更難被人類學習或使用,這是技術的悖論。在許多技術的發展過程中都可以明顯觀察到指數化變化以及雪球效應[2]。新興技術的成本會隨著技術規模的擴張而降低[3]。相比技術的發展速度,人類的認知發展則相對緩慢,無法及時適應或學習所有這些技術。
當一個國家或組織普及推廣新技術時必將給人們帶來新的挑戰,持續的技術擴散將迫使人們在很短時間內接受并適應新技術,但這種技術變革的引入會對人類情感和認知反應形成刺激[4]。當個體受到正向(負向)的刺激后,其情緒會迅速上升(下降)[5],雖然隨著時間推移個體會慢慢適應這種刺激,且個體的情緒會回歸基準線并達到以前的水平[6],但在短期內由于缺乏清楚的理解與認知,個體容易對新技術產生消極抵觸行為[7],這種行為會給國家或組織的發展與創新造成消極影響,比如導致企業業績不佳[8]。技術恐懼癥的表述尚未統一,我們通常將這種因使用新技術引發的消極、恐懼、排斥甚至厭惡情緒稱為“技術恐懼癥”。技術恐懼癥會給員工、組織,乃至國家的發展與創新帶來負面影響,特別是在人工智能技術飛速發展的今天,其復雜程度以及由此帶來的創新資源已經不是單獨個體可以輕易掌握并加以控制的[9],而科學家們卻往往忽視人們對技術的態度,一往直前地致力于開發新技術[10],這樣必然會導致短時間內人們對人工智能技術的恐懼。因此,找出克服人工智能技術恐懼癥的路徑顯得尤為重要。
本文研究的主要貢獻如下:(1) 提出人工智能技術恐懼癥的定義及誘因;(2) 借鑒以往研究,提出包括技術偏執、技術擔憂、技術焦慮、控制反叛、認同感匱乏五個指標的衡量人工智能技術恐懼癥的指標體系;(3) 采用5W模式并通過系統文獻綜述的方式,利用文獻定性分析法,分別提出克服技術偏執、技術擔憂、技術焦慮、控制反叛、認同感匱乏的路徑,為今后進一步研究提供了理論依據。
人工智能技術是當前全球關注度最高的技術之一,1956年的達特茅斯會議(Dartmouth Conference)上首次明確提出了“人工智能”的基本概念。人工智能領域的先驅Minsky[11]認為人工智能是“讓機器去做本來需要人類智慧才能做到的事情的一門學科”;另外一位人工智能領域的先驅,斯坦福大學的Nilsson[12]則認為人工智能是由知識的表示、知識的獲取和知識的運用構成的知識科學。在外形設計上,人工智能不僅可以與人類擁有相似的外形,比如本田公司制造的ASIMO機器人,也可以模仿其他生物,比如波士頓動力公司(Boston Dynamics)研發的機器狗Spot、SpotMini等。人工智能從能力范圍上來說可以分成廣義和狹義[13]兩類,廣義的人工智能要求具備完成復雜目標的能力,而狹義的人工智能則要求具備人的大腦一般的復雜智力。另外,按照發展代際和是否擁有自我意識的角度來劃分,則人工智能還可以分為弱人工智能、強人工智能[14]和超級人工智能[15],當前全球的人工智能發展水平尚處于“弱人工智能”階段。
面對“人工智能”等新興技術,人們會根據對待新興技術的態度衍生出兩類人群:被技術所吸引的一類人群可以稱為“技術愛好者”(Technophile),他們以積極的態度接受大多數或所有的技術,熱衷于使用新的技術形式,并將新技術視為改善生活條件和解決社會問題的一種方式[16]。然而,隨著現代技術在人類社會生活中的不斷擴散,對技術表現出恐懼的人數正在逐步增加,這種對技術的恐懼可以從簡單的對新技術的回避行為,例如拒絕使用新技術,發展為生理上的有機癥狀,比如出汗和心悸。這種現象將影響大約世界三分之一的人口[17],這種癥狀被稱為“技術恐懼癥”(Technophobia),患有“技術恐懼癥”的人是相對于“技術愛好者”的另外一類人群。
技術恐懼癥超越了國界限制,它是一種針對技術問題衍生的行為,與技術共存但不考慮物理位置[18],技術恐懼癥并非單純意義的恐懼癥(例如“廣場恐懼癥”),它可以被描述為一些針對先進技術消極、恐懼的想法或不愿意使用先進技術的態度[19];Osiceanua[17]則將技術恐懼癥定義為對現代技術和復雜技術設備的恐懼、厭惡或感到不適,它由兩個主要部分組成:(1) 對使用技術的恐懼;(2) 對技術給社會帶來的影響的擔憂。Korukonda[20]認為技術恐懼癥是教育和培訓系統以及商業組織中計算機技術快速普及發展的結果。由于技術在人類生活的各個方面廣泛存在,從職業工作、教育培訓到娛樂休閑,人類每天都在和技術進行著不同程度的接觸,因此,對接觸技術產生的恐懼在很大程度上影響著人們的生活質量[21]。
過去幾十年對技術恐懼癥的研究大多集中在信息通信技術上,信息通信技術產生的技術焦慮癥有“計算機恐懼癥”[22]、“計算機焦慮癥”[23]和“網絡恐懼癥”[24]等多種稱呼,這些稱呼并沒有本質意義上的區別[25]。許多學者對此進行了詳細研究:Salamzadeh等[19]通過定性研究的方法調查研究了伊朗大學里的講師和高等教育學生的技術恐懼癥,將技術恐懼的原因歸結為缺乏個人技能等共14個原因;Nimrod[25]認為技術恐懼癥與用戶的教育程度、健康狀況和幸福感相關,幸福感的缺失與技術恐懼癥之間呈現顯著的正相關性;Hogan[26]在研究中發現技術恐懼癥與性別和經驗有關,相關專業的經驗越高,則技術恐懼癥的水平越低;Bozionelos[27]研究了認知的自發性與計算機焦慮的關系以及對計算機使用的態度,結果表明認知的自發性與計算機焦慮之間存在顯著的負相關;Tekinarslan[28]研究了106名荷蘭和土耳其大學生的計算機焦慮水平及差異,結果顯示不論國籍,當學生的計算機經驗增加后他們的計算機焦慮水平會顯著下降;Rosen等[29]對澳大利亞等共10個國家高校大學生的計算機焦慮結構進行了比較分析,從文化特征、計算機教育、計算機軟硬件等方面探討了計算機焦慮的結構性異同;Weil等[30]對美國等一共23個國家38所大學的3 992名一年級學生的技術恐懼癥進行了調查,結果顯示大多數國家的樣本中計算機領域的經驗技術越豐富,技術恐懼癥的程度越低。
人工智能技術作為一種新興技術,同樣可以引發人們的“技術恐懼癥”。由于人工智能技術的出現與興起較互聯網技術更晚,因此針對人工智能技術引發的“技術恐懼癥”的研究目前較少。以自動駕駛汽車(Autonomous Vehicles)為例,它是承載了人工智能技術的智能工業載體,Hudson等[31]的研究表明,人們在對待自動駕駛汽車的態度上呈現出分化態勢。例如,20歲的年輕人群體對自動駕駛汽車感到不舒服的比例為73.4%,而在65歲的老年人群中這一比例則為82.6%。另外一項來自德勤科技、傳媒和電信行業中心[32](Center for Technology,Media & Telecommunications,Deloitte)的調查報告顯示雖然在微觀層面上有近三分之二的早期人工智能應用者認為人工智能技術對企業取得商業上的成功“非常”或“特別”重要,但在多數國家中,企業對潛在的人工智能風險的擔憂程度高于他們追趕或緊跟競爭對手的意愿程度,如圖1所示。

圖1 各國企業對人工智能技術的意愿與擔憂程度
顯然,即便是對人工智能技術持最樂觀態度的中國也存在對于人工智能的擔憂,這說明“技術恐懼癥”是普遍存在的,為與傳統的信息通信技術(ICT)引發的技術恐懼癥相區別,將這種由人工智能技術引發的技術恐懼癥命名為“人工智能技術恐懼癥”(Artificial Intelligence-based Technophobia)。人工智能技術恐懼癥使人類無法完全與人工智能在社會生活和科技活動中進行協作,人們對人工智能在安全隱私、道德倫理等方面均有或多或少的擔憂。另一方面,即便人類消除了技術層面上對于人工智能的擔憂,單純就外觀設計或行為上人類對人工智能依然存在恐懼。Mori等[33]提出的“恐怖谷”理論闡述了這一觀點,即當人工智能在外形或動作上與人類的相似程度超出一定閾值時,人類對人工智能的認同感反而開始下降,甚至出現“排斥情緒”(認同感為負),以工業六軸機器人、COG類人機器人、Aldebaran NAO機器人、Geminoid成人型機器人、玩具人偶等物體為例,可以看出人類對類人形人工智能的認同感甚至不如玩具人偶高,如圖2所示。
可見,人工智能技術恐懼癥與傳統的技術恐懼癥(比如信息通信技術(ICT)的恐懼癥)不同,患者不僅對使用人工智能技術以及人工智能技術帶來的社會問題產生消極、排斥、恐懼甚至厭惡的情緒和行為,對人工智能技術載體的外觀或行為也存在不認同感,二者的區別如表1所示。

表1 兩種技術恐懼癥的區別
由于人工智能技術恐懼癥與傳統的ICT技術恐懼癥不同,想要克服人工智能技術恐懼癥,則必須找到誘發人工智能技術恐懼癥的恐懼因素,進而針對不同的恐懼因素提出不同的克服路徑,這樣的研究需要在一定的背景條件下進行。人工智能的社會接納問題是一個具有挑戰性的開放問題,Mori等[33]和Kaplan[44]都認為應該把人工智能與人類環境的社會融合問題作為一項關鍵任務,對人類而言,與人工智能的合作不僅要保障生理的安全,在心理上也應該是舒適的[45],如果人類確實了解人工智能的意圖,那么他們就可以更好地開展合作[46],并使得人工智能可以按照人類認為的安全方式執行任務[47]。
在保障生理安全方面,人們對于人工智能的擔憂主要來自于兩方面。一方面是人工智能高度進化后可能會對人類造成的“背叛”,這是一種來自人工智能主觀意志(如果人工智能具備主體性和足夠的智慧,則自然擁有主觀意志)的威脅,目前尚未出現相關案例報道,但一經發生則后果會相當嚴重。另外一方面,則是使用人工智能過程中由于機械或系統故障帶來的那些威脅人類生命健康安全的隱患,比如空間機器人因長期重復執行控制指令發生的系統崩潰[48-49]。這種威脅不會以人工智能的主觀意志為轉移,而是一種客觀存在的現象,就像人類會生病一樣,這些隱患可以通過技術手段加以解決,即只需要對人工智能進行升級改進,而不需要特別關注患有人工智能技術恐懼癥的人們(通常為用戶群體)的感受。只要降低了人工智能技術的故障率,則出現危害人類生命健康安全的事件的概率也會相應降低,人們自然無須再擔心技術安全造成的生命健康威脅。正如19世紀末汽車問世至今,人們對駕駛汽車的態度變化一樣。據此提出背景假設:(1) 研究討論的人工智能是與人類智慧相當或更高的強人工智能或超級人工智能;(2) 研究討論的人工智能技術恐懼癥的恐懼因素,不包括人工智能因發生客觀故障對人類造成的生理安全威脅。
要找到克服人工智能技術恐懼癥的路徑,則必須首先找到人們產生人工智能技術恐懼的各種恐懼因素,即導致人工智能技術恐懼癥發生的因素,用它們構建一套合理、客觀的指標體系,在此基礎上進行探討分析。在心理方面,很多學者也做出過對于技術恐懼癥的相關的研究,大多數都是用量表來測試并分析技術恐懼癥的程度,常用的有KHASAWNEH技術恐懼癥量表[50]、技術接受模型[51](Technology Acceptance Model,TAM)、特質元情緒量表[52](Trait Meta-Mood Scale,TMMS)、組織氛圍問卷[53](Litwin and Stringer Organizational Climate Questionnaire,LSOCQ),這些量表主要發放給受試者,讓受試者根據不同的項目進行打分,然后利用統計工具對調查結果進行分析,屬于定量分析。雖然這些定量研究較為客觀合理,且貼近實際生活,但信息的收集容易受到問題和受試者差異的影響,故調查的結論通常也會不同,因此,參考KHASAWNEH技術恐懼癥量表并結合人工智能技術恐懼癥的特點,在此基礎上構建誘發人工智能技術恐懼癥的指標體系。KHASAWNEH[40]設計的量表用五個指標來衡量分析技術恐懼癥,包括技術偏執(Techno-Paranoia)、技術擔憂(Techno-Fear)、技術焦慮(Techno-Anxiety)、控制反叛(Cybernetic Revolt)、手機回避(Cellphone Avoidance),這五個指標的具體釋義如表2所示。

表2 KHASAWNEH技術恐懼癥量表的指標及釋義
顯然,前4項指標的適用對象不限于特定的技術,所以也可用于解釋人工智能技術恐懼癥,而第5項指標具有較強的針對性,針對的是信息通信技術(ICT)。由于研究對象是人工智能技術恐懼癥,加之人工智能技術恐懼癥與ICT技術恐懼癥有所區別(詳見表1),故第5項指標并不適用于此。結合Mori等[33]的“恐怖谷”理論,將第5項指標“手機回避”替換為“認同感匱乏”(Less Sense of Identitiy),可以構建一個用于衡量人工智能技術恐懼癥的指標體系如表3所示。

表3 衡量人工智能技術恐懼癥的指標體系
由于以往的研究都是通過含有不同指標的量表,從不同的受訪群體中抽取樣本進行調查并收集信息,最后利用統計的方法對信息進行處理分析,這些研究方法存在一定局限性,易受到指標選取、調查對象選取、樣本容量大小等因素的影響,方法雖然客觀,但研究的魯棒性較差,容易得到不一致甚至相矛盾的結論,加之人工智能技術恐懼癥的成熟研究較少,數據匱乏不易獲取,采用定量分析的方法存在困難。
由于文獻分析法具有工作效率高、信息獲取簡單、分析成本低的優勢,而定性分析可以在宏觀層面用邏輯清晰揭示各種現象的內在聯系[54],文獻定性分析法則結合了兩種分析方法的優勢,故研究采用文獻定性分析法,利用Lasswell[55]的5W模式,利用系統文獻綜述(Systematic literature review)的方式針對人工智能技術恐懼癥的每一個指標進行指向性的文獻搜集,然后通過梳理分析搜集的研究文獻,提出客觀科學的克服人工智能技術恐懼癥的有效路徑。另一方面,雖然在短時間內無法克服所有患者的人工智能技術恐懼癥,但人類個體可以通過情緒放大的方式影響整個群體,即個體可以通過傳播感知、經驗、態度、信念、信息編碼和目標尋求來改變整個群體對上述因素的態度[56-58],如果少部分人群克服了人工智能技術恐懼癥,通過情緒放大的途徑,則可以緩解剩余患者的人工智能技術恐懼癥,使整個群體的情緒趨于凝聚和穩定[59-60],對進一步克服人工智能技術恐懼癥起到積極作用。
對于人工智能技術的偏執來源于對技術不合理的懷疑或不信任,這是因為人類對人工智能的出現抱有一種敏感的兩面情緒,一方面人類對于創造人工智能這件事而言是自大且自信的,認為自己扮演了造物主的角色,可以認為人工智能的出現是人類第一次親手創造出了擁有高智慧及自主性的事物,所以人類對人工智能抱有一種“自大”情緒,但這種情緒并不完全等同于心理學上典型的“自戀型人格”(Narcissistic Personality)。自戀是一種帶有傲慢和權力感,并喜歡剝削他人意愿有關的人格特質[61],具有崇拜需要[62],而這種崇拜需要來源于扭曲的自我觀點和自我提升[63],但人類清楚人工智能強大的能力,也沒有信心百分之百能夠讓人工智能崇拜自己,否則就不會對人工智能抱有恐懼情緒,所以這種“自大”并非純粹的“自戀”。人類除了身為造物主的“自大”之外,對于人工智能還帶有“自卑心理”,這是因為人類的進化具有排他性,雖然人類經常標榜自己是熱愛和平的生物,但自從人類祖先誕生這幾十萬年以來,人類卻滅絕了地球上90%的物種,且人類滅絕生物的速度是自然界創造新生物種速度的1 000倍[64],但人工智能不同于以往的自然演化生物,人類是無法徹底消滅人工智能的,除非人類放棄發展人工智能,而人工智能的智慧水平卻隨著人類的需求變得越來越高,甚至在未來會有超越人類的一天。人類對人工智能強大的能力有一種渴望,同時還混雜著自卑情緒。因此,可以認為人類對人工智能抱有復雜的感情,但這種感情使人類進入了一種“雙重自我否定”的悖論情結:一方面人類之于人工智能扮演著“造物主”的角色,認為自己理應擁有高于人工智能的社會位置;而另一方面,人工智能所具有的能力又遠遠強于人類,在能力范疇上人類無法企及,人類出于本能對人工智能擁有一種防御心態[65]。由此可知,人類無法完全信任人工智能技術。由于這種技術偏執導致的不信任并非因為信息匱乏或者知識結構不對稱,而是一種不合理的懷疑或不信任,所以它無法通過簡單的科學普及或知識學習來解決,必須從心理或組織管理的角度中尋找相應的克服路徑。
克服技術偏執的路徑是提升自我效能。自我效能是指個體對自己能否順利完成任務的信念或信心[66],人工智能技術的發展是不可回避的,因此可以把人工智能的出現視作一種挑戰性壓力(Challenge Stress)[67],個體在面對壓力時更傾向于改變環境[68],比如通過創新的方式[69]。當人類面臨人工智能帶來的壓力時,如果能夠將這種壓力視作挑戰性壓力,則可以提升人類的自我效能,而自我效能的增加也可以促進對他人的信任感,特別是在團隊中員工之間的彼此信任[70],而人機協作的環境中,人類和機器人需要共同作業組成一個團隊組織,又因為在之前的假設中認為人工智能具有和人類相當甚至更高的智慧(強人工智能或超級人工智能),所以可以將研究中的人工智能臨時賦予人類的“主體性”,即將人工智能作為人類來看待。當人類的自我效能增加時,在團隊氛圍中對人工智能的信任也自然會增加;另一方面,根據壓力交易理論[71],當個體承擔了過多的工作任務和工作職責時,他們會更多地關注個人投入是否得到合理的補償,即是否存在“分配公平”的組織管理機制,若不存在這樣“分配公平”的機制,組織內的成員無法通過多勞多得的方式獲得自我肯定感和勝任感,則個體完成任務的動力和自信都會大打折扣,自我效能反而會因此降低[72]。分配可能會致使自我效能下降,但由于人工智能提高了社會生產效率,使得社會的供給增加,分配問題的重要性相對而言有所下降。Graetz等[35]利用1993年至2007年17個國家的工業面板數據研究了工業機器人與發達國家取得的經濟成果之間的關系,發現工業機器人的使用量的增加與勞動生產率的提高有關,機器人使用量的增加對每年的勞動生產率增長貢獻了大約0.36%,對整體經濟生產力增長的貢獻達到了15%,不僅增加了供給降低了產出價格,而且提高了全要素生產率。所以,當人工智能充斥社會各個工作崗位后,不必過度擔心分配問題,因為物質會變得極豐富。既然分配公平不會過多影響個體自我效能的提升,因此有理由認為提升自我效能可以克服技術偏執。
對于人工智能的技術擔憂來自不想被人工智能改變現有生活模式的固執心理,而著名心理學家Festinger[36]認為固執心理被認為是由認知失調(Cognitive Dissonance)引起的,認知失調就是由于兩種認知在環境、個人行為、信仰、意志、信念等不一致而使人滋生的緊張心理,情況嚴重時會導致人格失常與離軌行為。人們不想改變現有的生活狀態,是因為現有的生活環境形成了一個符合自身心理舒適的“舒適區間”(Comfort Zone)。舒適區最早來源于安全旅行和交通心理學領域,Gibson等[75]將它定義為駕駛過程中使司機感到舒適的行為。后來這一概念逐步拓展延伸至社會心理學和管理心理學,它代表了個體表現出來的習慣性行為模式和認知狀態,習慣處于舒適區間的人們不希望改變現有的行為狀態或固有認知,因此會不自覺地排斥外來介質的干擾,如果行為超過舒適區,則會產生焦慮不安。長期處于舒適區環境下的人們會產生認知失調,他們對待新鮮事物會習慣從主觀意愿出發,采用自己習慣的固有認知,習慣性地排斥和拒絕與固有認知相悖的情況,當新鮮事物與固有認知不符時,就會對新鮮事物產生排斥[38],最嚴重的情況會發展為“認知閉合”,即個體會過度利用某些社會線索,通過“以偏概全”的方式說服自己,避免再次面對認知的模糊性(固有認知與新鮮事物兩種認知造成的模糊性),且不愿吸收與原有信息不一樣的新信息,很難被他人說服[39]。面對人工智能,人們會用習慣的固有認知去衡量這一新鮮事物,在兩種認知產生不一致后就會形成擔憂情緒,擔憂人工智能作為外來介質會改變個體原有的心理舒適區,從而產生技術擔憂。
克服技術擔憂的路徑是走出心理舒適區或拓展心理舒適區。走出舒適區域要通過激勵的措施來激發人們不畏艱險、努力嘗試的情緒。當個體接收的信號較為積極時,人們會感受到更多對自我社會判斷能力的確定性,從而產生積極情緒[40],而正確的引導也可以激發個體的勇氣[41],而個體在面對壓力時更傾向于改變環境[68],因此,采用適當的方法是可以促使人們走出心理舒適區,克服技術擔憂的。另一方面,擴展個體的心理舒適區也是一個好方法,這種方法通常被用于心理治療,目的是增強自我認知和情感體驗[80]。在人工智能的設計上也要更加注重工效學和用戶體驗,Ciuha等[43]研究了男性和女性皮膚區域對溫度刺激的敏感性,雖然結論并沒有呈現出因性別不同導致的顯著的熱敏性差異,但研究發現手臂的熱敏感性相比其他軀體部位更高。在設計人工智能散熱性功能的時候,可以將上述因素納入考慮,提高客戶群體對產品的體驗感,使客戶對該產品的自我認知得到強化,并形成該產品使用起來非常舒適的固有認知,這在無形中拓展了心理舒適區。顯然,不論是引導人們走出心理舒適區,或者通過工效學和用戶體驗的知識拓展心理舒適區,都可以成為克服技術擔憂的路徑。
對于人工智能技術的焦慮來自于對人工智能技術的不熟悉以及缺少使用人工智能技術的相關經驗。這種技術焦慮與技術擔憂和技術偏執不同,按照Osiceanua[17]對技術恐懼癥的定義,這種技術焦慮并非單純針對人工智能技術本身的恐懼,而是對人工智能技術已經或未來可能給社會帶來的影響產生的焦慮,其中最主要的焦慮來自于因無法掌握或熟練應用新技術而失業[72],事實上這種焦慮并非毫無根據,很多學者都認為人工智能技術的推廣和普及會導致一部分群體失業。Zemtsov[73]認為使用無人技術可能會導致就業水平下降,以俄羅斯為例,大約44%的工人會被無人技術替代,在從事制造業的發達地區,工人被無人技術的替代率要高于不發達地區。Gomes[74]拓展了新古典增長模型,用它分析了自動化對總體經濟的影響,認為當前社會出現的創新浪潮面臨著失業以及機器人替代勞動力帶來的潛在社會動蕩。Frey等[75]利用高斯過程分類器估計了702個詳細職業的計算機化的概率,基于這些概率估計研究了未來計算機化對美國勞動力市場的影響效果,得到了工資和教育成就與計算機化的可能性之間呈現強烈的負相關的結論,認為資本將深化對技能勞動力的需求。通過預測可以發現,有170個職業被計算機技術替代的概率在90%以上,大多數運輸工人、后勤崗位人員、大量的辦公室和行政部門助理人員、生產部門的勞動力人員都存在工作崗位被計算機技術替代的風險。按照馬斯洛的需求理論,生理需求位于最低的層級,這其中就包括對于水和食物的需求,如果勞動者失業,則他們的可支配收入必然下降,這在一定程度上將會影響他們最為基本的生理需求,使他們的生活質量下降。因此,有理由認為擔憂因無法掌握人工智能技術而失業,從而導致生活質量下降甚至影響生存是技術焦慮的根源。
克服技術焦慮的路徑是針對人工智能技術教育培訓的模式開展技術創新。人工智能技術是一項非常復雜的技術,需要掌握數學、計算機、自動化等多個領域的專業知識。傳統的面授式培訓和教育方式有較多限制,且流程上較為碎片化,應該將其進行系統化、集成化、靈活化、平臺化整合,不僅要滿足專業人士的教育培訓需求,也要滿足一些興趣愛好者的自學需要,通過技術創新的方法提高培訓設施或軟硬件設備的科技附加值,從而進一步提升教育培訓的整體效率。Deniz等[76]提出一種為工業機器人離線編程而設計的新穎的互動式訓練平臺,其目標是支持機器人教育、實用機器人學習、工業機器人科學這三項教育培訓任務,通過該交互式機器人平臺,客戶可以創建所有商用機器人品牌的機械手幾何配置和新的機械手幾何設計。該平臺涵蓋了如編程、基本運動類型(線性、關節、重新定向)、操縱器工作空間定義、刀具中心點和軸速度、加速度等所有參數和功能,能夠提供可插入到工作區中的實體組件并進行編程演示,同時具備真正的編程邏輯控制器和離線編程的機器人連接裝置。平臺體積小,是基于開源庫設計和開發的,能夠在所有操作系統(如Windows、Mac和Linux)上工作。Perez等[77]研究了虛擬現實與機器人技術之間的協同作用,提出了利用商業游戲技術來創造一個基于虛擬現實的完全沉浸式環境。該環境包括一個連接到機器人控制器的接口,在該接口上實現了控制虛擬機器人所需的數學模型,該系統可用于訓練、仿真和更具創新性的功能。該系統對于機器人控制而言具有集成性、非昂貴性和獨特性的優點,可滿足機器人愛好者進行自學的需求。Borrero等[78]在機器人學的實驗訓練領域提出了一個新的現實和新的教學/學習概念,這是一種基于增強現實的遠程實驗室系統,能夠使教授和學生在當前的課堂實驗室即時交流,系統中包括與真實實驗室交互的虛擬元素,相比傳統的課堂實驗室,這種遠程實驗室系統提供了更多的功能。諸如此類的研究還有很多,顯然,要克服技術焦慮就必須改善外來就業前景,增強人們的就業期望,通過技術創新改善教育培訓流程可以完成這一任務。
人們對“控制反叛”的擔憂源自于人工智能不斷演化,且最終擁有超越人類智慧的情境,當人工智能的能力徹底超越人類后(強人工智能或超級人工智能階段),人們擔心沒有辦法有效約束人工智能,而人工智能也未必會像現在一樣(弱人工智能)甘心被人類支配管束。在短期內,人工智能還無法達到人類的思維水平。雖然人工智能擁有遠超人類的物理運算能力和邏輯推理能力,但人類擁有的敘事力和共情力仍然是難以復制和被替代的[79],所以短期內人工智能不會具備自我意識和復雜思維,它只是一種執行或從事輔助決策的工具,無法凌駕于身為使用者的人類之上,加上有諸如“機器人三定律”[80]一樣的規則約束,短期內人工智能確實不會對人類造成威脅,人們對人工智能“控制反叛”的憂慮并不來自于當前人工智能的發展階段。
但在未來數十年后,當人工智能進一步進化到強人工智能或超級人工智能階段,人們對人工智能“控制反叛”的憂慮則變得合乎情理。Campa等[81]認為人類未來會將太空殖民地化,但由于人類在外層空間無法長期生存,所以這一太空殖民地化的過程將由機器人輔助,或完全由機器人完成。另一方面,基于機器學習的人工智能發展將會導致奇點的出現,人類和敵對的人工智能之間將會爭奪有限的資源。Last[82]則認為人工智能技術的發展可能使人類在2020年至2025年之間出現大規模的勞動力市場混亂,這會進一步加速收入和財富的不平等。另外,人工智能帶來的技術變革預示著人類社會將出現一個超越市場和國家的控制組織,比如“全球腦”自組織巨型網絡,它擁有分布式組織和開放式組織功能,使得那些封閉人類思想和潛在性的等級集中型組織趨于瓦解。雖然上述觀點較為悲觀,但顯然人工智能反叛甚至統治人類的可能性是存在的。
克服“控制反叛”的路徑是文明備份(Civilization Backup)。當人工智能深入人類社會后,人類在日常生活中將對人工智能產生深度依賴,為此人類將不具備單獨面對自然界的生存能力,也無法利用自身知識另外復制一套人工智能體系,人類自身的物種更新和族群界定可能也會被迫改變[65]。因此,研究認為:當人工智能高度進化后,人類通過進攻性的手段主動毀滅那些可能存在反叛意識的人工智能是不現實的,亦不具備那種能力。另一方面,當人類壓制人工智能的一切方法失效后,為防止種群滅絕的最后防御性手段就是文明備份,這種文明備份可以使人類在滿足最低生存能力的前提下進行種群繁衍和文明傳承,防止因大篩選理論(Great Filter)[83]而導致種群毀滅。早在2006年,挪威政府就開始在斯瓦爾巴群島建立了斯瓦爾巴全球種子庫(Svalbard Global Seed Vault)[84],為150萬種人類最重要的農作物儲存種子,該設施也將備份一些獨立的藏品,以保護其不受戰爭式的毀滅影響,但這種備份方式仍然不夠安全,容易受到氣候變暖和海平面上升等氣候影響。Chu[85]提出了一個人類文明的備份系統,該系統由備份服務器組成來存儲和分散人類文明和移動終端的知識,并將智能手機和平板電腦等移動終端作為接收和顯示那些存儲在服務器中的知識的終端設備。Shapiro[86]提出為防止災難對文化信息和人類知識庫的影響,應該選擇月球作為地點,建立一個配備人員的數據備份設施,當地球人口被摧毀時可以通過月球上的數據備份設施來重建地球文明。通過文明備份,可以把人類社會的部分人口、生態環境、科學技術、歷史、文化等在人工智能尚難以觸及的環境中完整地留存,預防人工智能對人類的毀滅,也是克服“控制反叛”的最優路徑。
認同感的匱乏主要來源于Mori等[33]的恐怖谷理論。人類對于人工智能的認同感會隨著人工智能與人類的相似度的提升而增加,但當相似度超過一個閾值時則這種認同感會突然下降至谷底,只有當人工智能的外表、動作相對于人類的相似度繼續回升并超過一定閾值時,人類對人工智能才能恢復正面認同感[33]。這種認知差異感的失真現象本質上被認為是人類對不同強弱關注度信息處理的結果[87],人類的生理結構決定了在觀察事物的同時眼睛會對信息進行選擇性提取[88],對于高度關注的信息會在腦中加強其印象,而對于關注度低的信息則會在腦中被減弱,而高度關注的信息則會被大腦再加工并進行信息表征,表征結果會被用于與心理預期進行對比,若超過預期則認同感會上升,反之則下降。進一步的研究表明,即便外觀與人類高度相似的人工智能,當人類在觀察它們時,人工智能的異常行為舉動會降低人類的關注度,使得人類對該行為的心理綜合感受呈現出較低水平[89],這與Damasio[90]的軀體標識理論相符。
克服“認同感匱乏”的路徑是情感培育,即通過培育人類與人工智能之間的情感來克服“認同感匱乏”。有研究表明認知程度會直接影響認同感,即認同程度[91],而情感因素則可以影響認知,促進或阻止人類認知過程中的工作記憶、推理規劃等活動,不論這種情感是恒?;驎簳r,都會對認知過程中的信息加工起到組織和協調作用,幫助人類進行信息選擇[92-93]。另外,根據心境一致性假說[94],當人們處于一種情感狀態時,則會傾向于選擇加工與該情感效用一致的信息,例如人們在處于高興狀態時,會傾向于對事物啟發積極的認知,但當人們處于悲傷狀態時,則會對事物產生消極的認知。俗話說“睹物思人,日久生情”,通過培育人類與人工智能之間的情感能夠消除認知差異感,增加人對人工智能的認同感,在理論上是可以克服“認同感匱乏”的。目前可借鑒的做法是放棄直接在軟硬件上賦予人工智能各型能力,而是在社會上引入一批“發展型人工智能”并加以培育。發展型人工智能[95](Developmental Artificial intelligence)是一種由人類嬰兒獲得啟發,可以融入生活環境中像嬰兒一樣進行模仿學習、自我成長的人工智能。通過建立兒童心智程序,可以使發展型人工智能最終成長為成人型人工智能,這樣能使人工智能在人類社會的生活中自然而然地接觸人類、理解人類,從而培育出與人類相處的思維方式和共情感,這樣不僅可以使人工智能變得更加“人性化”,也可以加深人類對人工智能的情感,利用積極的情感影響認知,從而避免認知差異感,克服“認同感匱乏”。
當一部分人群通過上述路徑成功克服了人工智能技術恐懼癥之后,這部分人群能夠通過情緒放大的方式降低剩余人群人工智能技術恐懼癥的恐懼程度,最終完全克服人工智能技術恐懼癥,使得人類對人工智能持高度接納態度,充分擁抱人工智能帶來的技術變革,從而最終引發整個社會的變革。另一方面,隨著人工智能對人類經濟社會的不斷滲透,當人們逐步克服技術偏執、技術擔憂、技術焦慮、控制反叛、認同感匱乏后,人和人工智能之間將會形成一個“人機共享”的社會[96],人與人工智能將各盡其職、各取所需、平等協作、共榮共存,兩者將共同分享資源和發展機遇。
研究詳細梳理了關于技術恐懼癥的大量文獻,在分析了ICT技術恐懼癥的基礎之上進一步提出人工智能技術恐懼癥的定義。然后提出研究的背景假設,厘清了研究的邊界,借鑒已有研究和人工智能的技術特征,構建了涵蓋技術偏執、技術擔憂、技術焦慮、控制反叛、認同感匱乏五個指標的衡量人工智能技術恐懼癥的指標體系。最后,利用文獻定性分析法,根據5W模式分別檢索搜集了與技術偏執、技術擔憂、技術焦慮、控制反叛、認同感匱乏相關的研究文獻,通過系統文獻綜述(Systematic literature review)的方式深度剖析了這現象產生的原因,并據此分別提出克服人工智能技術恐懼癥的五條路徑,填補了以往研究的空白。通過研究可以得到以下研究結果:(1) 人工智能技術恐懼癥是人們對人工智能技術以及技術載體、引發或可能引發的社會問題的擔憂、排斥與厭惡情緒;(2) 與傳統的ICT技術恐懼癥不同,人工智能技術恐懼癥對技術載體的外觀或行為也存在一定程度的恐懼;(3) 可以用技術偏執、技術擔憂、技術焦慮、控制反叛、認同感匱乏這五個指標來衡量人工智能技術恐懼癥;(4) 克服技術偏執的路徑是提升自我效能;(5) 克服技術擔憂的路徑是走出或拓展心理舒適區;(6) 克服技術焦慮的路徑是教育培訓的技術創新;(7) 克服“控制反叛”的路徑是文明備份;(8) 克服“認同感匱乏”的路徑是情感培育。
研究使用了定性分析的方法,未來可進一步細化用于衡量人工智能技術恐懼癥的指標體系,在已有指標的基礎上構建二級指標、三級指標,根據指標體系設計調查問卷,通過電話訪談、面談、網絡會議等方式搜集相關信息,然后對信息進行提煉匯總并進行定量分析。另外,對于人工智能技術恐懼癥的研究也可以考慮不同區域、不同性別、不同職業、不同學歷人群的具體特征,在現有研究的基礎上進一步細化。