吉姜蒲
摘要:2021年是元宇宙元年,作為元宇宙重要基礎的腦機接口技術在醫療健康等領域獲得迅猛發展,其工具屬性和價值屬性得到了極大凸顯,也由此引發了一系列可能存在的風險問題,如大腦增強風險、自由意志風險、意識操縱風險等。這些風險挑戰給腦機接口技術帶來了一系列倫理困境,如腦電信號轉化復雜性形成的輸出誤解、倫理選擇過程中呈現的價值取向難題、腦電信息不當獲取造成的隱私泄露、軍事領域濫用帶來的技術恐慌等。防范化解腦機接口技術風險,解決其面臨的合規困境難題,澄清責任主體歸屬界限并建構倫理規制體系,能夠科學理性地減少腦機接口技術可能帶來的失控局面,進而推動以腦機接口為核心技術的元宇宙健康有序發展。
關鍵詞:腦機接口;元宇宙;數字孿生;倫理困境
中圖分類號:N02? ?文獻標志碼:A? ?文章編號:1009-3605(2022)03-0116-06
2021年,元宇宙成為備受關注的詞匯之一,其概念引起了各行各業的討論。大家公認的“元宇宙”(Metaverse)一詞來源于尼爾·斯蒂芬森的科幻小說《雪崩》。2021年元宇宙呈現出驚人的爆發力,其背后是相關“元宇宙”要素的“群聚效應”,近似于1995年互聯網所經歷的“群聚效應”。伴隨元宇宙熱點的不斷升溫,相關周邊產品已經開始全面推進。在這種認知“狂歡”的背景下,從哲學和腦機接口技術的相關視角審視元宇宙給人類社會帶來的風險與挑戰,研判倫理層面的應對舉措,顯得尤為必要。
一、元宇宙的哲學意蘊和技術基礎
元宇宙作為一種與現實世界相平行的虛擬世界,在可預見的未來某個階段,人們可以在現實世界和虛擬世界中“穿梭切換”,極大促進人類心靈的認知創新,強化個體對虛擬場景的“沉浸體驗感”。
(一)元宇宙的發展進程
元宇宙始于游戲平臺已經成為業界的一個共識,游戲平臺給了玩家足夠的自由去創造,人們在游戲中可以搭建與現實生活相似的場景,或者創造出新的場景,因此可以在游戲中實現原本發生在現實生活中的聚會。百度上線了第一款元宇宙產品“希壤”,使客戶、開發者、用戶共同打造一個虛擬的世界。用戶在虛擬的空間中行走,“真實感”與“生態化”是其亮點所在。[1]2021年3月,元宇宙由虛到實,提出要打造元宇宙的Roblox在紐約上市,Roblox從一開始就不提供游戲,只提供開發平臺和社區,以創作激勵機制吸引用戶,實現完全由用戶打造的去中心化世界。2021年10月,在名為Facebook Connect的年度大會上,Facebook宣布將公司名稱改為“META”。
(二)元宇宙的哲學意蘊
元宇宙呈現出階段性的表達特征。第一階段元宇宙主要用來社交和娛樂,虛擬世界的主要形態是游戲,沉浸式的體驗+虛擬社交。第二個階段的元宇宙是全真的互聯網,賦能生活和產業,可以改變人們的工作生活方式,使經濟系統數字化。元宇宙將現有的信息技術集合在一起,已有的技術集成也會涌現出新的哲學意義。元宇宙概念的提出將對人們的宇宙觀、身心觀以及倫理觀等具有革命性的意義。[2]
1.宇宙觀:從自然的宇宙轉向虛實結合的宇宙
宇宙觀是哲學研究的起點,傳統的宇宙指的是自然宇宙。元宇宙則是依托信息技術,把單一的自然宇宙轉變為虛實結合的雙重宇宙。通過虛擬宇宙,我們可以更好地去認識和改造自然宇宙,擺脫其復雜規律和結構,從而更好發揮人的主動創造性,建立虛擬的宇宙。在元宇宙時代,人們更加注重向內的探索,通過虛擬宇宙來理解自然宇宙。
2.身心觀:為人類心靈開啟了另類認知大門
一個人想要正常的生活就需要健康的身體和良好的心理,兩者必須同時存在。身體作為硬件,從出生就已確定,各種要素和結構不會發生很大變化。但人類在成長的過程中思想會發生很大變化。這些思想變化看不見摸不著,并且沒有很好的方式將其客觀呈現。隨著腦機接口技術取得革命性進展,人們的想法可以在元宇宙這種虛擬的空間中展現出來,元宇宙的出現把看不見摸不著的思想轉變為可測量、可觀察、可控制的變量。
3.倫理觀:建構起虛擬社會的倫理“大廈”
在自然的宇宙中,人們除了受自然規律的限制,也需要受到各種制度的約束。而元宇宙是一個全新的世界,人們以虛擬的身份在元宇宙中出現,跨越了時間和空間。但元宇宙作為一個去中心化的全新世界,人類應當如何重新構建元宇宙的運行規則?這是我們應當理性思考的重要倫理問題。探索沒有中心權力約束下的人們如何建立規則和標準,如何形成一種復雜狀態下相對完善的全新宇宙,這是對人類的巨大考驗。
(三)元宇宙的核心技術基礎:腦機接口
元宇宙的基礎技術包括5G、拓展現實、腦機接口、人工智能、云計算、區塊鏈、數字孿生等,但最為核心的技術就是像腦機接口這樣能夠連接人腦和機器的信息技術。要想實現元宇宙身臨其境的虛擬體驗,關鍵是對大腦輸入和輸出信號問題的解決。在元宇宙的相關技術底座中,解決信息輸入和輸出這種閉合回路的核心技術就是腦機接口技術。
腦機接口技術是一種人腦和設備相互融合的新方式,電極記錄人腦活動的電信號,這種電信號不斷被擴大并且逐漸數字化,計算機將逐步提取相關信號特征,對其進行處理,轉化為可控制的外部設備命令。[3] 這些命令可以用來控制義肢、輪椅或計算機軟件。[4]腦機接口技術可以讀取腦電信號,實現對大腦信息的讀取和復制,同時也可以反方向的輸入信息,甚至可以改變人們大腦記憶。腦機接口技術可以分為四個環節:信號采集、信號處理、設備控制以及信息反饋。信號處理環節中對腦電信號的解碼過程以及外界對大腦信息反饋的實現過程是腦機接口中的兩個最大困難。腦機接口技術在實際應用時,通過對腦電信號的監控、解碼再編碼以及輸出等來實現對外部設備的控制。
二、腦機接口技術的現實風險與倫理困境
在現代社會中,由于人類實踐活動的復雜性和深刻性,人們分別從經濟學、社會學以及哲學等領域賦予了“風險”一詞深刻的含義,“風險”與人們的決策以及行為后果的聯系越發緊密。我們處在風險社會中,腦機接口等技術的使用在一定程度上促進了社會的變革,加速了人類文明的發展進程。目前,腦機接口技術還不夠成熟,人們對這項技術的認識還不夠全面,因此在使用時可能面臨諸多風險問題。
(一)風險問題
1.大腦增強風險
大腦增強是指經過經顱直流電刺激來進行認知增強的方法,即在大腦深處植入芯片刺激大腦內部神經,通過促進或抑制神經元放電來影響大腦神經元活動。可以幫助人們恢復感官能力、增強人的認知水平。大腦在增強認知水平的同時,可以提高神經的可塑性,通過“自我再布線”對經常使用的通路進行強化,對不常使用的通路進行弱化,以此識別大腦特定的運轉模式,找到異常通路,從而達到優化大腦的目的。大腦增強技術可能會引發一系列的倫理問題,腦機接口設備可以替換人們失去的肢體、恢復和增強人們的感官及能力,使人成為“半機械人”。大腦增強技術由于價格、技術控制、市場管理等原因只能被少數人使用,資金雄厚的人就成為大腦增強技術的最大受益者。
2.自由意志風險
腦機接口設備會在無意識的情況下改變個體行為和決策等深層次的自由意志問題。其中,比較特殊的情況就是在人有意識的情況下,通過一些手段無意識的去改變人們的行為。例如,在電影放映的過程中會極快地閃現可口可樂的商標,觀眾完全沒有意識到自己看到了商標,在潛意識中,增加了購買可口可樂的頻率。在某些情況中也會存在無法界定無意識水平還是有意識水平。比如,銷售員A經過良好的營銷策略,激起顧客的購買欲望,從而購買了產品;銷售員B使用一種增加顧客產生購買沖動行為的飲料,讓顧客買下了產品;銷售員C讓顧客在不知情的情況下佩戴一個可以激發顧客購買欲望的設備,從而買下產品。以上的三種情況,都改變了個人的決策能力,佩戴了腦機接口設備而購買產品的顧客是否違背了其自由意志,則需要進一步探討。
3.意識操縱風險
腦機接口技術的使用,也帶來了一系列意識層面的風險問題。對于使用腦機接口設備的人,管理者可以了解到個體的全部想法以及生活習慣等信息,在觀察到使用者的行為異常時,可以采取相應的制止措施,從而達到預防違法犯罪的效果。同時,管理者可以對個體進行思維監控,但如何判斷使用者的想法是否會付出實際行動十分重要。如若單純的想法和會付出實際行動的界限不明顯,就可能會使做出實際行動的個體逃脫,也可能使單純有不好想法的個體受到懲罰,給社會秩序帶來一定的影響。
(二)倫理困境
腦機接口技術發展的過程中產生很多倫理問題,從歸責溯源、倫理選擇、隱私泄露以及軍事濫用等方面審視腦機接口技術帶來的倫理挑戰,能夠為準確推進技術與社會的協調發展提供更為科學的認知渠道。
1.腦電信號轉化復雜性形成的輸出誤解
腦機接口技術通過采集腦電信號,將大腦信號直接轉化為機器行動。一個穿戴或植入腦機接口設備的人,大腦中突然出現一個不好的想法,腦機接口設備是否會識別,然后做出反應?人的思維是十分復雜的,不能一概而論。如果裝有腦機接口設備的人有了傷害人的想法,腦機接口設備如何去制止?腦機結合如果進一步發展,機器會代替大腦以外所有的肉體器官,人的大腦皮質層依靠各種所謂柔軟的電路連接上各種機器身體,就會造成人機界限模糊。大腦中的腦電信號種類繁多,從中提取信號并解析信號的技術仍需發展。[5]大腦和行為之間關系復雜,多個腦電信號決定一個行為的產生,這些腦電信號和行為之間的關系尚未被認識清楚,貿然使用腦機接口技術會帶來很多潛在的風險。
2.倫理選擇過程中呈現的價值取向難題
腦機接口等人工智能倫理選擇時有兩種方法:自上而下和自下而上。[6]自上而下的方法就是在腦機接口設備中預設一套可行的操作法則,如裝有腦機接口設備的自動駕駛汽車撞到人時,把對他人的傷害降到最低。自下而上的方法則讓腦機接口技術運用反向強化學習設備,學習相關現實中的事件。不管是自上而下的方法還是自下而上的方法,在面臨實際倫理選擇過程中,難免會呈現差異化的價值取向,進而衍生一系列倫理問題。
3.腦電信息不當獲取造成的隱私泄露
腦機接口技術可能會侵犯用戶的隱私,一方面對神經信息的安全造成威脅,直接提取大腦中的信息。目前很多數據公司都會根據用戶瀏覽網頁的習慣,以及購物喜好,定制化推送商品及廣告。腦機接口技術直接從大腦中獲取信息,這些信息可能會泄露或者被盜用,存在極大的隱私安全問題。另一方面,腦機接口設備容易遭到黑客的攻擊,從用戶的腦電信號中提取私人信息,如居住地、銀行卡號等。在互聯網時代,未經當事人許可收集信息,以及以數據方式存儲的信息泄露會造成更為嚴重的后果。
4.軍事領域濫用帶來的技術恐慌
腦機接口技術應用于軍事目的,更多的是出于軍事對抗的需要。腦機接口的軍事應用存在一定的風險,個體在植入腦機接口設備后,其自主選擇權可能被侵蝕,接收到的信息可能不是主動選擇的信息,人們可能分不清楚哪些是自己的想法,哪些信息源于腦機接口。如若植入腦機接口設備的個體在軍事活動中遭到敵方的控制而不自知,可能會泄露機密信息,危害作戰信息安全,在軍事作戰中產生不可估量的損失。腦機接口技術未來可能會加劇戰場網絡安全風險,產生黑客攻擊、拒絕服務、電子戰等問題。
三、腦機接口技術可信任的倫理進路
腦機接口技術所引發的一系列的可信任問題急需解決,而用滯后的眼光和極端的方式去加以應對,是與腦機接口技術的快速發展和日益廣泛的使用不相匹配的。因此,需要用發展的眼光和恰當的方式來推動腦機接口技術的倫理進路。
(一)界定責任主體
責任的概念是哲學史上一個長期討論的問題。我們要做的就是分析在什么樣的條件下才可以實行和分配責任?假若駕駛員在駕駛配有腦機接口設備的自動駕駛汽車時,如果造成交通事故,由腦機接口設備來承擔責任聽起來可能會不可思議。人們可能也不愿意去接受一場事故的責任主體是一個設備。這就需要有更多的研究與經驗去作為支撐,對于腦機接口技術責任倫理的討論也不應局限于腦機接口設備、人的自主性等方面。
古希臘的哲學家亞里士多德在《尼各馬可倫理學》中,對責任的劃分作了經典的描述。他認為在對自己所作的事情負責的情況下,責任主體需要去控制自己的行為,如果責任主體缺乏控制,就不用負責。[7]比如,一個配有腦機接口設備的自動駕駛汽車在行駛的過程中,如果駕駛員在睡覺,發生的事故就不需要駕駛員來承擔責任。但如果駕駛員處于清醒狀態,看到有行人,卻沒有采取緊急制動而造成交通事故,駕駛員需要承擔責任。責任歸屬問題主要看責任人是否知道自己在干什么并且能否控制自己的行為。在這項技術廣泛應用之前,應將其完善成一種“負責任”的技術,明確在不同環境和不同情境中技術產生后果的責任歸屬問題,避免腦機接口技術使用后造成一系列的歸責難題。
(二)賦予神經權力
神經技術能夠檢測或分享個人的生理和心理的健康數據,也包含諸如個人認知能力的缺陷、心理健康問題以及內心黑暗想法等大腦內部運作數據?;颊吆拖M者需要知道誰有權訪問他們的神經數據以及這些數據會被如何使用,必須將代理權作為一項基本權利加以保護,增加“神經權力”?;颊吆拖M者也應知道這項技術可能存在的風險,也就是“知情風險”。在使用腦機接口設備時,用戶需了解哪些神經數據僅被自身使用、哪些神經數據不會被不慎共享以及哪些數據可能會被共享但無法被識別。公民應當具有自身的神經隱私權,應該規范相關神經數據的銷售以及商業的轉讓。要綜合運用各種方法,盡可能的把各種不利的影響降至最低,使神經技術能夠造福人類。
(三)明確可解釋性和可信任的關系
腦機接口技術應當具備四大要素:安全、公平、透明以及保護隱私。腦機接口技術的使用,一方面,要增加普通用戶對可解釋性的認知;另一方面,要增加用戶對可信任的認知。技術開發者要不斷完善這項技術,使設備在關鍵時刻不會出錯,個人的信息會被妥善保管。國家應當出臺相應的倫理準則,對相關企業的技術研發以及應用時的倫理準則進行規范。要充分發揮政府的監督作用,使“行業監督”與“企業自律”相結合,同時,鼓勵社會公眾和非營利性組織積極參與社會治理,發展負責任的腦機接口技術。
(四)開展倫理風險評估和倫理審查
對于腦機接口技術的研發者,要將科技倫理素養納入研發者的考核指標中,從而過濾掉大部分倫理素養不過關的研發者,同時做好投入使用前的風險預防、使用中的安全運行義務以及使用后的相關責任劃分工作。專家要對腦機接口技術的產品進行評估和審核,并且要有相應的倫理審查機構進行監督和風險評估。針對腦機接口技術應當設置一定的培訓課程,盡可能地避免使用者因倫理知識不足而產生負面影響。
結語
元宇宙的概念受到了各行各業的討論,但是目前還沒有統一的解讀。實現元宇宙最高效的辦法就是通過腦機接口技術將大腦和設備連接起來,給人們帶來沉浸式體驗。面對腦機接口技術的蓬勃發展,一方面,我們要看到其在醫療輔助和虛擬現實方面幫助患者恢復身體功能和克服精神障礙的巨大潛力;另一方面,要警惕腦機接口所帶來的風險問題及產生的倫理困境。腦機接口技術的發展是多領域研究者共同努力的結果,要發展以倫理為導向的設計,對腦機接口技術進行必要的風險評估,確保技術安全可控??偠灾?,對于各行各業來說,合理地推進元宇宙場景落地十分必要,能大大促進相關高科技產業的良性循環。作為元宇宙技術基礎的腦機接口技術發展呈現出不可抵擋的趨勢,我們需要預判其未來的發展趨勢,制定切實可行的實施計劃,規避可能存在的倫理風險。
參考文獻:
[1]徐晶卉.走進元宇宙[N].文匯報,2022-01-08(3).
[2]黃欣榮,曹賢平.元宇宙的技術本質與哲學意義[J/OL].新疆師范大學學報(哲學社會科學版):1-8.
[3]胡天力.人類自由的促進抑或機器統治的崛起?——論腦機接口技術對自由意志的影響[J].自然辯證法研究,2021(10):29-35.
[4]Steinert S,Bublitz C,Jox R,et al.Doing Things with Thoughts: Brain-Computer Interfaces and Disembodied Agency[J].Philosophy and Technology,2019,32(3):457-482.
[5]李佩瑄,薛貴.腦機接口的倫理問題及對策[J].科技導報,2018(12):38-45.
[6]蘇令銀.能將倫理準則嵌入人工智能機器嗎?——以無人駕駛汽車為例[J].理論探索, 2018(3):38-45.
[7]白惠仁.自動駕駛汽車的“道德責任”困境[J].大連理工大學學報(社會科學版), 2019(4):13-19.
責任編輯:葉民英