999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

腦機接口領域中的倫理問題研究

2024-09-29 00:00:00周程
人民論壇·學術前沿 2024年16期

【摘要】作為生命科學和信息技術深度交叉融合的前沿新興技術,腦機接口近年來發展迅猛,重大突破頻現,同時也引發了諸多倫理爭議。腦機接口對傳統倫理原則提出的挑戰涉及物理、心理與社會等多個層面。在侵入式腦機接口已獲準進入臨床試驗階段的背景下,如何構建合倫理的腦機接口正成為各國神經科學家、工程師和倫理學家的關注焦點。為了化解腦機接口倫理風險,我們有必要加強監督管理,提升倫理素養,深化跨學科合作,通過建立健全倫理規范與監管機制,確保腦機接口技術能夠真正增進人類福祉。

【關鍵詞】腦機接口 技術風險 倫理原則 倫理治理 跨學科合作

【中圖分類號】G31 【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2024.16.005

引言

國家科技倫理委員會人工智能倫理分委員會研究編制了《腦機接口研究倫理指引》(以下簡稱《指引》),不僅對腦機接口研究的基本原則和一般要求進行了規定,而且還為五種不同類型的腦機接口研究確立了相應的倫理規范?!吨敢芬螅骸伴_展腦機接口研究需符合我國相關法律法規規定,遵循國際公認的倫理準則,以及科學共同體達成的專業共識和技術規范?!?/p>

然而,對究竟什么是“國際公認的倫理準則”,《指引》并未給出明確說明。事實上,隨著腦機接口技術的蓬勃發展,與腦機接口有關的倫理爭議日趨復雜。例如,2024年1月,埃隆·馬斯克(Elon Musk)創立的“神經鏈接公司”(Neuralink)首次將腦機接口芯片植入一位癱瘓患者的腦部;[1]同年8月,埃隆·馬斯克披露已經成功將腦機接口植入第二位人類患者體內。[2]這些事件引發了新一輪的腦機接口倫理爭議。一部分人認為,在腦機接口尚存在諸多潛在風險的情況下,貿然對人體進行侵入式腦機接口實驗,具有極大的安全隱患。[3]也有人對這一進展持樂觀態度,認為“神經鏈接公司”的臨床試驗遵循了美國食品藥品監督管理局(FDA)的規范,若為那些急切渴望獲得腦機接口以提升生活質量的患者著想,倫理考量就不應成為腦機接口發展道路上的阻礙。[4]

由此可見,國際學術界仍未就腦機接口研究倫理達成高度共識。為了推動腦機接口研究的健康快速發展,有必要系統梳理近年來國際上關于腦機接口倫理研究的熱點領域和前沿問題,以期為中國腦機接口的合倫理研究與應用提供有價值的參考。

腦機接口引發諸多倫理問題的技術根源

早在20世紀70年代,雅克·維達爾(Jacques J. Vidal)便提出了“腦機接口”(brain-computer interface)這一術語,并將腦機接口視作“在人機對話中利用大腦信號”和“作為控制外部器械”的設備。[5]近二十年來,腦機接口研究持續獲得廣泛的關注(見圖1)。

進入21世紀以后,腦機接口研究不斷取得新進展,以致人們很難對腦機接口的定義究竟是什么達成一致意見。若根據《指引》,腦機接口可定義為“在大腦與外部設備之間創建信息通道,實現兩者之間直接信息交互的新型交叉技術”,其作用過程包括“記錄裝置采集顱內或腦外的大腦神經活動”“對神經活動進行解碼”“解析出神經活動中蘊含的主觀意圖”“輸出相應的指令”“操控外部裝置實現與人類主觀意愿一致的行為”“接收來自外部設備的反饋信號”等環節。[6]換言之,腦機接口主要包括大腦、外部設備、信息通道三個組成部分,旨在實現測定神經活動、解讀大腦意圖、由設備實現意圖、反饋實現結果的效應。

在腦機接口的某個作用環節采用不同的技術實現方式,就會產生不同種類的腦機接口技術。在測定神經活動環節,腦機接口逐漸分化成兩大類,一類是直接在頭皮上測量大腦電活動的非侵入式腦機接口,另一類是需要通過開顱手術將電極植入腦中的侵入式腦機接口。最近還發展出一類通過頸部血管,將測定電極導入特定腦區,借以采集神經信號的腦機接口,即介入式腦機接口。在解讀大腦意圖環節,腦機接口研究者捕捉、解讀并利用了多種腦電活動,如事件相關電位、[7]感覺運動節律[8]和慢皮層電位[9]等。當前,人工智能領域所使用的一些經典算法,如支持向量機和神經分類器,在21世紀初就被引入腦機接口的研究中。[10]近年來,人工智能領域中的“深度學習”之類算法創新深刻影響了腦機接口研究,尤其是對大腦神經信號的解碼研究??梢哉f,腦機接口的研究進展與不同領域研究人員的協同創新、對新技術的不斷整合應用有著很大的關聯。

隨著腦機接口研究的不斷發展,越來越多的研究者開始思考腦機接口技術可能對人類產生的影響。從圖1可以看出,腦機接口研究的論文數量出現快速增長之后,腦機接口倫理研究的論文數量也隨之出現快速增長。毋庸贅言,腦機接口研究引發的倫理擔憂是由腦機接口技術特點所決定的。由于腦機接口具有干預性、交互性與自動性等技術特點,以致腦機接口研究很難避免來自倫理方面的詰難。

干預性。干預性指的是腦機接口必然涉及對用戶的干預過程,包括測量與控制用戶的神經與行為。腦機接口重在將解析出的大腦意圖信息傳輸給外部設備,以實現大腦對設備的控制。這意味著需要先采集大腦電信號或磁信號,對這些信號進行解碼后再將其翻譯為機器的控制信號,進而傳輸給外部設備。問題是,大腦神經活動能否僅通過電、磁信號進行測定?如何基于有限的信號解碼大腦內復雜的神經活動?如何從不同的神經活動信號中排除干擾,解析出用戶的主觀意圖?怎樣才能把用戶的模糊意圖翻譯為控制設備的清晰指令?以上問題亟待研究人員解決。

正是由于測定和控制大腦神經活動的干預性,腦機接口極易引發一些安全問題,并由此導致諸多倫理爭議。尤其是侵入式腦機接口和介入式腦機接口,因在研究過程中需將異物導入顱內,故很容易引發長、短期安全風險。即使非侵入式腦機接口遇到的安全問題相對較少,也并不意味著非侵入的測定過程對大腦不會造成任何傷害。為了發現、控制、克服大腦神經活動測定過程中的安全問題,研究人員需要用模式動物做大量的實驗,這又不可避免地會引發動物福利問題。并且,把動物實驗的數據套用到人類身上,還會招致知識外推方面的質疑。即便研究人員解決了采集信號的安全問題,但在解碼與解析電信號、磁信號等多種信息過程中產生的大量隱私數據,也有可能引發潛在的用戶信息安全問題或隱私問題。

交互性。交互性指的是腦機接口需要在外部設備與用戶之間產生交互。腦機接口需要向大腦及時反饋外部設備實現用戶主觀意圖的結果,這一反饋既可以經由感官的刺激(如聽覺、視覺信號)達成,也可以通過由腦機接口直接向大腦輸入電信號來實現。而且在很多情況下腦機接口還需要將外部環境中的一些重要信息傳輸給大腦,這就需要先將外部環境中的相關物理信息設法翻譯為電信號,然后再將這些電信號輸入大腦。

在將電信號輸入大腦的過程中,信號傳輸的安全性問題尤其值得關注。比起電腦被黑客入侵,“大腦被黑客入侵,進而控制用戶本人”的后果更為嚴重。面對這一重大安全風險,《指引》中給出的規定非常嚴格,要求研究人員“嚴格控制干預人的思維、精神和神經活動過程的研究”,以保障用戶的意識安全。[11]如果規定禁止通過技術干預人的意識,那么人工耳蝸是否同樣也會干預患者能聽到的聲音?人工義眼是否會干預患者能看到的世界?兩者會不會被黑客控制?很明顯,當腦機接口成為用戶大腦與外部世界進行交互的中介時,我們不可避免地會遇到如何保障用戶意識安全的問題。

自動性。自動性指的是某些腦機接口具備一定的自動行為能力,并非時刻都得在用戶主觀意圖的控制下才能運行。一些腦機接口可以采用較為復雜的模式識別手段和控制手段,通過收集大腦的自發活動信息自動運行。其潛在的用戶群體多為患有中風、癲癇之類大腦功能障礙疾病的患者。此時,腦機接口將不再只是連接“主觀意圖”和“外部設備”的中介,它還扮演了與患者共同決策的“電子大腦”角色。在這種情況下,恐怕不能要求患者在使用腦機接口前就具有可清晰表達個體意愿的“意識”,對外部設備的控制恐怕也不能只基于“主觀意圖”。這就向研究人員提出了更高層次的技術要求。

對于這一類腦機接口,我們需要考慮很多問題。譬如,用戶在使用腦機接口前后,是否發生了意識層面的變化;閉鎖綜合征患者該怎樣去表達“同意使用腦機接口”的意愿;患者使用腦機接口后的“知情同意”是否能夠代表那個沒有借助腦機接口的自己,亦即使用腦機接口后的患者和未使用腦機接口的患者是否具有同一性。由此可見,這種超出《指引》定義的腦機接口類型,對信息和響應的自動化處理,引發了不少與人類意識、同意、自主等心理功能與特征相關的倫理問題。

腦機接口對倫理原則提出的挑戰

腦機接口在不同的技術作用環節對多項倫理原則提出了挑戰。接下來,筆者將從物理、心理、社會三個層面,[12]進一步考察腦機接口與傳統的生命醫學倫理原則之間存在的沖突。

物理層面的倫理挑戰。在傳統的生命醫學倫理原則中,“不傷害原則”是一項重要的考量,即在醫療過程中需要確保患者的身心健康不會受到傷害。但是,正如前文所提到的,腦機接口中的一大類別是侵入式腦機接口。使用這種腦機接口需要通過開顱手術將電極貼敷到腦皮層表面或刺入腦皮層內部。相比于非侵入式腦機接口,侵入式腦機接口能夠更好地識別腦神經電信號,也能更好地實現腦機交互。但這一操作會對患者大腦造成一定的損傷,甚至會影響患者的心理特征。

具體而言,植入電極的行為本身就會對患者造成一定的影響。例如,植入手術過程中可能發生感染,隨著時間的推移腦內會逐漸形成包圍電極的疤痕組織,電極長期使用后功效會顯著下降等。[13]即使醫生將電極順利植入患者的大腦,患者也需要通過腦機接口與外部設備合作訓練一段時間之后,才能精準控制外部設備實現目標。而在訓練過程中,患者的思維習慣或多或少會發生變化,甚至性格都有可能發生不可逆轉的改變。[14]由此可見,侵入式腦機接口在物理層面上的特性對傳統的“不傷害原則”提出了挑戰。

另外,腦機接口不僅可能給患者帶來不可逆損傷的風險,其他人也可能存在被腦機接口使用者攻擊而受到傷害的風險。斯蒂芬·雷尼(Stephen Rainey)指出,腦機接口使用者有可能會因所佩戴的假肢設備失靈而對他人產生攻擊行為,即使設備本身沒有失靈,腦機接口也可能會將腦中的沖動行為直接轉化為物理行為,把“我簡直想打人”實施為“我打人”。[15]若出于避免意圖翻譯不暢的目的給腦機接口增添一些意圖確認環節,又會使腦機接口變得更加復雜,這將會給用戶帶來更多的不便。

但風險并非一項技術的全部,收益往往與風險并存。如何平衡風險與收益,是腦機接口研究人員和患者都必須面對的問題。圖比格(Paul Tubig)等人采訪了一些即將取出“癲癇治療”腦機接口的患者,這些患者向采訪人員表達了對“再度喪失人格”的擔憂,并表示希望能夠繼續保留腦機接口。[16]《指引》要求嚴格控制具有成癮性的腦機接口研究,但這些患者不是基于“快感”而是基于其他原因要求保留腦機接口,這是否可以視為一種“成癮”?克萊恩(Eran Klein)等人則討論了一名參加腦機接口實驗的閉鎖綜合征患者因在實驗過程中的治療效果逐步減弱,以至于最終退出實驗的過程。[17]

要而言之,如何面對腦機接口給患者帶來不可逆損傷的風險,以及如何在這種風險中增進患者的收益,已成為腦機接口研究在物理層面無法回避的倫理挑戰。可以預期的是,隨著腦機接口技術的不斷進步,這些倫理沖突會在一定程度上得到緩和,但要完全解決侵入式腦機接口給患者帶來的傷害問題幾無可能。這意味著至少侵入式腦機接口研究很難嚴格遵守“不傷害原則”。

心理層面的倫理挑戰。在傳統的生命醫學倫理原則中,尊重自主原則被認為是首要原則,即必須保證患者能夠自主地選擇自己的思想和行為。換言之,尊重自主原則關乎患者與醫療技術交互過程中的切身感受和內在體驗。而在使用腦機接口進行治療的過程中,患者普遍會產生心理層面的改變,這對如何保障患者自主權提出了倫理挑戰。

具體而言,腦機接口在心理層面帶來的自主難題主要包含三個方面:一是腦機接口對患者的知情同意提出了更多的要求;二是腦機接口對患者的自我身份帶來了改變;三是患者對腦機接口技術產生了依賴性。

首先是知情同意問題。生物醫學倫理原則中的尊重自主原則,要求在生物醫學實驗中必須尊重患者的自主性,而知情同意程序則是尊重自主原則的具體體現。然而,在腦機接口研究與應用過程中,傳統的知情同意程序可能并不足以保證患者的自主性。例如,有學者指出,閉鎖綜合征患者無法自主表達其意愿,正常的知情同意程序無法實施。因此,借助腦機接口對這類患者進行治療需要允許“他人代患者表述知情同意”,或者允許通過大腦掃描等方法認定患者的知情同意。[18]然而,這樣的知情同意程序真的能保障這些無法自主表達自身意愿的患者的自主性嗎?

即便是能夠自主表達自身意愿的患者,也有可能受腦機接口技術特點的制約,難以做到完全知情。在常規的知情同意程序中,腦機接口的提供者需要告知用戶將會收集哪些大腦數據,為什么要收集這些數據,以及將如何使用這些數據等。一些腦機接口,如“腦腦接口”涉及的數據量十分龐大,且內容不易解讀,在這種情況下,讓患者充分理解腦機接口的數據細節顯然不現實,實際上腦機接口的提供者也未必能做到對這些數據細節的充分理解。結果,患者往往是在不完全知情的情況下表示同意的。無疑,這給傳統的知情同意程序帶來了挑戰。[19]

其次是自我身份問題。一方面,腦機接口的使用者需要通過腦機接口克服自身希望解決的困難,例如,治療疾病等,這可能會帶來身份的認同和轉變問題;另一方面,患者可能又不希望自己的身份因腦機接口而產生徹底的變化,甚至成為腦機接口操縱下的個體。有案例表明,一些使用腦機接口的漸凍癥患者通過腦機接口獲得了與家人和朋友交流的能力,并表示愿意在腦機接口實驗結束后保留設備;但也有相當一部分患者不愿保留設備,認為自己已經重新獲得了交流能力,因此,有強烈的意圖去恢復原來的“脫離腦機接口”的身份。由此可見,與腦機接口關聯在一起的是用戶個體對于自身是否屬于“患者”的認知:一些患者認為自己使用腦機接口使得自身不再是“患者”,因而增加了自身的自主性;而另一些患者則認為,必須佩戴的腦機接口設備無時無刻不在提醒自己是一名患者,自己反而比未治療之前顯得更加沮喪和無助,這損害了自身的自主性。[20]它表明,患者的自我觀念甚至是人格都因佩戴腦機接口而受到影響。

最后是過度依賴問題。當腦機接口能夠為患者帶來精神治療效果時,一些學者便開始懷疑這項技術有可能會使患者產生過度依賴。一些使用腦機接口的癲癇患者表示,自從有了可以預測癲癇發作的腦機接口之后,他們似乎就可以去做任何想做的事情,而不必擔心癲癇的隨機發作。[21]腦機接口對患者本人心態固然會有所改善,但是這種對腦機接口的過度信任可能會導致患者忽略了自身本有的識別能力,反而給癲癇患者本人和他人造成更多的傷害。在這種患者與腦機接口的雙向互動中,腦機接口本來只是患者預測癲癇的輔助工具,后來卻演變成了預測癲癇的唯一工具,成為了癲癇判斷的決策者本身。更甚之,問題不在于患者對腦機接口的依賴本身,而在于如果其他社會因素介入到治療中,這種依賴性會進一步損害患者的利益。

綜上,腦機接口對人類意識具有強大的控制與干預能力,由此在心理層面引發的倫理問題不容忽視。從知情同意的復雜性,到自我身份的轉變,再到對技術的依賴性,這些問題都對傳統的尊重自主原則和知情同意程序提出了新的挑戰。因此,在未來的腦機接口研究、開發與應用過程中,我們必須探索更為細致、全面與更具可操作性的倫理框架,切實保護患者的自主性與心理健康。

社會層面的倫理挑戰。腦機接口除了因其技術特點可能會給患者帶來物理和心理層面的倫理挑戰之外,還有可能會由于使用者的不當操作帶來不少社會層面的倫理挑戰,如解讀大腦涉及的隱私問題、腦機接口使用者的污名化問題、發生事故時的責任歸屬問題以及腦機接口資源的公平分配問題等。事實上,關于傳統倫理原則的討論,往往采取個體主義的立場與訴諸直覺的研究進路,對倫理理論與道德實踐之間的關系沒有給予足夠的關注,而這有可能忽視技術發展中的權力結構與社會不平等問題。[22]腦機接口帶來了廣泛的社會影響,使我們更加需要關注社會層面的倫理挑戰。

首先,腦機接口需要收集大量關于用戶神經狀態的數據并作出頻繁而復雜的解讀,在這一過程中如何保護用戶的隱私是一個必須正視的問題。一些倫理學家向科學家發放問卷,詢問腦機接口的數據保護與其他類型的生物醫學數據保護有何不同。[23]一些科學家表示,就現狀而言,即使把神經數據提供給其他研究人員,恐怕也沒有什么意義,因為這些數據只有在搭配特定工具和人員的情況下才會彰顯其價值,甚至一些數據可能會對其他研究人員產生誤導,進而傷害用戶。因此,并非所有科學家都支持對腦機接口研究進行“數據共享”。一般認為,未來的腦機接口需要對神經狀態作出更加細致且準確的解讀,這意味著一旦黑客入侵腦機接口,將會給患者和他人造成更大的危害。[24]

其次,腦機接口的使用者可能會遭遇污名化問題。腦機接口設備可以類比為殘疾人使用的輪椅或拐杖,因此,腦機接口使用者面臨的污名化問題與殘疾人所經歷的污名化非常相似。約瑟夫·斯特拉蒙多(Joseph A. Stramondo)指出,腦機接口應被歸類為像拐杖那樣的“輔助技術”,而非像藥品那樣的“治療技術”。輔助技術的使用者會被社會賦予“殘疾身份”,而治療技術則不具備這種特性。[25]一些使用腦機接口的癲癇患者認為,腦機接口的存在無時無刻不在提醒自己,“我是一名癲癇患者”。[26]這一情況表明,社會對殘疾人的污名化已轉化成了對腦機接口使用者的污名化。

再次,如果腦機接口的使用者對他人造成傷害,應該以誰作為懲罰對象?這便是腦機接口的責任歸屬問題。斯蒂芬·雷尼等人認為,身體之于個人與腦機接口之于個人有一定區別。比如,為了“接住一個球”,基于身體的行為是“目標導向”的,注意力集中在球上;而基于腦機接口的行為則是“控制導向”的,用戶的注意力集中在“讓設備怎樣移動”上。[27]因此,腦機接口使用者造成的事故相比于個人直接造成的事故,須承擔的責任相對較小。但問題的關鍵不在于“要不要承擔全部責任”,而是“要承擔多大程度的責任”。對于這一問題,學界尚未形成共識性的研究結論。如果責任歸屬問題遲遲得不到妥善處理,腦機接口就有可能引發更多社會亂象。

最后,腦機接口技術的發展還會引發如何公正地分配腦機接口資源問題。使用腦機接口進行疾病治療具有很高的技術門檻,需要支付高昂的代價。因此,除富裕階層或特定群體外,很少有人能夠分享到腦機接口資源,這種資源分配的不均衡會進一步加劇社會的不平等。此外,腦機接口算法模型中也隱藏著不平等因素,而這些算法對使用者的行為卻有著巨大的影響力。[28]隨著深度學習等人工智能技術整合進腦機接口,算法“黑箱”帶來的挑戰愈發嚴峻,即使它是公開透明的,研究人員也很難甄別出隱含在算法中的歧視性條款。因此,腦機接口不僅需要公平的分配,以確保弱勢群體對腦機接口的可及性,同時還需要一種“非歧視性編程技術”,以確保弱勢群體不被腦機接口系統性歧視。

總之,在推動腦機接口技術進步的過程中,如何最大限度地規避其潛在的負面社會影響,有效應對隱私保護、污名化、責任歸屬以及資源分配等多重挑戰,已成為腦機接口技術發展中不可忽視的倫理難題。這些難題不僅呼吁社會要對腦機接口技術進行更嚴格的規范和監督,還要求我們在技術發展中始終重視腦機接口對社會公平與正義的影響,確保技術進步能夠惠及更普遍的人群。

腦機接口研究的倫理治理

如前文所述,腦機接口在研究過程中暴露出了諸多令人擔憂的倫理問題,在物理、心理和社會等各個層面都對腦機接口的合倫理使用提出了挑戰。隨著腦機接口技術的迅猛發展,其應用前景也變得越來越廣泛,未來可能出現的倫理難題也會變得日益復雜,我們對腦機接口進行倫理治理的需求也就更加迫切。這引發我們進一步思考:人腦與機器的融合究竟可以走多遠、應該走多遠?怎樣才能盡可能規避腦機接口的倫理風險,使其更好地造福于人類?

近年來,國際上的許多學者都對這些問題作出了回應,“構建合倫理的腦機接口”已成為腦機接口倫理研究的前沿領域。面對“構建合倫理的腦機接口”的要求,許多研究者都對腦機接口的研究、開發和應用提出了建議,而這些建議可以歸為三個主要方面,即加強監督管理、提升倫理素養與深化跨學科合作,以此應對腦機接口帶來的倫理挑戰。

加強監督管理。許多腦機接口領域的研究者都認為,政府和有關機構應制定相關的法律法規,對腦機接口的研究、開發和應用過程進行監管,并且這些監管手段應涉及數據隱私保護、用戶知情同意的獲取以及防止技術濫用等諸多方面。例如,《指引》中就提到,“在人體上開展腦機接口研究,應根據《涉及人的生命科學和醫學研究倫理審查辦法》等相關法規申請并通過倫理審查”“應嚴格遵守《中華人民共和國個人信息保護法》、《中華人民共和國數據安全法》等相關法律法規和標準規范”以保障腦機接口的數據安全等。而在國際上也有學者指出:“對神經設備的監管需要與快速發展的神經技術領域保持同步,或至少保持相關性。這不僅能確保市場利益最大化和避免潛在傷害,還能通過良好的實踐激勵行業遵守道德規范,推動創新?!盵29]基于這樣的考量,近期全球范圍內有多項涉及腦機接口監管的政策性文件出臺。美國食品藥品監督管理局發布了多個涉及腦機接口倫理安全風險監管的指導性文件,包括用于癱瘓和截肢患者的腦機接口研發的“跨越式指南”,以及涉及非侵入式腦機接口風險評估的“從頭分類路徑”倡議等。[30]

在加強關于腦機接口的監管方面,研究者們提出了許多需要注意的倫理事項,大體上可以概括為以下三點。第一,在腦機接口研究過程中需要加強相關的倫理審查。研究人員和開發者在設計和研究腦機接口時,需要考慮其研究是否符合倫理審查的要求;倫理委員會在批準相關研究時,需要確保所有實驗和應用都符合倫理標準,保護參與者的權益和隱私。例如,“神經鏈接公司”在猴身上運用腦機接口技術,引發了實驗動物福利保護者們的擔憂;“神經鏈接公司”在人體上進行腦機接口實驗時,因其實驗設計缺乏透明度和相關副作用不明確而受到公眾和倫理學家的指責。[31]這意味著倫理審查與科學研究前沿脫節,如果不能讓倫理監督緊跟科學實踐,科學研究將面臨失控的危險。第二,立法機構需要建立和完善相關法規,為腦機接口技術的研發和應用提供指導和規制。美國2040腦機接口設備工作組認為,腦機接口帶來的責任歸屬問題亟需完善相應的立法,以規避腦機接口普及后可能帶來的各種法律問題,通過法律途徑對“制造商、雇主或用戶何時應對腦刺激的意外后果負責、誰應該對腦機接口和用戶相互適應所導致的行為負責”等問題作出規定。[32]這些法規可以避免腦機接口技術被不良商家濫用,減輕了科學家對自身成果負面社會效益的擔憂。第三,在臨床中,我們也應該實施更嚴格的知情同意程序,以增進用戶對腦機接口相關風險與收益的理解。這一過程不僅涉及向用戶提供詳細的信息,還應確保他們充分理解所涉及的風險、收益以及可能的替代方案。鑒于腦機接口服務對象有其特殊性,我們需要采用特別設計的溝通方法,如使用輔助技術或依賴熟悉患者情況的醫護人員進行解釋,以確保患者真正理解相關信息。[33]這并不是違反倫理原則,恰恰相反,這些基于倫理原則的替代方案,才是因地制宜地遵守科技倫理要求、降低研究人員接受倫理審查非必要成本的重要手段。

面對腦機接口的技術發展與倫理限制之間的張力,以美國為首的發達國家并沒有教條地維持原本的倫理程序,而是采取了富有彈性的策略。在腦機接口的研究過程中,美國人類研究保護辦公室以及各機構的倫理審查委員會負責確保腦機接口的技術研發不會對人類受試者產生危害;美國食品藥品監督管理局、美國消費品安全委員會和美國聯邦貿易委員會則負責對腦機接口產品的銷售與使用進行監管。其中,所有的侵入式腦機接口和某些非侵入式新腦機接口都由美國食品藥品監督管理局監管。由于傳統的審批流程非常緩慢,因此,美國食品藥品監督管理局推出了“突破性設備計劃”(BDP),便利了相關腦機接口設備的安全審查,使得腦機接口技術從研發到應用的過程大幅縮短,力求以這種方式在倫理保護和技術發展之間找到一個平衡點。

提升倫理素養。加強對腦機接口研究的監管是必要的,但監管手段常常滯后于技術的發展速度,以致一些不符合倫理原則的行為可能會逃脫現有的監管框架。[34]因此,單純地依賴“他律”的手段可能不足以應對這一問題,提升倫理素養作為一種“自律”的手段顯得尤為重要。這不僅意味著腦機接口領域的研究人員需要進一步增強倫理意識,還意味著公眾對腦機接口技術的基本認知以及對自身權利與義務的理解都需要提升。

一方面,對于腦機接口的研發人員和開發腦機接口的科技公司而言,科研倫理與商業倫理素養的提升至關重要。圖比格等人指出,腦機接口研究人員和公眾之間存在一定程度的知識、權利地位不平等現象,而科技公司在利益驅動下有可能給公眾安全帶來威脅,這就要求研究人員能夠識別腦機接口可能帶來的加劇社會不平等、侵犯精神隱私、創造新的剝削形式等倫理問題,并且要求研究人員面對這些不確定性因素作出負責任的行動,“履行維護公眾信任的義務”。[35]還有學者指出,腦機接口技術的發展也對研究者們的倫理教育提出了要求,匹茲堡大學和卡內基梅隆大學的神經科學團隊都進行了類似的嘗試,召集神經科學家和神經技術工程師每月參與一次半結構化討論,對神經科學與神經技術中出現的爭議性倫理案例進行研究與批判性反思。[36]這種教育形式有助于腦機接口研究者們自覺遵守倫理準則,以高度的社會責任感,審慎運用技術,尊重用戶的權益和隱私,維護公眾的信任。

另一方面,對于腦機接口的使用者來說,科技和倫理素養的提升也能幫助用戶規避腦機接口帶來的相關風險。我們可以預想,腦機接口可能會在未來進入工作場所,人們可以通過將大腦與計算機直接連接,更高效地操控設備、處理信息,進一步提高生產力和工作效率。然而,一些學者指出,將接口納入工作場所可能存在諸多倫理爭議,相關問題必須得到審慎的討論。[37]有學者提出了公民享有“神經權”(neurorights)的倡議,呼吁民眾要意識到自己擁有“神經權”,其中包括決定自己的數據是否被共享、在沒有外部神經技術操控的情況下作出自主決定、確保自己的心靈隱私不受侵犯、平等地獲得腦機接口等神經技術以及免受偏見和歧視等權利。[38]

除了倫理素養外,公眾對科技的認知和態度也將直接影響腦機接口技術的推廣和應用。有研究顯示,公眾更容易接受非侵入式腦機接口,而對侵入式腦機接口保持警惕,這可能會影響腦機接口的發展趨勢。[39]因此,科普教育和公眾參與在腦機接口技術的發展過程中起著至關重要的作用。通過透明的信息披露和積極的公眾參與,可以提高公眾對腦機接口技術的理解和信任,減少對腦機接口的盲目恐懼,在一定程度上避免用戶誤用和濫用腦機接口,以此促進腦機接口技術的發展。應通過教育和宣傳活動,提高社會整體對腦機接口技術的認知水平,幫助公眾正確看待和使用該技術,同時促進公眾在腦機接口技術發展中的參與和監督。[40]

深化跨學科合作。腦機接口作為一個多學科交叉的研究領域,所涉及的科學與技術領域包括認知心理學、醫學、生物工程、電子工程以及人機交互技術等。不同領域對于腦機接口的關切點不盡相同。譬如,醫學與生物工程更關注大腦結構和相關電信號的捕捉技術;認知心理學和人機交互技術更側重于關注用戶的認知、體驗與感受;倫理學家更關注腦機接口對自主性、責任、同一性等傳統倫理原則的挑戰;科學家則更關注安全和風險問題。因此,我們在開發合倫理的腦機接口時,同樣也需要跨學科合作,以共同解決腦機接口研究、開發與應用過程中遇到的倫理難題,推動腦機接口健康有序的發展。

一方面,在倫理規則制定過程中,我們需要關注腦機接口研究、開發與應用中不同利益相關方的核心倫理關切,促進各方溝通。例如,患者和用戶可能會擔心數據隱私和安全問題,需要確保他們能夠掌控自己的大腦活動數據,避免這些數據被商家濫用。然而,最近的一項調查結果顯示,相關技術研發者對腦機接口數據隱私權的態度是復雜的,他們既承認個人應該對自己的神經數據擁有一定的控制權,但又不應該是“無限的控制權”,否則相關研究將很難展開。[41]可見,在腦機接口的研究、開發與應用過程中,不同利益相關方之間存在著一定的利益沖突。因此,需要利益相關方在構建合倫理腦機接口的過程中展開對話,增進各方對腦機接口研究、開發與應用倫理的理解。諾普夫(Sophia Knopf)等人曾指出,將腦機接口技術專家引入倫理框架之中并不一定能夠反映商業公司所關切的“倫理現實”問題,為此,神經技術企業也需要根據自己的價值需求與倫理設想參與到腦機接口的倫理監管原則的制定中來。[42]因此,倫理學家可以提供契機,讓用戶、企業、科學家共同參與倫理原則的制定,避免因為忽視某一方,形成不合理的倫理負擔。

另一方面,在腦機接口倫理的理論反思方d31d179d90e0b0c2bb438a82655d3b35面,我們同樣需要加強不同學科之間的合作,唯有這樣我們才能更加全面地評估腦機接口技術的潛在風險和收益。例如,我們在關于倫理的討論中,需要從簡單描述倫理問題的階段,推進到對不同倫理問題進行權重分配的層面。我們需要解釋哪些倫理問題具有最高的優先級,哪些倫理問題擁有中等重要性,以及哪些倫理問題在腦機接口未來的發展中可能具有較低的優先級。[43]這種權重分配,不僅需要技術倫理專家深入社會,考察公眾對腦機接口的道德態度與關切,還需要腦機接口一線科研人員和臨床工作者在腦機接口的實際研發與應用中就相關倫理問題進行反饋,以確保腦機接口倫理能夠切實指導腦機接口技術的發展。此外,還需要社會學家開展相關實證研究,調查腦機接口用戶與潛在用戶的需求,這有助于使腦機接口與用戶的切身利益保持一致,確保腦機接口的研究、開發與應用不會與社會的價值規范發生沖突。[44]

因此,只有在多方協作的基礎上,我們才能更好地應對腦機接口技術帶來的各種倫理挑戰,確保腦機接口技術能最大程度地滿足用戶、企業、研究者等多方利益,最終實現造福全人類的目標。

結語

2022年3月,中共中央辦公廳、國務院辦公廳印發的《關于加強科技倫理治理的意見》明確指出:“將科技倫理要求貫穿科學研究、技術開發等科技活動全過程,促進科技活動與科技倫理協調發展、良性互動,實現負責任的創新。”[45]這一指導意見也為中國腦機接口倫理治理指明了航向。作為生命科學和信息技術深度交叉融合的前沿新興技術,腦機接口以其干預性、交互性和自動性等技術特性,在物理、心理和社會層面帶來了更加復雜的倫理挑戰。為了有效應對這些挑戰,我們亟需加強監督管理,提升倫理素養,深化跨學科合作,從而確保腦機接口領域在合倫理的框架內實現負責任的創新和發展。

當前,中國的腦機接口技術正在飛速發展,信號解碼與行動控制的精細程度不斷提升,相關應用場景也在持續擴展,并有望在不久的將來成為新質生產力的重要組成部分。在大國博弈和“認知戰”愈演愈烈的背景下,腦機接口等前沿神經科技的戰略地位和應用價值日益突出。面對這一趨勢,中國有必要在持續加大腦機接口研發投入的同時,加快建立具有前瞻性的腦機接口倫理規范和監督機制。

制定切實可行的腦機接口倫理規范,離不開結合中國實際對國際倫理治理經驗的積極借鑒,以及對技術走向的精準預判。構建協同高效的腦機接口監督機制,既要依靠政府機關審查人員,也要依靠科技倫理專家,更要依靠積極支持科技倫理治理的廣大科學家。總之,腦機接口倫理治理,需要采用自律與他律相結合的方式穩步推進。唯有這樣,才能確保腦機接口技術能夠持續健康發展。

(本文系教育部人文社會科學重點研究基地重大項目“當代認知哲學基礎理論問題研究”的階段性成果,項目編號:22JJD720007;北京大學哲學系博士研究生楊軍潔、北京大學哲學系碩士研究生梁澤仁對本文亦有重要貢獻)

注釋

[1]E. Mullin, "Watch Neuralink's First Human Subject Demonstrate His Brain-Computer Interface," Mar. 20, 2024, https://www.wired.com/story/neuralink-implant-first-human-patient-demonstration/.

[2]Reuters, "Neuralink Has Implanted Second Trial Patient with Brain Chip, Elon Musk Says," The Guardian, Aug. 4, 2024.

[3][31]D. Hurley, "Ethical Questions Swirl Around Neuralink's Computer-Brain Implants," Neurology Today, 2024, 24(10).

[4]L. Drew, "Elon Musk's Neuralink Brain Chip: What Scientists Think of First Human Trial," Nature, 2024(2).

[5]J. J. Vidal, "Toward Direct Brain-Computer Communication," Annual Review of Biophysics and Bioengineering, 1973, 2(1).

[6][11]《〈腦機接口研究倫理指引〉和〈人—非人動物嵌合體研究倫理指引〉發布》,2024年2月2日,https://www.most.gov.cn/kjbgz/202402/t20240202_189582.html。

[7]L. A. Farwell and E. Donchin, "Talking off the Top of Your Head: Toward a Mental Prosthesis Utilizing Event-Related Brain Potentials," Electroencephalography and Clinical Neurophysiology, 1988, 70(6).

[8]J. R. Wolpaw, D. J. McFarland, G. W. Neat and C. A. Forneris, "An EEG-Based Brain-Computer Interface for Cursor Control," Electroencephalography and Clinical Neurophysiology, 1991, 78(3).

[9]N. Birbaumer, N. Ghanayim and T. Hinterberger et al., "A Spelling Device for the Paralysed," Nature, 1999, 398(6725).

[10]C. S. Nam, A. Nijholt and F. Lotte, Brain-Computer Interfaces Handbook: Technological and Theoretical Advances, CRC Press, 2018.

[12][16][30]V. Dubljevi? and A. Coin, Policy, Identity, and Neurotechnology: The Neuroethics of Brain-Computer Interfaces, Cham: Springer International Publishing, 2023, pp. 101-16; pp. 27-41; pp. 253-269.

[13][17]E. Klein, "Informed Consent in Implantable BCI Research: Identifying Risks and Exploring Meaning," Science and Engineering Ethics, 2016, 22(5).

[14][24]O. Müller and S. Rotter, "Neurotechnology: Current Developments and Ethical Issues," Frontiers in Systems Neuroscience, 2017, 11.

[15][27]S. Rainey, H. Maslen and J. Savulescu, "When Thinking is Doing: Responsibility for BCI-Mediated Action," AJOB Neuroscience, 2020, 11(1).

[18]E. Klein, B. Peters and M. Higger, "Ethical Considerations in Ending Exploratory Brain-Computer Interface Research Studies in Locked-in Syndrome," Cambridge Quarterly of Healthcare Ethics, 2018, 27(4).

[19]E. Hildt, "Multi-Person Brain-To-Brain Interfaces: Ethical Issues," Frontiers in Neuroscience, 2019, 13.

[20]F. Gilbert, T. O'Brien and M. Cook, "The Effects of Closed-Loop Brain Implants on Autonomy and Deliberation: What are the Risks of Being Kept in the Loop?" Cambridge Quarterly of Healthcare Ethics, 2018, 27(2).

[21]M. Sample, M. Aunos and S. Blain–Moraes et al., "Brain-Computer Interfaces and Personhood: Interdisciplinary Deliberations on Neural Technology," Journal of Neural Engineering, 2019, 16(6); F. Gilbert, T. O'Brien and M. Cook, "The Effects of Closed-Loop Brain Implants on Autonomy and Deliberation: What are the Risks of Being Kept in the Loop?" Cambridge Quarterly of Healthcare Ethics, 2018, 27(2).

[22]L. B. Andrew, "The Method of 'Principlism': A Critique of the Critique," The Journal of Medicine and Philosophy, 1992, 17(5).

[23]S. Naufel and E. Klein, "Brain-Computer Interface (BCI) Researcher Perspectives on Neural Data Ownership and Privacy," Journal of Neural Engineering, 2020, 17(1).

[25]J. A. Stramondo, "The Distinction Between Curative and Assistive Technology," Science and Engineering Ethics, 2019, 25(4).

[26]F. Gilbert et al., "Embodiment and Estrangement: Results from a First-in-Human 'Intelligent BCI' Trial," Science and Engineering Ethics, 2019, 25(1).

[28]A. Wolkenstein, R. J. Jox and O. Friedrich, "Brain-Computer Interfaces: Lessons to Be Learned from the Ethics of Algorithms," Cambridge Quarterly of Healthcare Ethics, 2018, 27(4).

[29]I. C. McCall et al., "Owning Ethical Innovation: Claims about Commercial Wearable Brain Technologies," Neuron, 2019, 102(4).

[32]K. S. Gaudry et al., "Projections and the Potential Societal Impact of the Future of Neurotechnologies," Frontiers in Neuroscience, 2021, 15.

[33]M. Ienca and P. Haselager, "Hacking the Brain: Brain-Computer Interfacing Technology and the Ethics of Neurosecurity," Ethics and Information Technology, 2016, 18.

[34]A. D'Aloia and M. C. Errigo (eds.), Neuroscience and Law: Complicated Crossings and New Perspectives, Springer Nature, 2020, pp. 273-290.

[35]P. Tubig and D. McCusker, "Fostering the Trustworthiness of Researchers: SPECS and the Role of Ethical Reflexivity in Novel Neurotechnology Research," Research Ethics, 2021, 17(2).

[36]E. Hildt et al. (eds.), Building Inclusive Ethical Cultures in STEM, Cham: Springer International Publishing, 2024, pp. 245-262.

[37]M. Ahmed and P. Haskell-Dowland (eds.), Cybersecurity for Smart Cities: Practices and Challenges, Springer International Publishing, 2023, pp. 31-46.

[38]P. López-Silva and L. Valera (eds.), Protecting the Mind: Challenges in Law, Neuroprotection, and Neurorights, Springer International Publishing, 2022, pp. 157-161.

[39]S. Sattler, and D. Pietralla, "Public Attitudes Towards Neurotechnology: Findings from Two Experiments Concerning Brain Stimulation Devices (BSDs) and Brain-Computer Interfaces (BCIs)," PloS one, 2022, 17(11).

[40]J. K?gel and G. Wolbring, "What It Takes to be a Pioneer: Ability Expectations from Brain-Computer Interface Users," NanoEthics, 2020, 14(3).

[41]S. Naufel and E. Klein, "Brain-computer Interface (BCI) Researcher Perspectives on Neural Data Ownership and Privacy," Journal of Neural Engineering, 2020, 17(1).

[42]S. Knopf, Sophia, N. Frahm and S. M. Pfotenhauer, "How Neurotech Start-ups Envision Ethical Futures: Demarcation, Deferral, Delegation," Science and Engineering Ethics, 2023, 29(1).

[43]N. Voarino, V. Dubljevi? and E. Racine, "TDCS for Memory Enhancement: A Critical Analysis of the Speculative Aspects of Ethical Issues," Frontiers in Human Neuroscience, 2017.

[44]O. C. van Stuijvenberg et al., "Developer Perspectives on the Ethics of AI-Driven Neural Implants: A Qualitative Study," Scientific Reports, 2024, 14(1).

[45]《中共中央辦公廳 國務院辦公廳印發〈關于加強科技倫理治理的意見〉》,2022年3月20日,https://www.moj.gov.cn/pub/sfbgw/gwxw/ttxw/202203/t20220320_451049.html。

責 編∕肖晗題 美 編∕周群英

主站蜘蛛池模板: 天天操精品| 日本人又色又爽的视频| 亚洲中文在线看视频一区| 精品久久久久无码| 亚洲黄色成人| 人妻无码中文字幕一区二区三区| 亚洲无码精彩视频在线观看| 国产精品亚洲αv天堂无码| 久久永久免费人妻精品| 在线观看免费人成视频色快速| 亚洲欧美国产高清va在线播放| 日韩欧美高清视频| 亚洲成综合人影院在院播放| 伊人久久婷婷| 国产不卡在线看| 成年A级毛片| 波多野结衣无码中文字幕在线观看一区二区 | 四虎国产成人免费观看| 蜜桃视频一区二区三区| 黄色网站在线观看无码| 国产精品毛片一区| 2022国产无码在线| 91精品免费久久久| 91福利在线观看视频| 天天色天天操综合网| 成人噜噜噜视频在线观看| 国产免费一级精品视频| 成人噜噜噜视频在线观看| 婷婷六月天激情| 亚洲天堂视频在线播放| 国产一级视频在线观看网站| 99re这里只有国产中文精品国产精品 | 精品视频在线观看你懂的一区| 国产精品性| 18禁黄无遮挡网站| 自拍偷拍欧美| 国产亚洲精品97在线观看| 国产无套粉嫩白浆| 亚洲精品动漫| 国产精品久久久久久搜索| 久久久久无码国产精品不卡| 国产精品久久久久无码网站| 国产Av无码精品色午夜| 九九热精品视频在线| 国产精彩视频在线观看| 国产精品网址在线观看你懂的| 国产乱人伦AV在线A| 免费一级无码在线网站| 国产精品手机在线播放| 久久人人爽人人爽人人片aV东京热| h网址在线观看| 亚洲日本www| 亚洲国产综合精品一区| 小说区 亚洲 自拍 另类| 99精品国产自在现线观看| 91精品国产91欠久久久久| 精品久久高清| 婷婷开心中文字幕| 色一情一乱一伦一区二区三区小说| 国产自在自线午夜精品视频| 91在线视频福利| 国产三级韩国三级理| 国产区人妖精品人妖精品视频| 99国产在线视频| h视频在线观看网站| 国产精品一区在线观看你懂的| 国产自产视频一区二区三区| 色综合天天娱乐综合网| 国产亚洲成AⅤ人片在线观看| 欧美日韩高清| AV在线天堂进入| 福利在线一区| 久久青草视频| 国产手机在线观看| 久久人体视频| 在线观看网站国产| 国产成人高清精品免费| 狠狠综合久久| 日韩无码视频播放| 欧美www在线观看| 伊人久久福利中文字幕| 成人夜夜嗨|