夏永紅,李建會
(1 華南師范大學科學技術與社會研究院,廣東 廣州 510006,yonghongx@126.com;2 北京師范大學哲學學院,北京 100875)
人工智能是通過計算機實現的在一定程度上可以自主運行,并替代或輔助人類進行推理、識別、決策、互動和操作等智能活動的人工能動者。在醫學領域,人工智能的應用目前主要包含了兩個分支:虛擬的和物理的。虛擬分支主要依賴于以計算機程序形態存在的虛擬人工智能能動者,它的主要應用包括:①醫療信息管理系統。比如結合自然語言處理技術,自動讀取患者電子病歷,以實現輔助診斷、醫療處方警示和規范、流行病學調查等;②健康管理系統。收集健康智能設備和APP的用戶大數據,并在合規合法的情況下打通電子病歷數據,對這些數據進行綜合分析和處理,以評估疾病和健康風險,對用戶給出個性化和精準化的醫療、運動和飲食建議;③自動診斷和分診系統。結合對醫學影像檢查、化驗數據、電子病歷數據的分析,以及對患者的自動問診,自動給出診斷意見并開具處方,或輔助醫生作出診斷。物理分支則主要包括以物理形態存在的智能機器人,它在很多醫學設備和看護機器人上都有應用。目前應用最為廣泛的是手術機器人,它們可以被作為外科醫生助理,甚至是擔任主刀醫生的角色[1]。
醫學人工智能的廣泛應用,將會沖擊目前的醫療現狀,并帶來新的醫療風險,包括:①醫療安全性問題。人工智能如果給出不準確或錯誤的醫療建議,將給患者帶來嚴重的健康后果,如何規范醫學人工智能的合理應用,將會考驗醫療政策和倫理規范的制定者;②數據隱私問題。如果沒有對健康和病歷數據的收集和使用進行規范,將會侵犯用戶或患者的私人隱私;③醫療公正問題。不同年齡、階層、地區之間的數字設備使用水平,以及醫療資源分配的不均,可能會讓醫學人工智能不能公正地惠及所有人;④責任劃分問題。當智能診斷系統、手術機器人產生診斷錯誤和操作錯誤的時候,有可能會產生責任劃分上的困境[2]。在這么多的風險中,醫療安全性問題更多屬于技術層面的問題,我們可以通過改善醫學人工智能系統的穩健性和準確性來避免;醫療公正問題更多屬于政策方面的問題,可以制定更具普惠性的醫保政策,對弱勢群體進行知識扶貧、知識救助;數據隱私問題兼具技術和政策維度,一方面可以改進數據保密和加密技術,另一方面應該從政策上明確各種數據的使用范圍。只有責任劃分問題,無法純粹依靠技術的進步和政策的改進而得以解決,它更多地需要在道德哲學層面澄清基本的責任歸屬。
醫學人工智能意味著它取代了先前由醫生執行的某些任務,這無疑會極大地改變醫生與患者之間的關系,從而也會改變醫生與患者之間的道德責任劃定。如果產生醫療事故,那就不能簡單地歸責于醫生,而需要把更多的責任相關者帶入進來,比如醫學人工智能的開發商、算法的設計者、訓練數據的提供者[3],乃至醫學人工智能的監管者等。然而,如何在這些責任相關者之間進行責任劃分?是否會面臨發生了醫療事故卻無人負責的狀況?這一問題將會成為亟待解決的倫理問題。本文將聚焦于醫療責任劃分的道德哲學問題,通過引入角色責任和分布式責任,來嘗試解決上述問題。
一個完整的醫學診斷流程一般可以分為問診、檢查和決策三個階段。在這個過程中,需要搜集的就是確診某種疾病的證據。在問診階段,醫生基于臨床知識,根據患者的主訴、病史獲得初步的診斷。如果問診獲得的證據強度達到某個治療閾值,則可以初步確診疾病以開始治療;如果證據強度低于治療閾值但達到了檢測閾值,則需要開出醫學檢查單,在獲得相關的影像、細胞檢查結果后,如果證據強度達到了治療閾值,就可以開始治療[4]。這三個診斷階段涉及多種智能。首先是問診階段的語言交互智能,問診是一種開放場景下的問答,旨在了解患者的主訴和病史,醫生需要見機進行開放式的提問,鼓勵并引導患者的講述,并對患者的反饋或反問有及時和恰當的回應。其次是圖像識別智能,醫生需要熟練地識別影像學檢查結果中各個器官組織,會區分正常組織與病灶的相關特征,并根據病灶的特征推斷出可能的病因。此外,還包括認知計算智能,醫生需要基于檢測結果、患者主訴和病史等證據,來進行因果-概率推斷,對疾病作出診斷。
目前醫學人工智能領域的眾多產品,正是針對醫學診斷中所涉及的言語交互、圖像識別和認知計算等三種主要智能而開發。言語交互和認知計算兩個領域往往相互交織在一起,比如智能問診、導診機器人、臨床決策支持系統等產品。這些系統的核心是一套復雜程度不同的醫學知識圖譜,它集成了大量的結構化的醫學知識,在其開發過程中需要基于大量醫生的專業判斷,對大量現有的電子病歷、醫學診斷報告和治療方案的數據進行結構化處理。根據相應的醫學知識圖譜,這些醫學人工智能系統就可以根據從患者獲得的信息作出推斷,最終輸出包括分診、診斷、預測和建議等推論結果,以輔助醫生的決策。圖像識別領域的產品包括智能影像輔助診斷系統和細胞病理自動診斷分析儀,二者的核心都是一套訓練好的深度學習模型。它的開發需要專業醫生對大量電子影像的和細胞病理切片的病變進行標注,再把這些標注數據喂入預先設計好的訓練模型,經過工程師的調參和訓練,最終就可以在輸入未經標注的檢查數據之后,自動識別其中的病灶和病變[5]。

表1 人工智能醫學診斷系統的分類
可見,知識圖譜和深度學習是當下醫學人工智能兩種主要算法,其中深度學習又主要應用于分析影像學和病理學檢查結果。兩種算法給醫學人工智能帶來了兩個非常重要的特征:首先是數據依賴性,無論是知識圖譜還是深度學習,都需要海量的醫學專業數據;其次是不可解釋性,尤其是深度學習,難以解釋從輸入到輸出的邏輯過程,從而也意味著無法解釋醫學人工智能作出的診斷的理由或邏輯。這兩個特征分別帶來了兩個相互關聯的后果。
對專業數據的依賴性,意味著人工智能的能動性是分布式的,而不僅僅是一個被人類能動者使用的簡單工具。對于使用工具導致的不良后果,我們往往會歸責于使用者和監管者,比如使用刀具或槍械殺人,我們會懲罰使用者,并可能會問責政府是否存在對刀具或槍械的監管不力。然而,人工智能的分布能動性意味著,人工智能的設計者和數據的提供者都可能導致人工智能應用的不良后果。正如塔代奧和弗洛里迪所指出的,人工智能的能動性是分布式的而非個體性的,因為“基于人工智能的決策或行動的效果,通常是許多行動者(包括設計者、開發者、使用者、軟件和硬件)之間無數次交互作用的結果。”[6]分布式能動性帶來了分布式的道德責任。首先,專業數據對于醫學人工智能是基礎性的,數據的提供者或標注者是必然的責任承擔者。如果醫生對數據進行了錯誤的標注,很可能會增加醫學人工智能產品開發的難度,更嚴重的情況是,開發出來的產品產生錯誤輸出,對患者進行錯誤的診斷。其次,設計者也需要承擔道德責任,因為醫學人工智能模型的受眾,在很大程度上來自于設計者或開發商的選擇偏好。如果沒有一種普惠、公正的理念的指導,由于弱勢群體的醫學數據相對匱乏,很可能會導致某種“算法歧視”,即模型的準確性在弱勢群體中大打折扣。
另一方面,由于當前的人工智能存在可解釋性問題,即無法解釋人工智能的決策背后的理由或邏輯,相關的能動者可能難以對人工智能帶來的后果承擔責任。對于設計者而言,人工智能是一個黑箱,他無法解釋模型何以會有這樣的輸出,他對模型和參數的調節往往和“煉丹”無異;對于標注者而言,他無法理解人工智能為何不能舉一反三,人工智能往往會脫離情境,輸出他明顯覺得錯誤的結果;對于使用者來說,他無法理解人工智能為何會作出一些超出常理的決策,如果沒有合理的理由又如何信賴這些決策;對于監管者而言,他可能會無法確定人工智能究竟應該作為一種純粹的工具,還是作為一種具有某種自主性的能動者來進行監管[7]。因此,人工智能的所有相關的能動者都無法把控人工智能應用的后果,都面臨著人工智能應用的某種運氣和不確定性。
如果人類能動者不能擔責,那么人工能動者可以擔責嗎?人工智能是否可以成為道德的能動者和受動者,仍然是一個有爭議的問題[8]??屏帧ぐ瑐?Colin Allen)試圖用道德圖靈測試作為判定道德能動者的判準[9],而斯帕羅(Robert Sparrow)提出用圖靈分診測試來判定人工智能是否可被視為道德受動者[10]。鑒于目前并沒有任何一種人工智能能動者在現實中通過了這兩種測試,我們現在一般并不會把人工智能作為道德能動者和受動者,因而也不會把它們視為道德責任的承擔者[11]。這樣,我們就無法簡單地把醫療人工智能作為醫生的替代者,在遇到醫療事故的時候歸責于醫療人工智能。
這就讓道德責任的歸責尤其困難。因為很可能出現這樣的情景,每個人看起來都沒有做出什么故意的壞事,但最終卻導致了一場不幸的醫療事故,以至于我們很難去單獨地歸責于誰,最后的結果是誰也不必承擔責任。我們不妨把這稱之為責任空場問題。責任空場往往意味著,某個壞的結果最好稱之為不幸,而非不正義,或者說,是某種壞運氣,而不是壞的行為導致了壞的結果。然而,我們假設一個患者因為人工智能的錯誤診斷而被不當治療,最后丟了性命,但因為這是機器作出的診斷,而且沒有人能預知和解釋機器何以作出這種診斷,從而也就沒有人需要為此承擔責任。如果我們作為患者家屬,可能會覺得這是不正義的,無人擔責不符合我們的道德直覺。
總而言之,醫學人工智能的數據依賴性導致了一種分布式能動性,不可解釋性產生了一種道德責任空場問題。兩者之間又是高度相關的,因為正是分布式能動性,產生了弗洛里迪所說的分布式的道德行動,也就是說,在一個人類與機器混雜的行動體系中,那些道德上具有善惡屬性的行動,很可能是被那些在道德上中立的互動所引起的[12]。于是,我們就很難追究不同的人類能動者的責任,從而產生了一個道德責任空場。
所謂道德責任,也就是一個人應該在道德上為其行為所導致的后果負起責任。這實際上意味著一個人的行為與其所需要負責的后果之間,必須存在著一種因果關聯。我們可以稱其為道德責任的因果條件。然而,行為與后果之間的因果關聯對于道德責任是不充分的。亞里士多德在《尼各馬可倫理學》中提出,一個人只有當它的行為是出于意愿的時候,才有資格被稱贊或譴責,也就是說,才可以承擔道德責任。在亞里士多德看來,一個出于意愿的行動具有兩個特征:首先,行動是由一個能動者發起的,而不是外部強迫的;其次,能動者應該意識到自己所做的事情及其后果[13]。從亞里士多德的觀點出發,我們可以歸納出另外兩個道德責任條件:一個是控制條件,即與某種不良后果相關的行為處于能動者的控制范圍之內;另一個是認知條件,即能動者可以預知到自己的行為決策可能會導致某種不良后果。這兩個條件加上因果條件一起界定了我們對道德責任的傳統理解,它們一起所表達的意思是,我們只對哪些我們可以預知的、在控制范圍內,并且由我們的行為所導致的后果負責。假設某種后果因為因果鏈條過長,超出了我們的控制和認知,那么我們就無須對此負責。因此,道德責任就意味著我們只對不正義負責,不對不幸負責,因為后者超出了我們的認知和控制。更進一步的推論是,對道德的評價只應考慮道德能動者的信念、欲念和意圖。這種觀念最典型的代表就是康德,他認為善之為善,僅僅因為意念本身就是善的,而非任何可能的后果[14]。因為前者是我們所能控制的,而后者則處在被因果規律所支配的世界中。
然而,這三個條件對于道德責任是否充分?我們可以相像一個人在小區遛狗,但一不留神狗掙脫了繩子,咬到了路上的行人。在這個場景中,如果我們把因果鏈條限定在從遛狗到咬人這個時間段的話,狗主人不滿足前述任何一個道德責任的條件,他沒有教唆狗去咬人——不滿足因果條件,他在那一刻難以控制狗的行為——不滿足控制條件,他在牽狗的時候也不知道它將會咬到人——不滿足認知條件。然而,從我們的道德直覺出發,我們顯然會認為狗主人應該對被咬的路人負有道德責任。因為他沒有盡到一個狗主人的責任,即防止他的狗去傷害別人。這提示我們,很可能還存在著這樣一種道德責任,責任人的行為與所負責的后果之間不存在因果關聯。
哈特(H.L.A. Hart)將這種責任稱之為角色責任(role-responsibility)[15]。任何一個行動者,總是處于特定的社會組織之中,它總是擔負了某種崗位、角色和任務,從一種職業或道德規范出發,它應該對其相關的他者負責任[16]。這意味著,一個人不僅不應該去做出錯誤的行為傷害他者,而且也不應該因不作為導致他者的不幸。角色責任更多地與后者相關。比如,教師應當對學生的學業負責,醫生應當對患者的健康負責,這不僅意味著他們不應該傷害學生和患者,更意味著他們需要在職業規范的指導下避免某些不作為,或者說,不能玩忽職守。由此,我們就可以提出一種新的道德責任的條件:能動者本可以作出某種分內的干預以避免或減弱某種不良后果,但卻因為不作為而導致了不幸。由于這一條件是以一種反事實虛擬的方式被表述出來的,它是對一種可能模態的陳述,我們不妨將其稱之為虛擬條件。顯然,在前述的例子,狗主人就滿足了失職條件,他本應該給狗戴上口套,但他卻沒有盡到職責,從而導致了他人的不幸。如果考慮他的不作為的決定本身,他顯然滿足控制條件,因為他沒給狗戴上口套的決定是自愿作出的,也滿足認知條件,因為他可以認識到他的這一決定是不合規范的。因此,總體而言,角色責任意味著一個人應當為它的不作為而承擔責任,這種不作為的決定需要滿足控制條件、認知條件和虛擬條件。
綜上所述,一個人可能因為錯誤的作為而負有道德上的直接責任,也可能因為失職的不作為而負有道德上的角色責任,因此存在著兩種不同的道德責任:直接責任和角色責任。前者需要滿足因果條件、控制條件和認知條件,后者需要滿足虛擬條件、控制條件和認知條件。
這一區分在很大程度上可以幫助我們解決道德空場問題,并把運氣帶回對道德責任的反思中,也就是說,有時候我們需要對不幸負責。我們總是生活在一個被運氣支配的世界,不受控制的自然常常給人們帶來不幸。我們往往認為,自然帶來的是不幸,人為才產生了不正義。然而,正如施克萊所指出的,自然與人為對于區分不幸與不正義并不重要,問題的關鍵在于人們“是否站在受害者的立場采取行動,是進行譴責還是宣告無罪,是去提供幫助、排憂解難、作出補償,還是直接掉頭走開?!盵17]然而,一個人并不能對受害者采取一種無限責任的立場,他只能作為一個人而不是作為上帝,在其職分范圍內承擔對他者的責任。如果他不能在其職分范圍內幫助、補償他者,那么他者的不幸就變成了不正義,他就需要對他者承擔角色責任。雖然他者的不幸并非是他在因果上直接導致的,并且在很大程度上要歸結于來自自然的無常的運氣,但是他在道德上卻需要為壞運氣導致的壞結果負責。
把運氣及其后果帶入道德評價,表明運氣與道德并非互不相關,從而提示我們存在著一種被稱為道德運氣(moralluck)的東西。內格爾(T. Nagel)指出了這一點,如果一個人所做的事物的某些方面是其無法控制的,并且這些方面影響到了對他的道德評價,那么我們就可以說它受到了道德運氣的影響[18]。道德運氣無疑會影響到對直接責任的評估,比如兩個意圖殺人的兇手,一個最終殺了人,另一個因為某種壞運氣抑或是好運氣,沒有殺成人,那么最終前者可能就會背負在程度上更嚴重的道德責任。然而,無論兩個兇手是否殺了人,他們都因為錯誤的決定和作為,而無法免除道德責任。道德運氣的更大作用在于幫助我們理解角色責任。比如兩個醫生由于同樣的疏忽,沒有詢問他們的患者是否青霉素過敏就開出這個處方,結果第一個醫生的患者青霉素過敏死去了,而第二個醫生的患者則完全不對青霉素過敏。雖然兩個醫生都有同樣的失職之處,但第一個醫生需要承擔法律和道德的責任,而第二個醫生一般不會有任何人追責他。我們可以說第一個醫生和他的患者遭遇了壞運氣,但第一個醫生無疑需要為他的失職和壞運氣承擔責任。因此,只要一個人存在著某種失職,讓不幸變成了不正義,他就需要為此擔責。
角色責任無疑可以將大部分不幸歸結為不正義,從而極大地填補道德責任的空場。然而,無論如何還存在著這種情形,四種相關能動者都恪守職分,但還是不能防止醫學人工智能作出了錯誤的診斷,最終導致患者的不幸。為此,弗洛里迪提出了一種無過錯責任(faultless responsibility)的道德責任原則。這本來是一個法學術語,指的是雖然沒有人存在過錯,但也需要為此擔責。但弗洛里迪認為人工智能的無過錯責任是一種基于群體互動的分布式責任,它相對于基于個體故意行為的個體式責任,如果說后者聚焦于對個體的懲罰和獎勵,那么前者就主要以對環境損害和福利的分配為導向。弗洛里迪認為,我們可以制定一種機制,不再細究每一個能動者的意圖和認知,而是把讓這些能動者作為一個網絡,共同承擔風險和責任,把我們關注的重心從個人發展和福利轉向社會系統的福祉和繁榮[12]。由此,任何人工智能系統的相關能動者都可以共擔責任,并將一切不幸都作為不正義接受下來。
然而,我們將指出,弗洛里迪的分布式責任方案至少在兩個方面存在某種不可解決的錯誤。首先,人工能動者難以作為分布式責任的承擔者,弗洛里迪犯了責任謬置的錯誤。弗洛里迪曾經認為人機混合體系的分布式道德不需要道德能動者具有意向性和責任性,因此,人工能動者也可以成為道德能動者。盡管它無法承擔道德責任,但卻具有可問責性(accountability)[19]。但現在他卻似乎傾向于認為,分布式道德意味著分布式責任,人工能動者也需要承擔分布式責任,雖然依然不要求它具有意向性。然而,這并不能幫我們理解人工智能如何可以承擔責任性,因為似乎將人工智能排除出分布式責任體系之后,仍然不影響這一體系的運作。意向性似乎仍然是責任性的構成要素,但由于迄今為止的人工智能還缺乏真正的意向性,人工智能無法成為角色責任的承擔者。無論是深度學習依賴的人工神經網絡,還是知識圖譜所歸屬的符號主義,其系統的意義都依賴于外部觀察者的設計和賦予[20]。也就是說,人工智能系統缺乏一種根據內稟的目的來進行決策的能力,所有的目的、意義和規范都是外部賦予的。在這個意義上,人工智能并不能控制自身的行為,更不能預知自身的行為可能會導致什么后果。因此,人工智能不滿足道德責任所必需的控制條件和認知條件,從而不能承擔任何道德責任。
其次,在現實中回避個體式責任,要么不可欲,要么不可行。弗洛里迪所說的無過錯責任類似于我們前面所說的角色責任,它們都意味著責任人的行為與受害人的損害之間沒有因果關系,但責任人的職責卻規定了他應該避免引起這種損害。區別在于,弗洛里迪的無過錯責任是一種分布式責任,而我們所說的角色責任仍然是一種個體式責任。但在我們看來,如果完全排除個體式責任,分布式責任根本不具有可實行性。分布式責任預設了一個有著共同福祉和利益的共同體,預設了一種具有高度同理心和關注他者的道德德性,這一切都與我們的現實處境完全不符。如果一個共同體中分攤責任的損失,遠小于違規獲得的私人利益,那么很可能就會導致這樣的博弈策略,即每個人都傾向于違規獲得更多的利益。最后將導致一種責任公地悲劇,讓分布式責任不可行。另一方面,由于無過錯責任完全回避了個體式責任,這就意味著每個人都同等地為風險和運氣承擔責任,也可能會導致這樣的結果,即每個人都不愿意冒險,每個人都阻止別人冒險。最終每個人都傾向于不惹麻煩,讓新技術的應用和創新變得不再可能。這樣的結果就是一種責任反公地悲劇,讓分布式責任不可欲。
為了徹底解決道德責任空場問題,并避免分布式責任所導致的責任謬置、責任公地悲劇和反公地悲劇的錯誤,我們有必要把個體式責任和分布式責任結合起來,把個體式責任作為歸責程序的開始,從而盡可能避免責任謬置、責任公地悲劇和反公地悲劇,同時把分布式責任來為最純粹的不幸兜底,從而徹底解決道德責任空場問題。
個體式責任包括直接責任和角色責任。對于直接責任,只要明確能動者的行為與損害之間的因果關系,就可以很容易地作出判定。復雜的是角色責任的判定,它需要滿足一個并不容易確定的虛擬條件:能動者本可以作出某種分內的干預以避免或減弱某種不良后果,但卻因為不作為而導致了不幸。困難之處就在于如何界定什么干預是分內的,什么干預是分外的。一個可行的辦法是根據每個人在社會中的功能角色來推演其職分?;谝环N新亞里士多德主義的視角,每個人都被共同體中賦予了一種功能性的道德和政治角色,美德即意味著一個人對其社會角色的出色發揮。而具體處境下的處事規范,不過是通過某種實踐智慧來具體地、情境地把握其社會角色。因此,只要我們明確了這種社會角色,就可以間接地明確角色責任的分內和分外之分。比如,數據標注者的功能角色是提供準確和公正的數據,模型設計者的功能角色是設計準確、公正和安全的模型,醫學人工智能使用者的功能角色是規范、謹慎地使用模型,監管者的功能角色是及時頒布相應的技術和倫理規范。這些功能角色無疑只是概略性的,可以在以后的研究中進一步細化,但從這些功能角色,無疑可以推演出具體情境中的職分。無論如何,在這個角色責任體系中,每個人的作為與不作為,都是被某種角色規范所引導的,并與特定的懲罰與獎賞綁定在一起。這是一個權責清晰的責任體系,可以避免責任公地悲劇和反公地悲劇,并可以有效地避免大部分道德責任空場問題,因為大部分不幸都會歸結為角色責任。
結合分布式責任與個體式責任,我們就可以構想一個人工智能損害的歸責程序。當患者因為人工智能的錯誤診斷而遭受健康損害的時候,首先的工作是排查直接責任,檢查是否存在著相關能動者因為某種錯誤的作為而因果地導致了患者的健康損害。下一步的工作是排查角色責任,檢查相關的能動者是否因為某種失職的不作為,讓本可避免的損害發生了。如果既不存在直接責任,也不存在角色責任,那么最后的工作才是確定一種分布式的無過錯責任,讓相關的道德能動者實行一種責任分擔。由此,我們就可以將醫學人工智能的問責程序歸納如下:直接責任——角色責任——分布式責任。
醫學人工智能由于數據依賴性和不可解釋性,其能動性分布于不同的行動者之間,并難以預期和解釋它的輸出結果,這會導致一種道德責任空場問題:醫學人工智能的錯誤診斷導致了患者的不幸,每個行動者似乎都沒有明顯的過錯,從而也無人需要為此負責。在這樣的背景下,由于商業利益和部門利益的驅動,很可能加劇醫學人工智能對患者的損害,讓他們徹底置于無常的運氣的支配。為了實行一種負責任的創新,建造一種更加安全和公正的人工智能,有必要把個體角色責任和分布式責任體系置于醫學人工智能責任體系的中心,讓相關的責任人承擔壞道德運氣的后果。畢竟現代技術的原初目的就在于克服人類的不幸,以我們道德能力克服運氣對人類的支配。無論如何,我們應該向這個目標邁進,把不幸作為一種不正義來認真對待。