汪 琛,孫啟貴,徐 飛
(1.中國科學(xué)技術(shù)大學(xué)科技哲學(xué)系,安徽 合肥 230026;2.中國科學(xué)技術(shù)大學(xué)公共事務(wù)學(xué)院,安徽 合肥 230026)
醫(yī)療人工智能倫理問題已經(jīng)成為學(xué)界、產(chǎn)業(yè)與政府衛(wèi)生部門關(guān)注的熱點(diǎn)領(lǐng)域[1]。醫(yī)療人工智能的顛覆性特征不僅體現(xiàn)在技術(shù)迭代,也體現(xiàn)在對醫(yī)療相關(guān)倫理、法律、與社會體制潛藏的破壞性塑造[2]。由于醫(yī)療人工智能與人的生命健康密切相關(guān),其潛在的倫理不確定性與日俱顯,亟需開發(fā)一套有效的道德標(biāo)準(zhǔn),保障智能醫(yī)療技術(shù)的社會應(yīng)用可行性,將技術(shù)倫理納入智能醫(yī)療產(chǎn)品的技術(shù)構(gòu)成,評估技術(shù)融合可能引發(fā)的創(chuàng)新風(fēng)險(xiǎn),加強(qiáng)醫(yī)療人工智能的倫理治理[3-6]。
既有醫(yī)療人工智能倫理研究大致分為兩類:一是針對醫(yī)療人工智能潛藏的倫理問題,如智能醫(yī)療的偏見[7]、心理健康中算法的倫理挑戰(zhàn)[8],從可解釋性[9]、知識鴻溝[10]等視角,分析醫(yī)療人工智能倫理問題產(chǎn)生的原因,針對不同的倫理問題提出消解對策;二是引入如利益相關(guān)者[11]、負(fù)責(zé)任創(chuàng)新[12]等分析理論,期望通過技術(shù)創(chuàng)新與倫理規(guī)范的平行研究,化解醫(yī)療智能化轉(zhuǎn)型過程中的倫理風(fēng)險(xiǎn)。價值嵌入作為近年來人工智能倫理規(guī)制研究的又一新興視角[13],為醫(yī)療人工智能倫理研究提供了新的理論參考。
現(xiàn)行智能醫(yī)療的價值研究多將算法黑箱的透明度與結(jié)果的可解釋性作為嵌入的關(guān)鍵節(jié)點(diǎn)。例如,Durán[14]綜合實(shí)用主義、客觀主義兩條解釋進(jìn)路,將價值維度的差異性表征納入算法模型的結(jié)果解釋中,提出計(jì)算可靠性作為醫(yī)療人工智能結(jié)果解釋的可信條件;Sand[12]等則認(rèn)為應(yīng)確保患者的 “可競爭性 (contestability)”,即質(zhì)詢訓(xùn)練數(shù)據(jù)集可靠性與模型運(yùn)算透明性的權(quán)益;Umbrell[15]從嵌入機(jī)制入手,以價值敏感設(shè)計(jì)為理論框架,意圖整合護(hù)理、人工智能以及更高層次的價值需求,作為護(hù)理機(jī)器人設(shè)計(jì)的價值參照。這些學(xué)者意以解釋邏輯與治理機(jī)制作為價值嵌入的實(shí)踐路徑,但這種認(rèn)識論層面的源起式治理與機(jī)制上的價值規(guī)范設(shè)置缺乏有效融合,難以應(yīng)對醫(yī)療人工智能研發(fā)與應(yīng)用可能產(chǎn)生的過程性與衍生性倫理挑戰(zhàn)。
總的來看,醫(yī)療人工智能的倫理治理研究多以單一視角或框架理論切入,缺少全過程的倫理價值關(guān)注,缺乏對醫(yī)療人工智能倫理困境演化特點(diǎn)的整合審視。醫(yī)療人工智能作為一類社會-技術(shù)系統(tǒng),其倫理價值嵌入不僅需要解釋層面的價值認(rèn)知,還需要層級化的嵌套機(jī)制作為背靠支撐。有鑒于此,本文在回顧既有研究的基礎(chǔ)上,結(jié)合社會-技術(shù)協(xié)同演化視角,嘗試回答以下問題:①醫(yī)療人工智能倫理價值嵌入的理論基礎(chǔ)是什么?②醫(yī)療人工智能在不同實(shí)操階段的主要倫理問題是什么?③何為醫(yī)療人工智能的倫理價值?④如何在醫(yī)療人工智能演進(jìn)過程中嵌入倫理價值?通過對上述問題的分析,本文嘗試建構(gòu)醫(yī)療人工智能倫理價值的嵌入路徑,以期為國家醫(yī)療人工智能的可持續(xù)創(chuàng)新提供理論支撐與政策參考。
在智能醫(yī)療技術(shù)加速落地的過程中,配套的社會制度、發(fā)展政策與倫理規(guī)則也在同步制定實(shí)施。美國國立衛(wèi)生研究院、食品藥品監(jiān)督管理局、中國國家藥品監(jiān)督管理局均出臺了相應(yīng)規(guī)范準(zhǔn)則,其中就包括醫(yī)療人工智能的倫理準(zhǔn)則,旨在加速智能醫(yī)療產(chǎn)品的審批認(rèn)證。2019年美國國家醫(yī)學(xué)院發(fā)布 《醫(yī)療人工智能:希望、炒作、承諾、危險(xiǎn)》報(bào)告,要求優(yōu)先考慮醫(yī)療人工智能的倫理與道德,保障技術(shù)的公平與包容性;歐盟2018年在 《可信賴人工智能的倫理準(zhǔn)則 (草案)》 《歐洲人工智能戰(zhàn)略》等多項(xiàng)戰(zhàn)略報(bào)告中強(qiáng)調(diào)醫(yī)療人工智能倫理以人為本的向度目標(biāo);中國也多次在相關(guān)政策文件中強(qiáng)調(diào)要確保智能醫(yī)療技術(shù)的合倫理性。可見,倫理價值不僅是學(xué)理意義上技術(shù)發(fā)展的方向規(guī)引,更是醫(yī)療人工智能發(fā)展戰(zhàn)略的重要組成。醫(yī)療人工智能的倫理價值不是簡單的規(guī)范與原則堆砌,其背后蘊(yùn)含著社會整體對技術(shù)的價值期望與目標(biāo)愿景。
事實(shí)上,新技術(shù)的源起、涌現(xiàn)與擴(kuò)散,在推進(jìn)技術(shù)迭代與社會變革的同時,充斥著有關(guān)技術(shù)正義與公平的爭執(zhí),因而有必要探討轉(zhuǎn)型不同階段可能面臨的道德與倫理問題[16-17],醫(yī)療人工智能亦不例外。技術(shù)的社會建構(gòu)論中對技術(shù)人工物異化解釋的 “詮釋可塑性”表明,技術(shù)品質(zhì)與特征是由一些可能的意義嵌入所賦予的[18]。醫(yī)療人工智能作為由技術(shù)人工物、人類行動者、制度規(guī)則、技術(shù)規(guī)范與人工智能體 (AAs)[13]組成的社會-技術(shù)系統(tǒng)[19],加之人工智能獨(dú)有的技術(shù)自主性、交互性與自適應(yīng)性,說明醫(yī)療智能化轉(zhuǎn)型的實(shí)質(zhì)是一種技術(shù)與社會共生交互、相互作用的協(xié)同演化過程。未來智能醫(yī)療的可持續(xù)性動態(tài)演化,首先取決于技術(shù)應(yīng)用的可靠性,其次離不開非技術(shù)的規(guī)則與制度支撐。技術(shù)蓬勃發(fā)展的同時,其倫理風(fēng)險(xiǎn)可能觸發(fā)的社會危機(jī)愈發(fā)受到利益相關(guān)群體的關(guān)注與重視。為了防止技術(shù)實(shí)踐異化,保證技術(shù)效益的正向?qū)崿F(xiàn),保障智能醫(yī)療資源的合理分配,一套自洽的倫理秩序必不可少。
依照社會-技術(shù)轉(zhuǎn)型多層級 (MLP)的解構(gòu)思路,醫(yī)療人工智能的演化過程可分為三個層級:微觀利基、宏觀地景與社會-技術(shù)體制[20]。不同層級內(nèi)部以及層級間的交互作用,都會牽涉眾多社會因素對技術(shù)的形塑作用,其中倫理要素以多種形式嵌入并影響著技術(shù)的物化形態(tài)。在利基空間中,相關(guān)行動者的技術(shù)活動將決定技術(shù)目標(biāo)能否符合社會環(huán)境的價值要求[21],而倫理價值作為形塑階段中重要的規(guī)制要素之一,理應(yīng)在利基的孵化初期,通過行業(yè)設(shè)計(jì)規(guī)范、倫理專項(xiàng)審查和倫理素養(yǎng)教育等多重路徑,嵌入技術(shù)的主導(dǎo)設(shè)計(jì)之中。同時,地景層面中,不同文化語境、地理區(qū)位、意識形態(tài)等組成的外層空間,蘊(yùn)含的倫理觀念與道德認(rèn)知各有差異,通過倫理關(guān)切的戰(zhàn)略性部署,與既存體制中的醫(yī)學(xué)倫理傳統(tǒng),一同塑造醫(yī)療人工智能的倫理價值屬性。最后,通過觸發(fā) “機(jī)會窗口”,醫(yī)療人工智能相關(guān)的技術(shù)創(chuàng)新、市場結(jié)構(gòu)、消費(fèi)偏好、政策制度與社會文化得以確立,技術(shù)匹配的社會-技術(shù)系統(tǒng)、社會關(guān)系網(wǎng)絡(luò)與制度規(guī)則體系,共同形成醫(yī)療人工智能動態(tài)穩(wěn)定的社會-技術(shù)體制。
總體看來,醫(yī)療人工智能作為一類新興的社會-技術(shù)系統(tǒng),本質(zhì)上可看作是技術(shù)與社會協(xié)同創(chuàng)新演化的社會-技術(shù)集成工程,尤其是在既有醫(yī)學(xué)倫理審查無法全面適應(yīng)醫(yī)療人工智能技術(shù)特性的情況下,倫理價值必然成為醫(yī)療人工智能社會形塑過程中不可或缺的考量維度。
醫(yī)療人工智能的倫理問題,即指人工智能在醫(yī)療保健、公共衛(wèi)生領(lǐng)域應(yīng)用過程中,技術(shù)實(shí)踐存在違背既行醫(yī)學(xué)倫理規(guī)范的僭越風(fēng)險(xiǎn),可能造成難以逆轉(zhuǎn)的負(fù)面社會后果。醫(yī)療人工智能倫理問題的有效解決不僅是應(yīng)對醫(yī)學(xué)倫理審查的應(yīng)景之舉,還是智能醫(yī)療技術(shù)人本主義的保障前提。醫(yī)療人工智能從實(shí)驗(yàn)室走向臨床與商用,不同演化階段存在的倫理問題不盡相同。下面按照臨床前研發(fā)設(shè)計(jì)、臨床應(yīng)用和產(chǎn)業(yè)化兩個階段,分析和探討醫(yī)療人工智能的倫理問題,形成一個較為系統(tǒng)的醫(yī)療人工智能倫理反思框架:
第一,臨床前研發(fā)設(shè)計(jì)階段的不確定性與倫理風(fēng)險(xiǎn)。醫(yī)療人工智能研發(fā)設(shè)計(jì)階段的不確定與倫理風(fēng)險(xiǎn)主要表現(xiàn)為:一是數(shù)據(jù)倫理:模型訓(xùn)練用代表性數(shù)據(jù)集的普適性難以保證[22],種族、階層與性別偏見會無意識地通過數(shù)據(jù)標(biāo)簽嵌入算法黑箱[23]。此外,數(shù)據(jù)采集過程中,如何保障醫(yī)療數(shù)據(jù)個人隱私信息脫敏的可行性?面對數(shù)據(jù)孤島,運(yùn)用已有醫(yī)療信息的道德合理性[24]以及如何確保病患與終端消費(fèi)者的知情同意權(quán)?二是算法倫理:面對人體機(jī)理的復(fù)雜本質(zhì),算法的可解釋性飽受質(zhì)疑[25]。可解釋性是消解醫(yī)療人工智能高度自動化可能產(chǎn)生非惡性錯誤后果的技術(shù)保證,而增強(qiáng)可解釋性的代價往往是準(zhǔn)確性的下降[9]。同時,機(jī)器學(xué)習(xí)不以任何理論上可解釋的方式運(yùn)作,而是通過數(shù)據(jù)之間的統(tǒng)計(jì)關(guān)聯(lián)建立規(guī)則體系,這種黑箱方法使得智能決策過程缺乏透明性,導(dǎo)致規(guī)則間的關(guān)聯(lián)性難以確認(rèn)[10]。第三則與科研倫理相關(guān):技術(shù)作為一種目的性系統(tǒng)[26],荷載著價值屬性,醫(yī)療人工智能的實(shí)踐功能與價值形態(tài)一定程度上取決于研發(fā)或設(shè)計(jì)者自身的道德觀念與目標(biāo)動機(jī)。現(xiàn)行體制中,醫(yī)師群體有一套成熟、系統(tǒng)的醫(yī)學(xué)倫理規(guī)制,而人工智能研究者尚未形成公認(rèn)可靠的倫理準(zhǔn)則。醫(yī)學(xué)相關(guān)從業(yè)者執(zhí)證上崗前,都需接受基本的醫(yī)學(xué)倫理教育,而人工智能倫理課程建設(shè)剛剛起步[27],研發(fā)者的責(zé)任意識與道德思維亟待補(bǔ)強(qiáng)。
第二,臨床應(yīng)用與產(chǎn)業(yè)化階段的倫理問題。當(dāng)醫(yī)療人工智能進(jìn)入應(yīng)用與產(chǎn)業(yè)化階段,相關(guān)倫理問題主要與人文關(guān)懷、自主性權(quán)利與技術(shù)濫用密切相關(guān)。一是人文精神的缺位風(fēng)險(xiǎn):傳統(tǒng)醫(yī)療場景中,醫(yī)生的職能價值不僅是治病救人,醫(yī)者仁心的道德律令要求醫(yī)生能夠與患者有情感交流,實(shí)現(xiàn)與病人之間的同理共情,這種人文關(guān)懷特質(zhì)是無情感的人工智能所無法給予的[28]。醫(yī)療人工智能減少了醫(yī)生與患者的直接接觸,一定程度上阻礙了醫(yī)務(wù)人員與患者間的情感溝通,患者心理關(guān)懷與情感共鳴等隱性需求被壓制,可能會觸發(fā)更為棘手的情感適應(yīng)性危機(jī)。二是家長式?jīng)Q斷邏輯:人工智能取代醫(yī)務(wù)主體行使代理決策權(quán),可能會嚴(yán)重?fù)p害病人的自主決定權(quán)。智能決策模型的訓(xùn)練需要大量疾病診療數(shù)據(jù)的整合歸納,個體獨(dú)特的身心特征、過往病史、社會因素差異性在模型訓(xùn)練過程中被抹除。由于模型參數(shù)有限,給出的診療建議很難平衡患者自身的價值目標(biāo)與自主偏好[29],削弱了患者在診療過程中表達(dá)真實(shí)訴求的自我能動性。三是技術(shù)濫用與醫(yī)療公平問題:技術(shù)的使用方,如保險(xiǎn)公司,很有可能借助醫(yī)療人工智能,根據(jù)算法結(jié)果,設(shè)定差異化的投保費(fèi)率與保額, “見人下菜”勢必造成對投保人的歧視偏見。智能醫(yī)療企業(yè)則可能為取得競爭優(yōu)勢,使用非法或灰色手段獲取數(shù)據(jù),侵害公民的隱私權(quán)益。此外,高成本還可能會導(dǎo)致智能醫(yī)療資源集中于高收入人群,造成嚴(yán)重的醫(yī)療資源分配不均,與醫(yī)療人工智能的福祉和公正目標(biāo)截然相悖。
醫(yī)療人工智能的倫理價值即指在醫(yī)療人工智能設(shè)計(jì)研發(fā)、試驗(yàn)應(yīng)用與產(chǎn)業(yè)化過程中,基于特定的醫(yī)療適用情景,由醫(yī)學(xué)倫理、社會道德與技術(shù)特征協(xié)同塑造,賦予技術(shù)自身的本體價值。倫理價值在醫(yī)療人工智能的發(fā)展過程中,充當(dāng)著塑造引導(dǎo)、內(nèi)生屬性與標(biāo)準(zhǔn)研判三類功能特征,成為組成醫(yī)療人工智能社會-技術(shù)系統(tǒng)重要的非人行動者,作為醫(yī)師、病患與醫(yī)療人工智能的調(diào)節(jié)媒介,調(diào)和異質(zhì)性主體的價值訴求,保證技術(shù)實(shí)踐可行性的同時,作用技術(shù)創(chuàng)新的社會形塑過程。為此,本文從創(chuàng)新正當(dāng)性、社會文化以及制度調(diào)試三個倫理價值作用的主要方面,進(jìn)一步闡釋智能醫(yī)療倫理的價值內(nèi)涵:
第一,技術(shù)倫理作為研發(fā)設(shè)計(jì)的價值向標(biāo)。人工智能的發(fā)展邏輯源起于設(shè)計(jì)[30],技術(shù)設(shè)計(jì)本質(zhì)上是將主體意愿具象化,以達(dá)成特定的價值目標(biāo)。醫(yī)療人工智能作為一類技術(shù)人工物,其設(shè)計(jì)過程必然會牽涉研發(fā)者自身的主體價值嵌入,技術(shù)形態(tài)也會受到社會層面的道德評價。技術(shù)史上如避孕、墮胎、生殖輔助等技術(shù),從飽受社會爭議到被社會公眾接納,在這些爭議型醫(yī)療技術(shù)演化的過程中,普遍存在技術(shù)與倫理價值、道德規(guī)范的雙向形塑。醫(yī)療人工智能的倫理風(fēng)險(xiǎn)使得技術(shù)設(shè)計(jì)必須審慎考量倫理在社會中存在的價值張力[31],醫(yī)療人工智能的創(chuàng)新發(fā)展也因此需要適當(dāng)?shù)膫惱韮r值作為設(shè)計(jì)牽引,以保證醫(yī)療人工智能以人為本的驅(qū)動內(nèi)核。
醫(yī)療人工智能倫理價值對技術(shù)設(shè)計(jì)的影響主要體現(xiàn)在三個方面:①對設(shè)計(jì)者價值判斷與道德觀念的作用,學(xué)者在醫(yī)療人工智能的研發(fā)過程中,要求結(jié)合技術(shù)倫理反思,如在訓(xùn)練算法黑箱的過程中,注意規(guī)避非功能性的價值偏見與種群歧視[32];②作為準(zhǔn)則規(guī)約,確保智能醫(yī)療產(chǎn)品設(shè)計(jì)的合倫理性,需要立項(xiàng)與試驗(yàn)的倫理審查、可參照的倫理指南以及配套的審查平臺建設(shè),如中科院自動化所與北京智源人工智能研究院聯(lián)合研發(fā)的人工智能治理公共服務(wù)平臺;③價值導(dǎo)向性引領(lǐng)和開創(chuàng)倫理相關(guān)的技術(shù)研究,一方面指向技術(shù)內(nèi)部,尋求倫理問題的技術(shù)解釋,以技術(shù)路徑不斷嘗試破解和彌合技術(shù)的倫理爭議,另一方面是技術(shù)設(shè)計(jì)對社會倫理關(guān)切的回應(yīng),塑造技術(shù)負(fù)責(zé)任創(chuàng)新的價值向度。
醫(yī)療人工智能的合倫理設(shè)計(jì)是技術(shù)臨床試驗(yàn)和產(chǎn)業(yè)化落地的前置條件。在醫(yī)療人工智能社會-技術(shù)系統(tǒng)的演進(jìn)過程中,宏觀地景層面的社會期望賦予醫(yī)療人工智能極高的技術(shù)愿景,然而智能醫(yī)療的倫理風(fēng)險(xiǎn)可能會導(dǎo)致技術(shù)異化的產(chǎn)生。因而,倫理價值應(yīng)成為醫(yī)療人工智能產(chǎn)品開發(fā)重要的規(guī)則牽引,其踐行路徑不僅是要求設(shè)計(jì)主體與行業(yè)的責(zé)任自律,同時還需要注重實(shí)踐過程中基于適用者反饋的循環(huán)再設(shè)計(jì)[13]。醫(yī)療人工智能的倫理價值嵌入需要這兩種路徑的共同作用,只有整體性把握社會-技術(shù)系統(tǒng)中不同主體倫理訴求的價值表征,以倫理價值作為技術(shù)創(chuàng)新的風(fēng)向標(biāo),加強(qiáng)研發(fā)共同體的倫理意識,充分發(fā)揮倫理價值對醫(yī)療人工智能技術(shù)的形塑作用,才能保證智能醫(yī)療轉(zhuǎn)型福祉性與社會效益的最大實(shí)現(xiàn)。
第二,倫理價值與社會文化的融匯互塑。醫(yī)學(xué)史上,倫理自希波克拉底時代起就是醫(yī)學(xué)人文主義精神的體現(xiàn),我國古代也提出 “醫(yī)乃仁術(shù)”的醫(yī)德思想,說明倫理是醫(yī)學(xué)超脫技藝之外的價值內(nèi)核。醫(yī)療人工智能的倫理價值不僅是醫(yī)學(xué)人本主義精神的延續(xù),也是醫(yī)療人工智能研發(fā)團(tuán)隊(duì)與創(chuàng)新共同體理應(yīng)恪守的道德內(nèi)涵。醫(yī)療智能轉(zhuǎn)型不僅是人工智能向醫(yī)療保健、公共衛(wèi)生的技術(shù)賦能,還引發(fā)了科學(xué)文化與工具理性對醫(yī)學(xué)人文與價值理性的介入沖擊。醫(yī)學(xué)自身的人本文化要求醫(yī)療人工智能不能簡單地將技術(shù)受眾視作流水線式的產(chǎn)品鍛造,疾病的診療過程也不僅是醫(yī)師與技術(shù)的專業(yè)實(shí)踐,醫(yī)生與患者的共情同理、醫(yī)師職業(yè)的道德推崇、病患周邊的社會情景等軟文化因素都與診療的有效性緊密相關(guān)[33]。
就人工智能對醫(yī)學(xué)人文關(guān)懷的沖擊可能,學(xué)界主要持兩類觀點(diǎn):一是認(rèn)為醫(yī)療人工智能會替代醫(yī)師的主體地位,醫(yī)療人工智能的決策邏輯很難體察患者微妙與無形的心理變化,被動型的診療過程還可能會導(dǎo)致醫(yī)學(xué)黃金時代的消解,造成的負(fù)面影響難以預(yù)見[34];二是認(rèn)為人工智能與醫(yī)師之間應(yīng)當(dāng)是一種負(fù)責(zé)任的伙伴關(guān)系,可靠的智能醫(yī)療能將醫(yī)生從勞雜的醫(yī)務(wù)活動中解放出來,恢復(fù)病人與醫(yī)師之間珍貴的、歷史悠久的鏈接與信任,加強(qiáng)兩者間更深層次的交流與共情[35]。兩種對立的預(yù)見判斷,表明醫(yī)療人工智能的準(zhǔn)道德主體地位尚且存疑,也進(jìn)一步印證了倫理價值介入醫(yī)療人工智能社會-技術(shù)系統(tǒng)的必要性。
整體看,人工智能在醫(yī)療保健領(lǐng)域的發(fā)展將不可避免地導(dǎo)致醫(yī)學(xué)文化與實(shí)踐形式的巨大轉(zhuǎn)變。醫(yī)療智能化轉(zhuǎn)型的過程中會衍生出新的醫(yī)學(xué)文化形態(tài),醫(yī)療人工智能的倫理問題一定程度上也可以理解為新的智能醫(yī)學(xué)文化與傳統(tǒng)醫(yī)學(xué)文化之間的融合超越。醫(yī)療人工智能作為一項(xiàng)顛覆性創(chuàng)新技術(shù),缺少歷史經(jīng)驗(yàn)作為參照。倫理價值作為社會 (醫(yī)學(xué))文化的具象指代,一方面作為技術(shù)演化路徑的軟性規(guī)制,塑造技術(shù)內(nèi)生價值屬性的表征形態(tài),另一方面作為價值引導(dǎo),承接后續(xù)法律法規(guī)、技術(shù)政策等硬性制度的訂立補(bǔ)完。
第三,倫理價值成為制度訂立與調(diào)試的正當(dāng)性來源。醫(yī)療人工智能的顛覆性效應(yīng)逐步顯見,與之相伴的是制度層面,智能醫(yī)療政策、倫理與法規(guī)的革新演替[36]。醫(yī)療是社會民生關(guān)注的重要領(lǐng)域,凡涉及醫(yī)療制度之革新變化都需審慎對待。2015年,英國首例機(jī)器人心臟瓣膜修復(fù)手術(shù)事故將達(dá)·芬奇手術(shù)機(jī)器人推至輿論風(fēng)口。這一系列的調(diào)查結(jié)果和事件說明,醫(yī)療人工智能已經(jīng)進(jìn)入一個新的演化時期,系統(tǒng)演化中非技術(shù)性要素的形塑權(quán)重正在增大。
目前,各界就人工智能一般性的倫理原則已基本達(dá)成共識[37],倫理治理的關(guān)注重心開始向 “AI+”領(lǐng)域延展。2018年,國際電信聯(lián)盟與世界衛(wèi)生組織聯(lián)合成立醫(yī)療人工智能專項(xiàng)小組,致力于制定包括技術(shù)倫理與監(jiān)管在內(nèi)的國際標(biāo)準(zhǔn)解決方案。2019年,澳大利亞皇家與新西蘭放射學(xué)家學(xué)院出臺 《醫(yī)學(xué)人工智能的倫理準(zhǔn)則》指南文件。2020年,飛利浦發(fā)布 《在醫(yī)療保健和健康生活中負(fù)責(zé)任地使用人工智能的五項(xiàng)指導(dǎo)原則》。2021年,世衛(wèi)組織 《醫(yī)療人工智能的倫理與治理》指導(dǎo)文件提出醫(yī)療人工智能六條基本倫理準(zhǔn)則。科學(xué)機(jī)構(gòu)、國際組織、技術(shù)企業(yè)關(guān)于智能醫(yī)療的倫理認(rèn)知與指導(dǎo)意見的陸續(xù)出臺,補(bǔ)足了醫(yī)療人工智能制度體系中關(guān)于倫理價值的要義組成,但倫理準(zhǔn)則的適用性尚待檢驗(yàn),共識性的醫(yī)療人工智能倫理準(zhǔn)則離統(tǒng)一尚遠(yuǎn)。
一般意義上,技術(shù)倫理追求的是技術(shù)發(fā)展的高層次價值,技術(shù)政策則為技術(shù)發(fā)展提供戰(zhàn)略支撐,技術(shù)法律作為強(qiáng)制性約束,確認(rèn)倫理規(guī)范的法理地位。倫理價值為醫(yī)療人工智能提供了一套以善為核心的治理框架,通過與法律法規(guī)的雙向互動,與技術(shù)的創(chuàng)新演化形成協(xié)同效應(yīng),賦予醫(yī)療人工智能更豐富的內(nèi)生價值,為技術(shù)政策的訂立提供方向參照,促進(jìn)醫(yī)療人工智能倫理監(jiān)管與審查的體制確立,進(jìn)而塑造技術(shù)倫理、法規(guī)與政策多維度的醫(yī)療人工智能制度體系。總的來看,當(dāng)下各國醫(yī)療人工智能的技術(shù)政策仍處初階,人工智能倫理審查機(jī)制還在探索階段,相關(guān)針對性的法律法規(guī)尚處空白。倫理價值一方面作為 “軟約束”強(qiáng)化技術(shù)與產(chǎn)業(yè)共同體的自我規(guī)制,另一方面也為后續(xù)技術(shù)政策、法規(guī)設(shè)立與體制建設(shè)提供正當(dāng)性解釋。
隨著人工智能賦能效應(yīng)的不斷深化,醫(yī)療人工智能的倫理價值也在同步保持持續(xù)性的動態(tài)演化。通過上文的分析可以判定,醫(yī)療人工智能倫理價值不是一蹴而就的拍板定論,而是一種多元利益相關(guān)方彼此協(xié)商、交互磨合的過程性概念,需要結(jié)合技術(shù)發(fā)展的前沿進(jìn)展,在不斷的預(yù)見評估、臨床試驗(yàn)和日常使用中,充分吸納切身群體的真實(shí)倫理訴求,不斷檢驗(yàn)價值向度的約束效力,才能夠整合形成適用性的價值向標(biāo)。將醫(yī)療人工智能視作社會-技術(shù)轉(zhuǎn)型的多層級演化過程,為倫理價值分析提供一個綜合性、整體性視角,才能由此探索智能醫(yī)療技術(shù)倫理價值的嵌入路徑。
從轉(zhuǎn)型的全局架構(gòu)看,穩(wěn)定的醫(yī)療人工智能社會-技術(shù)體制需要社會-技術(shù)系統(tǒng)、社會關(guān)系網(wǎng)絡(luò)以及制度體系的共同加持[20],技術(shù)實(shí)踐的倫理可行性則需要通過技術(shù)的社會實(shí)驗(yàn)得以檢驗(yàn)[38]。從細(xì)分視角看 (見圖1):①倫理對話機(jī)制中,多元化利益攸關(guān)方的切身倫理訴求,在對話過程中得以表達(dá)、協(xié)商并逐步統(tǒng)一,為制度體系提供意見參照,也為社會-技術(shù)實(shí)驗(yàn)提供外部實(shí)踐反饋;②多維制度體系能夠?yàn)閷υ挋C(jī)制提供規(guī)則基礎(chǔ),為社會-技術(shù)實(shí)驗(yàn)提供體制保障;③社會-技術(shù)實(shí)驗(yàn)則能提供實(shí)證材料,為制度制定提供科學(xué)參考,給予對話機(jī)制以協(xié)商內(nèi)容。

圖1 醫(yī)療人工智能倫理價值的嵌入路徑
為此,可從對話機(jī)制、制度規(guī)則與環(huán)境調(diào)控三個方面入手,將醫(yī)療人工智能社會-技術(shù)體制中倫理價值的嵌入過程劃分為社會關(guān)系網(wǎng)絡(luò)、制度體系建設(shè)和社會-技術(shù)環(huán)境三重維度,結(jié)合上文對宏觀地景與技術(shù)利基的分析研判,建構(gòu)倫理價值融入醫(yī)療人工智能社會-技術(shù)體制的嵌入路徑。
第一,社會關(guān)系網(wǎng)絡(luò)層面?zhèn)惱韺υ挋C(jī)制的建立。醫(yī)療人工智能的研發(fā)與推廣過程,勢必會牽涉大量人類與非人類行動者,如生產(chǎn)端的算法實(shí)驗(yàn)室、技術(shù)企業(yè)、設(shè)備公司,使用端的消費(fèi)者、病患、醫(yī)院與保健中心,以及流通環(huán)節(jié)的公共衛(wèi)生部門、醫(yī)保局以及監(jiān)管機(jī)構(gòu),他們共同聯(lián)結(jié)形成圍繞醫(yī)療人工智能展開的行動者關(guān)系網(wǎng)絡(luò)。醫(yī)療人工智能的倫理問題由于技術(shù)類型、醫(yī)療場景和社會文化等多元要素的存在而呈現(xiàn)復(fù)雜的不確定性。不同的醫(yī)療人工智能倫理困境會涉及不同的受眾群體,為了保證對話倫理機(jī)制的有效性與可行性,需要在保證對話效率的基礎(chǔ)上,盡可能容納更多的異質(zhì)性主體參與到協(xié)商對話當(dāng)中,基于利益相關(guān)原則與價值目標(biāo)一致性,兼顧專業(yè)性與代表性,設(shè)置對話機(jī)制準(zhǔn)入門檻,建立高密度社會關(guān)系網(wǎng)絡(luò)[39],讓不同主體的倫理訴求能夠以最短路徑高效傳遞。
智能化轉(zhuǎn)型已成為醫(yī)療體系迭代與整體革新的必然趨勢,在智能醫(yī)療實(shí)踐過程中必然充斥著科學(xué)主義、工具理性、市場效益與多元文化、價值目標(biāo)、人文關(guān)懷間的碰撞融合。因而,在構(gòu)建對話網(wǎng)絡(luò)過程中,為了保障利益攸關(guān)方的權(quán)力平等,整體網(wǎng)絡(luò)應(yīng)當(dāng)維持適度去中心化,建立各對話主體間的直接聯(lián)系,鼓勵醫(yī)院與患者、企業(yè)與醫(yī)院、企業(yè)與消費(fèi)者、算法實(shí)驗(yàn)室與企業(yè)等相關(guān)主體優(yōu)先建立直接對話關(guān)系,最小化網(wǎng)絡(luò)結(jié)構(gòu)洞,均衡對話主體節(jié)點(diǎn)的中心權(quán)度,確保對話主體直接能夠知曉彼此的倫理訴求,對話信息不會因政治級別、社會地位與技術(shù)權(quán)威等非對話性要素引發(fā)主體權(quán)力失衡,導(dǎo)致真實(shí)價值的信息失真,因此,保證維系網(wǎng)絡(luò)的動態(tài)穩(wěn)定性尤為重要。
為了保證對話的全面性與時效性,醫(yī)療人工智能倫理的對話應(yīng)當(dāng)是一個層級機(jī)制,一是由政府科技部門主導(dǎo)的代表制正式 “圓桌會議”,制定框架式的醫(yī)療人工智能一般性倫理準(zhǔn)則;二是技術(shù)共同體組織的基于特定智能醫(yī)療情景,吸納定向技術(shù)受眾的專業(yè)性協(xié)商,目的為依據(jù)不同的技術(shù)類別制定針對性的行業(yè)倫理規(guī)范;三是充分發(fā)揮臨床試驗(yàn)過程中與病患非正式的溝通對話,將醫(yī)師、病患對技術(shù)試用的情景感知與反饋記錄匯總;四是運(yùn)用現(xiàn)代網(wǎng)絡(luò)媒體,就智能醫(yī)療相關(guān)的熱議話題作情感分析與動態(tài)追蹤,了解公眾對于醫(yī)療人工智能的真實(shí)感知。總的來看,多層級、多維度的醫(yī)療人工智能倫理對話機(jī)制,通過正式與非正式的對話形式,不僅確保不同利益相關(guān)群體的訴求表達(dá)得以傳遞,也為后續(xù)多維制度的訂立決策提供可靠的實(shí)證參考。
第二,制度體系層面?zhèn)惱韰f(xié)同創(chuàng)新的強(qiáng)調(diào)。制度與倫理具有內(nèi)在相同性,倫理與道德是制度的內(nèi)在屬性[40]。制度的實(shí)踐有效性必然要符合社會發(fā)展和技術(shù)創(chuàng)新的整體要求,同社會的倫理價值與道德追求協(xié)同一致[41]。從體制建設(shè)的角度看,醫(yī)療人工智能社會-技術(shù)體制的制度規(guī)則主要包括:規(guī)制性 (regulative)、規(guī)范性 (normative)與認(rèn)知性 (cognitive)三大類[20]。規(guī)制性規(guī)則是指醫(yī)療人工智能適用的法律法規(guī)、技術(shù)標(biāo)準(zhǔn)、框架協(xié)議、管理辦法等在內(nèi)的強(qiáng)制性規(guī)則體系;規(guī)范性要求則是以倫理道德為基礎(chǔ)的權(quán)責(zé)劃分、價值觀念、行為準(zhǔn)則等為主的約束性社會規(guī)范;認(rèn)知性規(guī)則更為隱性,受文化環(huán)境與個人觀念的影響,是公認(rèn)的感知信念。三種制度規(guī)范的創(chuàng)新變革,是塑成未來醫(yī)療人工智能新體制的必要條件。
當(dāng)前,國內(nèi)外醫(yī)療人工智能倫理制度研究多聚焦于醫(yī)學(xué)倫理審查,2017年FDA發(fā)布數(shù)字健康創(chuàng)新行動計(jì)劃,并于次年審批通過首款自主型眼病診療系統(tǒng);2019年中國國家藥監(jiān)局發(fā)布 《深度學(xué)習(xí)輔助決策醫(yī)療器械軟件審評要點(diǎn)》,2020年Airdoc、AI-ECG等第一批輔助診斷軟件獲得三類醫(yī)療注冊審批。行業(yè)規(guī)范方面,歐美部分行業(yè)協(xié)會已有倫理準(zhǔn)則發(fā)布,如加拿大放射學(xué)協(xié)會發(fā)布的 《放射學(xué)中與人工智能相關(guān)的倫理和法律問題白皮書》。2019年、2020年中國發(fā)布的兩版 《人工智能藍(lán)皮書:中國醫(yī)療人工智能發(fā)展報(bào)告》,均將倫理視為智能醫(yī)療制度體系的基本構(gòu)成要素,專業(yè)協(xié)會的行業(yè)倫理規(guī)范亟待加強(qiáng)。此外,國內(nèi)外認(rèn)知性制度的建設(shè)尚處探索階段,智庫機(jī)構(gòu)的咨詢報(bào)告時有提及,但缺乏明確具體的推進(jìn)意見,需要正式政策與實(shí)施策略的跟進(jìn)配套。
由此建議醫(yī)療人工智能制度的訂立思路可分為兩類:①基于技術(shù)風(fēng)險(xiǎn)預(yù)見與倫理價值分析 “自上而下”的制度訂立,立足醫(yī)療特殊的領(lǐng)域?qū)傩裕瑓⒄障嘟夹g(shù)制度的訂立思路,如醫(yī)療信息化轉(zhuǎn)型的制度經(jīng)驗(yàn),人工智能+多學(xué)科的實(shí)踐對照作為跨域借鑒。但醫(yī)療領(lǐng)域的社會敏感性以及醫(yī)療人工智能與人切身的技術(shù)特質(zhì),使得頂層式的制度訂立難以充分應(yīng)對醫(yī)療人工智能中微觀層面的倫理風(fēng)險(xiǎn);② “自下而上”的意見供給作為補(bǔ)足,下行的參照基礎(chǔ)可以再細(xì)分為兩個部分:一是設(shè)立專項(xiàng)的調(diào)研項(xiàng)目,針對存在倫理爭議的智能醫(yī)療場景,進(jìn)行持續(xù)性的跟蹤調(diào)查;二是有機(jī)凝煉、充分吸納對話協(xié)商的要點(diǎn)內(nèi)容,訂立不同技術(shù)功能、受眾類別、適用場域,具有可操作性的細(xì)分制度。
第三,社會-技術(shù)環(huán)境層面?zhèn)惱韮r值的調(diào)控。醫(yī)療人工智能主導(dǎo)設(shè)計(jì)的確立僅憑事前風(fēng)險(xiǎn)預(yù)見難以令人信服,需要一系列基于社會-技術(shù)環(huán)境層面的實(shí)踐檢驗(yàn)[42]作為補(bǔ)充。通過社會-技術(shù)實(shí)驗(yàn),將理論層面的倫理價值與應(yīng)用場景緊密結(jié)合,在限定的應(yīng)用場域,遵循封閉性、可逆性與風(fēng)險(xiǎn)最小化原則,通過持續(xù)的外部檢驗(yàn),判斷倫理規(guī)則的合理性與可靠性。政府部門應(yīng)根據(jù)不同類型的技術(shù)使用場景,制定指導(dǎo)性和規(guī)范性實(shí)施政策,建立健全醫(yī)療人工智能倫理審查程序,助力技術(shù)企業(yè)獲取社會-技術(shù)環(huán)境的多維反饋,并以檢驗(yàn)效果為市場準(zhǔn)入依據(jù),倒逼企業(yè)將倫理價值充分納入技術(shù)學(xué)習(xí)過程,在實(shí)踐反饋中調(diào)節(jié)政策的支持重點(diǎn)和制度的側(cè)重方向。
現(xiàn)有的人工智能社會實(shí)驗(yàn)研究明確指出,企業(yè)技術(shù)示范、政府政策實(shí)驗(yàn)與公眾社會實(shí)驗(yàn)是人工智能社會實(shí)驗(yàn)的三類基礎(chǔ)維度,不同維度間通過技術(shù)的社會研究、政策實(shí)踐反饋以及技術(shù)與政策聯(lián)結(jié)產(chǎn)生的耦合效應(yīng)[43],依據(jù)應(yīng)用場景、影響維度與觀測界面設(shè)置多級評價指標(biāo)體系,構(gòu)建人工智能社會實(shí)驗(yàn)的整合式分析框架[44]。進(jìn)而,基于人機(jī)認(rèn)知平衡探討微觀層面人工智能實(shí)驗(yàn)路徑[45]。在社會實(shí)驗(yàn)當(dāng)中,一方面,倫理要素作為審查機(jī)制,檢驗(yàn)實(shí)驗(yàn)實(shí)施的合倫理性,為智能醫(yī)療社會實(shí)驗(yàn)設(shè)置道德框架[46];另一方面,倫理有效與可適應(yīng)性也要求實(shí)踐作為反饋,進(jìn)而驗(yàn)證倫理規(guī)范對技術(shù)引導(dǎo)功能的現(xiàn)實(shí)可行性。
醫(yī)療人工智能社會-技術(shù)實(shí)驗(yàn)的穩(wěn)步推進(jìn)是智能醫(yī)療產(chǎn)業(yè)化的前提測試,為了保證實(shí)驗(yàn)過程的合倫理性,本文提出以下三點(diǎn)注意事項(xiàng):①檢驗(yàn)方法上,借助心理學(xué)方法,測度醫(yī)療人工智能被試者的情感變化與情緒表達(dá),通過多樣本檢驗(yàn)與統(tǒng)計(jì)學(xué)分析,歸納形成技術(shù)倫理適用的可接受閾值區(qū)間;②配套專項(xiàng)倫理委員會,倫理委員會需要全過程式的跟蹤監(jiān)察受試者的實(shí)驗(yàn)狀況,決定社會實(shí)驗(yàn)的推進(jìn)、暫停或終止;③實(shí)驗(yàn)推廣范圍需要依據(jù)不同控制變量條件下的多個社會實(shí)驗(yàn)結(jié)果與偏差綜合研判,由高級別的專業(yè)委員會決定,是否進(jìn)一步增加受試者數(shù)量與拓展技術(shù)適用范圍。總體上,醫(yī)療人工智能復(fù)雜的倫理問題必須經(jīng)過有限邊界內(nèi)的社會實(shí)驗(yàn)檢驗(yàn),優(yōu)化和補(bǔ)充既行智能醫(yī)療倫理準(zhǔn)則體系,并以此為依據(jù),繼續(xù)推進(jìn)醫(yī)療人工智能非封閉性場景的應(yīng)用過渡。
目前,智能化醫(yī)療轉(zhuǎn)型仍處于技術(shù)利基向日常生活與臨床實(shí)踐的過渡階段,技術(shù)可持續(xù)創(chuàng)新亟需的專項(xiàng)倫理規(guī)范有待補(bǔ)強(qiáng)。本文聚焦醫(yī)療人工智能社會-技術(shù)轉(zhuǎn)型中的倫理價值問題,認(rèn)為復(fù)雜的醫(yī)療情景與人文特質(zhì),使得醫(yī)療人工智能倫理的價值設(shè)計(jì)不能直接套用一般性的智能倫理準(zhǔn)則,傳統(tǒng)醫(yī)學(xué)倫理約束的適用性存疑,智能醫(yī)學(xué)倫理審查機(jī)制需要創(chuàng)新。醫(yī)療人工智能的社會福祉性與醫(yī)學(xué)發(fā)展所恪守的人本主義精神,使得智能醫(yī)療技術(shù)的可持續(xù)創(chuàng)新應(yīng)用必須嵌入適當(dāng)?shù)膫惱韮r值,作為管治標(biāo)準(zhǔn)和規(guī)則引導(dǎo)。雖然網(wǎng)絡(luò)主體間的對話協(xié)商、制度體系的協(xié)同變革與社會實(shí)驗(yàn)的反饋嘗試是塑成醫(yī)療人工智能社會-技術(shù)體制的可用路徑,但面對醫(yī)患關(guān)系的特殊性、醫(yī)療保健的長周期、智能技術(shù)的準(zhǔn)主體性以及社會醫(yī)療資源分配的公平性等諸多復(fù)雜情況,如何開展平等對話并達(dá)成一致的倫理意見?怎樣確保主體權(quán)力均衡?制度建設(shè)兼顧人文關(guān)懷的同時怎樣最大性發(fā)揮技術(shù)效力?這些都需要更深入的研究加以研判。