周琬琳
(福建醫(yī)科大學(xué)健康學(xué)院, 福建 福州 350122,ipss.ikis@gmail.com)
2016年 3月,國(guó)務(wù)院首次將“人工智能”(Artificial Intelligence,AI)一詞寫入2016 年至2020 年中國(guó)經(jīng)濟(jì)發(fā)展的《國(guó)民經(jīng)濟(jì)和社會(huì)發(fā)展第十三個(gè)五年規(guī)劃綱要(草案)》的規(guī)劃中;2017年7月20日,國(guó)務(wù)院在《新一代人工智能發(fā)展規(guī)劃》中指出要在醫(yī)療領(lǐng)域“推廣應(yīng)用人工智能治療新模式新手段”[1],《新一代人工智能發(fā)展規(guī)劃》是我國(guó)第一個(gè)國(guó)家層級(jí)AI 發(fā)展的中長(zhǎng)期規(guī)劃,也是我國(guó)政府發(fā)展及推動(dòng)AI發(fā)展的藍(lán)圖,它從整體上部署我國(guó)的AI 發(fā)展,并提出面向2030年我國(guó)新一代AI發(fā)展的指導(dǎo)思想、戰(zhàn)略目標(biāo)、重點(diǎn)任務(wù)與保障措施等[2]。然而,人工智能醫(yī)學(xué)的快速發(fā)展同時(shí)也帶來許多倫理、社會(huì)及法律問題,包含對(duì)AI的不信任及擔(dān)憂被AI所取代等。無論是學(xué)術(shù)界或產(chǎn)業(yè)界,唯有透過層層檢視AI醫(yī)學(xué)應(yīng)用技術(shù)所帶來的倫理問題,加以反思后提出對(duì)策來作為完善制度與制定相關(guān)規(guī)范的政策建議,才能在AI醫(yī)學(xué)時(shí)代站穩(wěn)腳跟,協(xié)力開展。
被稱為“人工智能之父”的圖靈(Alan M. Turing)于 1950 年發(fā)表的“ComputingMachineryandIntelligence” (《計(jì)算器與智能》)[3]一文中,試圖回答計(jì)算器是否能具有人類智能?結(jié)論是:計(jì)算器不僅具有比人類智能更高效率的運(yùn)算功能,甚至可以跟人類一樣擁有發(fā)掘與創(chuàng)造知識(shí)的能力。如果圖靈的預(yù)測(cè)是對(duì)的(事實(shí)上也是對(duì)的),那么,擁有人類智能的計(jì)算器就是我們稱作人工智能(Artificial Intelligence, AI)的最早雛形。
從計(jì)算器到人工智能歷經(jīng)三個(gè)階段:強(qiáng)大運(yùn)算系統(tǒng)階段、專家系統(tǒng)(Expert System,ES)階段以及機(jī)器深度學(xué)習(xí)系統(tǒng)階段。強(qiáng)大運(yùn)算系統(tǒng)以圖靈機(jī)(Turing machine)為始祖,1936年,圖靈將人類的運(yùn)算行為抽象化,并使用數(shù)學(xué)與邏輯符號(hào)加以構(gòu)建出來的超級(jí)計(jì)算模型。圖靈機(jī)具有仿人類運(yùn)算能力的功能,其運(yùn)算效能卻遠(yuǎn)比人類還要快速準(zhǔn)確,能幫助提高工作效能,在這個(gè)階段,AI可以說是計(jì)算機(jī)程序。隨著技術(shù)的突破,AI被灌注更多人類的思考方式,包含形式邏輯、數(shù)理邏輯、語(yǔ)言邏輯、認(rèn)知邏輯等各種邏輯學(xué)的基本規(guī)律,進(jìn)行歸納、演繹、推算等思維活動(dòng)。當(dāng)人類專業(yè)知識(shí)加上這些具有邏輯思維的計(jì)算器一起運(yùn)作時(shí),將得到1+1>2的成果,稱之為專家系統(tǒng)。簡(jiǎn)單來說,專家系統(tǒng)就是一個(gè)知識(shí)數(shù)據(jù)庫(kù)+仿真專家推理思維機(jī)器的系統(tǒng)。世界上第一個(gè)成功運(yùn)用人類專家知識(shí)與邏輯推理規(guī)則來解決特定問題的專家系統(tǒng)程序是20世紀(jì)60年代出現(xiàn)的DENDRAL程序,該程序主要幫助有機(jī)化學(xué)家根據(jù)物質(zhì)光譜推斷未知的有機(jī)分子結(jié)構(gòu)[4]。專家系統(tǒng)堪稱是當(dāng)時(shí)最先進(jìn)的AI技術(shù)。然而,一方面,專家系統(tǒng)有其局限性,只能就特定領(lǐng)域進(jìn)行運(yùn)作;另一方面,隨著生物學(xué)、神經(jīng)科學(xué)與心理學(xué)的發(fā)展,人類神經(jīng)元網(wǎng)絡(luò)的學(xué)習(xí)概念被帶入AI系統(tǒng),發(fā)展出可以仿真人類神經(jīng)元學(xué)習(xí)機(jī)制的深度學(xué)習(xí)(Deep Learning),深度學(xué)習(xí)最著名的是2016年打敗世界圍棋冠軍李世石的AlphaGo。由谷歌DeepMind所開發(fā)的AlphaGo,展現(xiàn)出AI不僅僅只是在計(jì)算機(jī)程序的控制下,機(jī)械性地完成檢索搜尋解答而已,還可以執(zhí)行高級(jí)算法。雖然2017年AlphaGo敗給它的進(jìn)階版AlphaGo Zero,但也只能表明深度學(xué)習(xí)系統(tǒng)的更精進(jìn),因?yàn)锳lphaGo Zero甚至不需要人類提供數(shù)據(jù)就可以進(jìn)行自我學(xué)習(xí)[5]。
人工智能應(yīng)用于醫(yī)學(xué)的范圍非常廣泛,可以進(jìn)一步簡(jiǎn)單區(qū)分為三個(gè)范疇: 人工智能輔助醫(yī)療器械、AI與健康醫(yī)療大數(shù)據(jù)的應(yīng)用以及人工智能診療等。第一個(gè)范疇針對(duì)醫(yī)療器械來討論;第二的范疇主要就AI與“互聯(lián)網(wǎng)+健康醫(yī)療”的應(yīng)用進(jìn)行省思;第三個(gè)范疇關(guān)注深度學(xué)習(xí)的終極版——“超級(jí)智能醫(yī)生”(Dr. Super AI)所可能衍生的倫理反思來探討。
人工智能輔助醫(yī)療又可分為兩大類,一是用來輔助識(shí)別或診療的醫(yī)療器械,例如MRI、X光射線設(shè)備、CT、胸片攝影等醫(yī)學(xué)影像器械;二是醫(yī)用軟件,泛指用來搜集、儲(chǔ)存、分析、顯示、轉(zhuǎn)換人體健康狀態(tài)、生理參數(shù)、醫(yī)療相關(guān)紀(jì)錄等處理軟件[6]。
由于人工智能擁有巨量的醫(yī)療大數(shù)據(jù)和高效能的運(yùn)算系統(tǒng),還能半自動(dòng)或全自動(dòng)化學(xué)習(xí),不僅可以快速檢閱醫(yī)療刊物和信息,輸入患者信息后能夠協(xié)助提供診療方案,同時(shí)也能減少人為誤差,有效地協(xié)助醫(yī)療人員作出更精準(zhǔn)的醫(yī)療方案。然而,大量智能醫(yī)療器械的使用與研究開發(fā)卻也衍生出醫(yī)療資源分配正義與器械臨床試驗(yàn)倫理的問題。
首先,關(guān)于醫(yī)療資源分配正義問題。智能醫(yī)療器械造價(jià)昂貴,除三甲醫(yī)院以及大型醫(yī)學(xué)教學(xué)綜合醫(yī)院等能取得較多醫(yī)療資源的醫(yī)院之外,其余中小型醫(yī)院及基層醫(yī)院、衛(wèi)生院、醫(yī)療院所皆難以取得智能器械,間接導(dǎo)致國(guó)民健康照護(hù)權(quán)利的受損與不公平的醫(yī)療對(duì)待,同時(shí)也反映出城鄉(xiāng)差距與醫(yī)療資源的分配不公。此外,患者使用智能醫(yī)療器械進(jìn)行輔助診療也需要支付高額診療費(fèi)用,凸顯了貧富差距,“窮人沒有生病的權(quán)利”也可能加速社會(huì)階層分化,影響社會(huì)安定。與此同時(shí),智能輔助診療器械也可能造成過度醫(yī)療的情況,智能輔助器械雖然可以降低人為誤差,但是會(huì)讓醫(yī)療從業(yè)人員太過依賴智能判斷,間接開展“濫檢查”不僅加重患者的經(jīng)濟(jì)負(fù)擔(dān),也造成醫(yī)療資源的浪費(fèi)。
其次,關(guān)于醫(yī)療器械臨床試驗(yàn)的倫理問題。人工智能醫(yī)療時(shí)代的來臨,很多公司積極地將所開發(fā)的產(chǎn)品提供給醫(yī)院免費(fèi)試用,借此收集大量的臨床試驗(yàn)數(shù)據(jù)。人工智能醫(yī)療器械審查注意事項(xiàng)的倫理委員會(huì)在審查時(shí)應(yīng)注意公平受益、失業(yè)、患者隱私、醫(yī)療安全、責(zé)任劃分和監(jiān)管等問題。然而,數(shù)據(jù)庫(kù)本身的建制不全、隱藏算法偏差及立法與監(jiān)管的缺失,都使得倫理審查有其難度,但無論如何,評(píng)估受試者的風(fēng)險(xiǎn)與受益肯定是倫理審查的核心任務(wù)[7]。
再者,醫(yī)用軟件包含個(gè)人醫(yī)療信息的搜集與儲(chǔ)存,管理不當(dāng)將會(huì)有導(dǎo)因于個(gè)人隱私泄露所造成的不當(dāng)利用的風(fēng)險(xiǎn)與社會(huì)歧視的可能。此部分同時(shí)關(guān)聯(lián)到AI與健康大數(shù)據(jù)的管理與應(yīng)用。
健康醫(yī)療大數(shù)據(jù)作為國(guó)家戰(zhàn)略發(fā)展的重點(diǎn)之一,國(guó)務(wù)院辦公廳于2015年9月發(fā)布《促進(jìn)大數(shù)據(jù)發(fā)展行動(dòng)綱要》,2016年6月發(fā)布《國(guó)務(wù)院辦公廳關(guān)于促進(jìn)和規(guī)范健康醫(yī)療大數(shù)據(jù)應(yīng)用發(fā)展的指導(dǎo)意見》,這兩份文件成為我國(guó)推動(dòng)健康醫(yī)療大數(shù)據(jù)采集、收集與應(yīng)用的核心指導(dǎo)文件。國(guó)務(wù)院于2018年4月的常務(wù)會(huì)議中明確促進(jìn)“互聯(lián)網(wǎng)+醫(yī)療健康”發(fā)展的舉措,不僅有利于完善醫(yī)療信息資源,對(duì)于我國(guó)醫(yī)改及衛(wèi)生健康事業(yè)的發(fā)展也起到促進(jìn)作用。其中,AI的演算系統(tǒng)就是推動(dòng)健康醫(yī)療大數(shù)據(jù)的輪軸。
AI與健康醫(yī)療大數(shù)據(jù)建設(shè)過程中也涉及許多倫理問題,包含數(shù)據(jù)主體的知情同意權(quán)、個(gè)人信息隱私安全、數(shù)據(jù)開放共享的公正性以及成果分享的公益性等四大主軸。只有在充分保護(hù)個(gè)人信息安全的基礎(chǔ)上,透過推動(dòng)大數(shù)據(jù)的規(guī)范治理,有效利用及運(yùn)用數(shù)據(jù)來提高醫(yī)學(xué)科學(xué)水平、促進(jìn)公共衛(wèi)生安全及發(fā)展產(chǎn)業(yè)運(yùn)用才是可能的。其中,與AI有直接關(guān)系的部分是個(gè)人信息隱私安全問題。
以谷哥流感趨勢(shì)預(yù)測(cè)為例,AI演算所根據(jù)的數(shù)據(jù)是基于過去用戶網(wǎng)絡(luò)搜尋關(guān)鍵詞來預(yù)測(cè)流感,換言之,大數(shù)據(jù)分析是透過相關(guān)關(guān)系而非因果關(guān)系進(jìn)行預(yù)測(cè),其可靠程度有待檢驗(yàn)。其次,雖然谷歌流感預(yù)測(cè)是出于公共利益而為,并非以營(yíng)利為目的,然而,用戶通過在谷歌使用搜索引擎會(huì)留下帶有自己身份的數(shù)字信息,這些信息在不同的網(wǎng)絡(luò)情境中構(gòu)成數(shù)字身份,而這個(gè)數(shù)字身份可能會(huì)泄露用戶的私人信息,包含聯(lián)系方式或用藥偏好等[8],即便是谷歌的隱私保護(hù)機(jī)制,都無法百分之百確定個(gè)人信息安全不會(huì)遭黑客盜取利用或非法使用。
我國(guó)目前還未出臺(tái)專門的隱私權(quán)保護(hù)法,僅是在其他法律條文中有所規(guī)定,如《中華人民共和國(guó)侵權(quán)責(zé)任法》將隱私權(quán)的保護(hù)歸結(jié)成為對(duì)人格權(quán)的保護(hù),當(dāng)發(fā)生“對(duì)我國(guó)公民的隱私權(quán)造成侵害的,應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任?!?2016 年新頒布《中華人民共和國(guó)網(wǎng)絡(luò)安全法》雖然在個(gè)人信息保護(hù)方面提出了具體要求,但并未對(duì)隱私權(quán)保護(hù)提出具體要求。在人工智能高速發(fā)展時(shí)代,我國(guó)應(yīng)借鑒國(guó)際已有條款,盡快就人工智能技術(shù)加強(qiáng)相關(guān)部門的監(jiān)管力度,完善有關(guān)政策立法,保護(hù)個(gè)人數(shù)據(jù)隱私安全[9]。
此外,健康醫(yī)療大數(shù)據(jù)建設(shè)的技術(shù)基礎(chǔ)是人工智能與互聯(lián)網(wǎng),也因?yàn)榛ヂ?lián)網(wǎng)的流通,增加了個(gè)人健康信息暴露的風(fēng)險(xiǎn),包含數(shù)據(jù)儲(chǔ)存技術(shù)不佳及管理不當(dāng)、醫(yī)護(hù)從業(yè)人員保護(hù)患者隱私的意識(shí)不足等。前者可以通過數(shù)據(jù)安全技術(shù)的提升及數(shù)據(jù)管理監(jiān)督的機(jī)制改善,后者更需要加強(qiáng)醫(yī)護(hù)人員及可能接觸數(shù)據(jù)的從業(yè)人員的制度規(guī)范與素質(zhì)培養(yǎng)。
如果說AI應(yīng)用在輔助醫(yī)療器械與醫(yī)用軟件方面,關(guān)聯(lián)到健康醫(yī)療大數(shù)據(jù)的應(yīng)用這些是現(xiàn)在進(jìn)行式,那么,全自動(dòng)人工智能診療機(jī)器與“超級(jí)智能醫(yī)生”(Dr. Super AI)的誕生就是AI醫(yī)療的未來式。
可以想象未來有一部機(jī)器,把它稱為“自助式家用醫(yī)科診療機(jī)”,機(jī)器上面有許多按鍵鏈接著醫(yī)療大數(shù)據(jù),只需要在輸入身份標(biāo)識(shí)符,個(gè)人身份標(biāo)識(shí)符會(huì)連接過去的診療記錄與健康信息,然后再根據(jù)病征與發(fā)作時(shí)間進(jìn)行點(diǎn)選,在按下最后的確認(rèn)鍵時(shí),表示已經(jīng)完成自助就醫(yī),診斷結(jié)果會(huì)顯示在屏幕上,可以存取或打印出來,診斷結(jié)果上面可能會(huì)建議到醫(yī)院找人類醫(yī)生進(jìn)行較深入的診療,或是直接開藥,而藥單將會(huì)在數(shù)秒鐘之后打印出來,我們可以拿著藥單在藥物領(lǐng)取機(jī)器上自助領(lǐng)藥。如果有更高級(jí)的設(shè)備,在按下最后確認(rèn)鍵的數(shù)秒后就可以領(lǐng)到藥品,無須換設(shè)備。這臺(tái)自助式家醫(yī)科診療機(jī)的操作十分便利,什么時(shí)候開始有病征,有哪些病征,連有沒有藥物過敏都可以不用點(diǎn)選,因?yàn)樯矸輼?biāo)識(shí)符已經(jīng)有記錄了。
當(dāng)我們?nèi)鐚?shí)地向醫(yī)生反映身體狀況,再由醫(yī)生通過他的專業(yè)知識(shí)判斷來診斷病情,并給予對(duì)應(yīng)的藥物治療時(shí),醫(yī)生的誤診概率會(huì)比擁有超級(jí)檢索及推算功能的“自助式家醫(yī)科診療機(jī)”低嗎?如果人類醫(yī)生誤診需要負(fù)擔(dān)責(zé)任,那么當(dāng)患者因?yàn)樽约狠斎氲牟≌餍畔⒉粶?zhǔn)確或有闕漏時(shí),其所導(dǎo)致的醫(yī)療疏失該由誰負(fù)責(zé)?
如果這臺(tái)“自助式家醫(yī)科診療機(jī)”是一位同時(shí)擁有人類情感意識(shí)程序的“超級(jí)智能醫(yī)生”呢?我們知道,基于大數(shù)據(jù)庫(kù)的AI首先需要保障的就是數(shù)據(jù)的準(zhǔn)確。而在醫(yī)院就診過程中,患者隱瞞病情的情況也會(huì)發(fā)生,這對(duì)于一個(gè)經(jīng)驗(yàn)豐富的醫(yī)生來說可能是極好辨認(rèn)的,而對(duì)于一個(gè)不富有感情的智能AI來說,錯(cuò)誤的信息輸入極可能會(huì)產(chǎn)生錯(cuò)誤的診斷,從而引起錯(cuò)誤的治療[10]。責(zé)任的歸屬問題確實(shí)是未來式人工智能診療的棘手問題,但是“責(zé)任鴻溝”并非不可突破。在確定不是患者自身過失的情況下,我們可以將“超級(jí)智能醫(yī)生”的錯(cuò)誤分為四個(gè)類型:①系統(tǒng)設(shè)置有漏洞,造成自動(dòng)化偏差;②控制監(jiān)管有疏失,忽視系統(tǒng)警訊;③醫(yī)學(xué)的不確定性與特例;④患者提供錯(cuò)誤信息或缺漏重要信息所導(dǎo)致。在第一種犯錯(cuò)的類型中,系統(tǒng)設(shè)置漏洞屬于產(chǎn)品設(shè)計(jì)不良,可采用產(chǎn)品責(zé)任的觀點(diǎn)來歸咎責(zé)任;在第二種類型中,監(jiān)管疏失類似于飼主疏失導(dǎo)致他人的損傷,可用動(dòng)物管理人責(zé)任的觀點(diǎn)來進(jìn)行究責(zé);第三種類型嚴(yán)格來說不是犯錯(cuò),它是一種患者錯(cuò)誤認(rèn)知及過度期待的結(jié)果。人體是復(fù)雜的有機(jī)體,除了基因與細(xì)胞的變異之外,微生物的影響力也不容小覷。再多的數(shù)據(jù)庫(kù)和醫(yī)學(xué)文獻(xiàn)都有不能窮盡之處,即便是超級(jí)智能醫(yī)生也不可能達(dá)到零誤診[11]。前三類錯(cuò)誤屬于AI本身技術(shù)或管理上的缺失,可以從產(chǎn)品責(zé)任及管理人責(zé)任的角度來咎責(zé),第四種看似是患者自身疏失所導(dǎo)致。然而,正因?yàn)榛颊卟⒎轻t(yī)學(xué)專業(yè),才需要就醫(yī),由專業(yè)醫(yī)生透過勘診來判斷病情并給予治療,如果將全部的咎責(zé)歸于患者自找顯然是不適當(dāng)?shù)?,但是患者仍需要?fù)擔(dān)部分責(zé)任,因?yàn)榧词够颊咚鎸?duì)的是人類醫(yī)生,也可能發(fā)生同樣的憾事,特別是在技術(shù)沒有出錯(cuò)的情況下,超級(jí)智能醫(yī)生的誤診率可能是遠(yuǎn)遠(yuǎn)小于人類醫(yī)生的。
AI診療的責(zé)任歸屬問題勢(shì)必要有更明確的規(guī)范,畢竟懲罰一部機(jī)器甚至銷毀一位超級(jí)智能醫(yī)生對(duì)于所造成的傷害都沒有實(shí)質(zhì)上的幫助,如何能夠透過建立完整的責(zé)任制度來讓技術(shù)更精準(zhǔn)、管理監(jiān)督更到位、使用人更信任,減少事故避免憾事才是人類福祉。
無論是現(xiàn)在進(jìn)行式或是未來式的人工智能醫(yī)學(xué)應(yīng)用,都應(yīng)當(dāng)遵守基本的倫理原則,避免因?yàn)樽哌^頭而造成不可挽救的后果。歐盟的高階AI專家小組在2019年提出“可信任的AI倫理準(zhǔn)則”(Ethics Guidelines for Trustworthy AI, 以下簡(jiǎn)稱“歐盟準(zhǔn)則”),指出AI的應(yīng)用因以人類作為為中心進(jìn)路(Human-Centric Approach),主張以人類基本權(quán)利作為論述基礎(chǔ),開展四項(xiàng)倫理原則及七項(xiàng)倫理要件。四項(xiàng)倫理原則為[12]:
第一,尊重人類自主原則。除了要求人類在與AI互動(dòng)的過程中,必須保障人類擁有完全及有效的自主之外,也要求AI的運(yùn)作必須有人類的監(jiān)督。
第二,預(yù)防傷害原則。為保護(hù)人類身心的完整性與人性尊嚴(yán),AI技術(shù)必須是能夠強(qiáng)力抵御惡意之使用,包含避免對(duì)自然環(huán)境和所有生物的傷害。
第三,公平原則。包含程序向度與實(shí)質(zhì)向度,前者要求人們可以對(duì)AI的操控者提出糾正與異議,并且要求AI的決策者應(yīng)該是可以被識(shí)別的。后者確保AI的利益是可以公平、公正分配的,并且要能夠避免任何歧視或污名。
第四,可解釋性原則。要求AI的制造目的與具備的功能必須經(jīng)過公開協(xié)商,具備透明性并且避免“黑箱”問題。
作為可信任的AI,每個(gè)在AI生命周期的涉利者應(yīng)該被賦予不同的倫理要求,歐盟準(zhǔn)則提出可以歸納為七個(gè)倫理要件[13]除了系統(tǒng)層面,也將個(gè)人及社會(huì)的考慮納入制定:
第一,AI不得侵犯人類自主性與自由:主要維系人性尊嚴(yán)并確保由人類來監(jiān)督。
第二,AI應(yīng)具備信息安全性與正確性:要求技術(shù)強(qiáng)健并具備安全性。
第三,AI搜集的數(shù)據(jù)得受到安全與隱秘的管理:著重在隱私與數(shù)據(jù)管理。
第四,建構(gòu)AI系統(tǒng)與算法應(yīng)公開且可以追溯到開發(fā)者:要求透明性。
第五,AI須具備多元性與公平性:避免歧視,要求公平。
第六,AI須促進(jìn)社會(huì)正面改變,且具永續(xù)性:針對(duì)社會(huì)及環(huán)境福祉。
第七,AI須建立咎責(zé)機(jī)制:要求確立可問責(zé)性(Accountability)。
中國(guó)臺(tái)灣地區(qū)參考?xì)W盟準(zhǔn)則,在2019年發(fā)布《人工智能科研發(fā)展指引》,提出三個(gè)AI應(yīng)遵從的核心價(jià)值: 以人為本、永續(xù)發(fā)展、多元包容;還有八項(xiàng)核心指引: 共榮共利、公平性與非歧視性、自主權(quán)與控制權(quán)、安全性、個(gè)人隱私與數(shù)據(jù)治理、透明性與可追溯性、可解釋性、問責(zé)與溝通。期望在AI的開展道路上能夠兼顧科研與倫理,這些倫理價(jià)值實(shí)踐于 AI 之研發(fā)與應(yīng)用中,以增益人類福祉[13]。 歐盟準(zhǔn)則與中國(guó)臺(tái)灣地區(qū)的發(fā)展指引可作為中國(guó)大陸地區(qū)制定AI應(yīng)用相關(guān)的規(guī)范參考。
在AI技術(shù)的發(fā)展下,智能醫(yī)療是趨勢(shì)也是雙刃劍,我們必須積極應(yīng)對(duì)人工智能醫(yī)學(xué)應(yīng)用帶給我們的倫理挑戰(zhàn)。在人工智能設(shè)計(jì)制造及應(yīng)用過程中應(yīng)始終秉著以人為本的理念,在保證安全的前提下,尊重?cái)?shù)據(jù)主體的自主性和充分保護(hù)個(gè)人隱私,積極促進(jìn)技術(shù)的可及性,并建立完善相關(guān)法律法規(guī)和倫理規(guī)范,以保證人工智能在醫(yī)療行業(yè)應(yīng)用中符合倫理規(guī)范。
中國(guó)醫(yī)學(xué)倫理學(xué)2020年7期