張秋菊 蔣 輝
醫療人工智能(artificial intelligence,AI)是AI在醫療領域的應用與開發,它可以通過機器學習、表征學習、深度學習和自然語言處理等各種技術,利用計算機算法從數據中獲取信息,以協助制定臨床決策為目的,實現輔助診斷、療法選擇、風險預測、疾病分診、減少醫療事故和提高效率等一系列功能[1]。隨著AI飛速發展,醫療AI也會在不同臨床活動中發揮超乎想象的作用。根據AI的實力可以大致分為弱AI、強AI和超強AI。由于醫療服務的對象是人,AI在醫療領域的應用必須考慮到人的主體地位、個體差異、心理感受等問題,而且必然顧及醫患關系的特點。因此,盡管醫療AI應用越來越廣泛,且未來展現出更廣闊前景,對疾病診斷、藥物篩選及手術治療、醫院管理等帶來極大的便捷和幫助,但當前醫療AI應用主要集中在弱AI。
在醫療資源配備不足的地區,應用醫療AI可在一定程度上緩解供需矛盾,但并不能從根本上解決問題。2019年,以臨床輔助決策支持系統(clinical decision support system,CDSS)和靜脈血栓栓塞癥(venous thrombo embolism,VTE)智能防治系統等為代表的AI應用推廣較突出,這些應用的確減輕了醫務人員的工作負荷,但是也讓醫務人員有著盲從AI判斷的可能。因此,AI的應用像“雙刃劍”一樣,有著技術應用的效益,也有著不可回避的負面影響。與此同時,諸如隱私保護、數據歧視、人性化關懷等也存在隱憂。
在當前醫療AI還沒有相關法律法規的情況下,倫理問題尤其值得思考和關注,做好倫理設計及形成相關的道德原則是AI更好地服務于醫療的必要保證。醫療AI的應用必定會深刻影響醫療人際關系,對此應進行充分評估。醫療AI設計要關注醫療人際關系,尤其是醫務人員和患者群體及社會公眾,必須事先評估其影響,并正確處理好不同主體之間的關系,是做好醫療AI設計的重要方面。
醫療AI帶來方便的同時可能會淡化甚至隔斷部分人際交往,尤其是醫患之間的溝通及人文關懷可能被物化。AI無法替代醫生,缺乏和醫生一樣的綜合判斷能力。盡管AI節省了醫務人員的時間、提供了診斷決策建議、起到了重要的輔助作用,但也可能削弱醫務人員的主觀能動性的發揮,減少創新。醫務人員對AI的依賴會影響自身專業技能的修煉,還有可能為技術所累,使醫患關系物化,引發醫生眼中可能只有疾病而沒有患者的現象。如智能預問診,用戶就診前,智能采集用戶病情信息,包括主訴、現病史、既往史、過敏史、家族史等生成電子病歷,節省醫生寫病歷時間,但“預問診”在無形中阻隔了醫患交流的部分環境,對醫務人員的判斷形成干擾、錯誤引導、傾向性影響,甚至產生誤判。
AI無疑會大大惠及患者,但也存在不少倫理問題。一方面,AI對某些疾病的診斷更精確,部分手術的技術傷害更小,藥物使用更加優化,臨床診斷意見更有針對性和參考性等。另一方面,AI醫療器械、影像、手術機器人等費用高昂,可能造成歧視和不公平,引發過度醫療等;AI誤診、手術機器人的差錯、患者個人資料泄露等無疑是對患者權利的無情踐踏,甚至危害公共衛生利益。
AI不能代替醫務人員,也不應擠占本屬于醫患交往的時間。AI臨床應用的基調應該是基于補充、輔助,而非代替,醫療活動中的醫務人員、患者都是人,醫患之間的交往要體現醫學的人文溫度,體現醫患間的關愛、溫情。AI應該優化、彰顯醫學的人文情懷,體現對人的關懷與尊重,應該把研發的重點放在補充醫療活動中的不足,醫院管理系統的AI研究應該把關心人、尊重人放在重要位置;把開發重點放在當前現代醫學的不足和亟需的領域,諸如康復治療、醫療機器人、醫療影像等,為患者提供優良的就醫環境和秩序,醫務人員不足時借助AI實現關懷、幫助。
在AI的賦能下,醫學的技術性可以得到前所未有的提高。未來AI與臨床的密切融合,需要人們關注AI醫療應用引發的一系列倫理問題,醫界呼吁有責任、合倫理的AI研發。醫療AI設計的倫理問題最主要牽涉到是否在設計中把握住總體目標是為推動醫學事業的發展、為人民健康謀福利;是否在設計中就數據采集的知情同意做好約定,因為醫療AI是建立在大數據基礎上的,而醫學的特殊性決定了數據采集會涉及到患者權益,知情同意是非常重要的醫學倫理原則;數據采集涉及的另一個重要問題就是患者隱私權的保護,更高層次上的安全就是生物安全等問題。這三個重要問題在醫療AI設計時就應該有相關的倫理約定,若等問題發生時再采取措施就為時晚矣。
在醫療AI的設計之初,工程師可能缺乏對醫學特點、醫患關系、臨床應用的細節及發展趨勢考慮,這其實存在一定的失控風險,應該由政府主管部門包括工業信息部、科技部與衛生健康部門聯合進行登記管理,根據各自工作職責建立聯合工作小組對醫療AI進行監管,在其設計之初就按要求登記。醫療AI的設計要符合醫學目的,技術設計應初衷正當,導向良性發展,即推動醫學技術發展,更好地服務于人民健康。
盡管目前暫無直接對應AI研發的法規,但從《民法典》《刑法(修正案九)》《醫療衛生與健康促進法》《醫療器械監督管理條例》《信息安全條例》《涉及人的生物醫學研究倫理審查辦法》等法律法規中,均可以找到很多規范性要求。受試者權益保障主要是隱私信息保護和數據產權方面,不涉及針對人體的風險,但客觀存在隱私信息泄露和數據歧視等倫理風險——這常常被忽視,或不夠重視,也常常沒有相應的風險評估,沒有相關的風險防范措施和應急處置預案。由于數據控制權已經不在受試者方面,醫院和研究者可以單方面對醫療健康數據進行處理,往往也沒有再向受試者履行知情同意,受試者方面沒有任何直接獲益,而醫療器械AI產品又有明確預期的市場價值,如果從受試者角度而言,常涉嫌違背倫理的尊重原則和公平原則。醫療器械AI產品的注冊研發,應該側重社會公益目的,并在政府有關部門和機構倫理委員會的有效監管下開展。很多情況下,應該鼓勵把投入的研發成本收回來即可,不應追求不恰當的過多商業利益,否則就可能違背倫理。因此,醫療AI應用產品具體在設計時,應以社會公益為主要目的,全程納入政府監管并接受社會公眾監督。然后,在AI產品中應編入倫理標準程序并經過檢驗后使用,包括諸如權利、角色、動機、意圖及其他道德相關特征,以期其做出的醫療決策更符合倫理。目前醫療AI的價值體系等同于創建AI的設計者的價值體系。
醫學目的原則要求開發設計者與醫生增強溝通,真正了解醫生的工作和需要、醫療衛生行業服務的性質及宗旨。目前的醫療AI還比較碎片化,沒有做到足夠的集成化。不同疾病模型的使用環境都不同,如果不能建立統一的集成規范,就會為了追求技術的新奇而使用技術,反而影響了效率,這也正是許多醫療機構即使擁有了AI,醫生也經常不使用這些新技術的原因。對此,需要開發者去真正理解醫院的整體工作,有的放矢。AI應結合醫院整體工作需要、醫生工作特點和患者現實困難全盤規劃,在設計上從滿足需要出發。
數據采集應取得授權,導向有序管理。AI依靠大量的數據支撐,數據從哪來:美國要求醫療信息的商業化應用必須嚴格符合《健康保險便攜性和責任法案》(Health Insurance Portability and Accountability,HIPAA)和《促進經濟和臨床醫療衛生信息技術法案》(Health Information Technology for Economic and Clinical Health,HITECH)兩個法案規定,中國目前在此領域政策上態度不明確。關于數據采集的相關問題應該在設計時就充分考慮,尤其應關注在采集數據時對患者的知情同意權的保護。知情同意權在沒有法律規范可參考的情況下就需要醫療AI技術的研究單位和合作單位加強倫理審查,重點針對設計者的科研倫理意識、采集數據時是否履行知情同意、如何保障知情同意順利進行、在研究過程中誰來監督知情同意實施情況等。對此,鑒于機構倫理審查在醫療健康大數據方面存在的效率和能力問題,應引導發展區域倫理委員會,并有政府委托的醫學倫理專家委員會和區域倫理委員會來對醫療健康大數據進行倫理審查和后續使用開發的監管,要警惕醫療AI濫用。AI的先驅約瑟夫·魏森鮑姆曾告誡“任何需要真正同理心的工作,都不應該由計算機從事”。他認為,與機器互動會讓人感到孤立和被貶低,醫療AI的濫用會不會在不經意間降低我們對人類生命的重視程度。如果有一天醫療AI 可以實現將人腦數據記錄在計算機中,針對殘疾者、病患或是逝去的人,制造出載有當事人大腦信息的AI機器人,可以被允許嗎?
醫療AI產品研發項目應該先經過學術委員會的立項審核,然后由倫理委員會進行倫理審查。專家組成員、倫理委員、聘請顧問應考慮到醫療AI的特點和所涉及知識、利益群體,納入軟件工程師,醫學專家,社會學、心理學、倫理與法律專家,群眾代表等。
(1)研究的目的應該是正當的,有前期研究基礎和充分依據的,不能在研究基礎尚不夠、條件不成熟的情況下,隨機采集數據去測試、訓練。這種行為不僅不尊重數據所有權人、沒有嚴謹的科學精神,而且可能站在利用公民信息謀利的邊緣,有違反刑法的風險。
(2)研究所涉及的醫療健康數據不應過多,應該遵循“最小權責”原則,避免不必要的信息過度披露,保護醫療信息安全。這和動物實驗倫理中的“3R”原則(減少、替代、優化)道理相通,用能體現統計差異且盡量少的例數來說明問題即可,不應隨意擴大數據范圍和例數,能使用既往保存的數據時不應采集新的數據,能開展真實世界研究的不應發起干預性研究,否則,既浪費資源,也不安全,自然不符合倫理。
(3)提供AI算法的機構及有關工程師不應該隱形于研究項目和研究團隊中。醫生大都對AI沒有那么深入的研究,不是兼具醫療和軟件工程專業知識的復合人才,所以醫療AI應用的研發一般都有軟件工程師及有關機構涉足其中,這涉及許多知識產權問題。在項目合作協議和研究團隊名單中,應清楚體現該項目與什么公司、高校合作,有什么工程師參與其中,負責哪部分工作,這些均應予以明確說明并登記備案。若牽頭醫院與軟件公司有合作,應有書面協議約定各自權利義務,并將合作框架告知其他參與醫院。
(4)在研究方案中,具體表述醫療健康數據的采集、脫敏、加密、儲存、物理隔離、轉移、銷毀等設計內容,不能語焉不詳,籠統承諾“保護患者隱私”,這其實容易暗藏貓膩,也是不尊重患者人格與權益的體現。甚至,這樣稀里糊涂的研究讓人懷疑申辦者是別有用心地想獲取患者的信息數據。
(5)要清楚界定研究目的和研發階段,由此作出相應的利益沖突管理。例如,表面聲稱以寫論文為目的,實質上瞄準有功能的產品暗度陳倉,耗費那么多人力物力只是為了幾篇論文嗎?這樣難以自圓其說,也經不起歷史考驗;在進入市場后,還容易面臨產權糾紛。參與單位、患者可能在不知情的情況下被貢獻了“脫敏”數據,而事實上患者的個人信息仍可以被分析定位并用于某些產品營銷。
(6)要評估參與單位的資質和條件。除了AI算法提供單位具有資質和相應能力外,不同醫院會有不同的信息管理平臺及軟件,統計基礎和信息質量也存在差異,有時還可能需要進行有關數據庫的建設才能支持AI產品研發。例如,在某牽頭醫院有建立AI應用的醫療信息數據庫,但其他參與醫院不一定有,因此如何在信息數據同質化基礎上,事先評估參與單位的信息管理平臺及軟件也很重要,否則統計基礎不一、數據質量參差不齊,也難以達到研究目的。
(7)應關注醫院信息系統的加密級別和信息安全管理制度。如果醫院信息系統本身就不安全,沒有應有的安全級別防火墻和加密措施,醫療AI研發很可能會增加患者隱私泄露風險,甚至造成信息安全事件。多中心研究可以匯集起足夠的數據,但只要是醫療信息數據,都應該儲存在醫院,不應隨意被第三方軟件公司或高校拷貝;如果醫院上傳數據到云存儲,也應該是數據云存儲達到安全級別并簽有協議,不應沒有數據加密或加密太簡單,更不允許隨意再次拷貝數據或與其他方共享數據等。此外,部分私立醫院也保存了很多公民健康信息數據,這些應該符合行業標準并在衛生健康主管部門監管下,不能私自用于非法目的。
(8)關注個人隱私保密問題及相應的工作措施。如果保密制度有缺陷,信息數據被左手交右手、掩耳盜鈴、偽匿名,都是對患者權益的侵犯。如果工作人員保密意識不到位,沒有做到物理隔離(內部局域網和互聯網分開、連入互聯網有防火墻)、工作人員隔離(涉及患者信息數據的人員有獨立分工,一個工作人員負責脫敏,另一個工作人員負責脫敏之后的操作),也沒有全程監管并記錄的制度,倫理審查可以認為不存在研究條件,不應開展此類醫療AI研究項目。有時候,數據脫敏不徹底,或本身沒辦法做到脫敏(如研究方案要驗證結果就不得不標記個人信息),客觀上存在個人隱私泄露的風險,對此,并非像有些人所理解離開人體的信息數據是沒有風險的,那只是對人體沒有風險,依然存在受試者人格權、財產權、隱私權被侵犯的風險,還可能有涉及罕見病信息的知識產權糾紛。如果只講采集數據,根本沒有轉移數據前如何加密的交代,也沒有銷毀數據的考慮和打算,也算是倫理審查要素不全,不能開展研究。其實,只要給AI多一點時間,曾經被“脫敏”的數據還可以被計算出很多特征性的個人信息,也可以實現歧視性使用數據的功能。
(9)關注研究團隊的組成及道德自律。利用他人的信息數據進行加工分析,可能存在很多利益沖突和產權對應性問題。例如,信息科工作人員發起AI研究,本身就存在知識產權的倫理問題。再如,研究團隊的構建不合理,只從數據控制權考慮,拋棄和忘卻了具有數據所有權的醫生和患者,這就類似偷盜或搶奪他人的財產。
(10)尊重患者、服務社會的倫理意識應貫徹始終。實施知情同意是絕對必要的,在可能或有必要實施時偏偏不予考慮,反而申請免除個人知情同意,這是不符合倫理的。例如,前瞻性采集數據做研究時,其實有條件對受試者實施知情同意;又如,在與影像診斷AI判斷結果進行對比時,需要根據受試者的個人信息追溯其相關病理結果,這也應對受試者實施知情同意。當然,這并非說知情同意才是對的,但起碼要考慮到知情同意,評估知情同意的實施和影響。畢竟有時候存在保護性告知,負面、過載的信息反而是不知情為好,否則增加受試者額外的心理壓力和精神負擔,反而更多地損害了受試者權益。
值得注意的還有,每家醫院倫理委員會只能對自己醫院的信息數據負責,如果醫院間的倫理委員會制度和標準作業程序(standard operation procedure,SOP)根本不支持倫理結果互認,其倫理批件不能覆蓋其他醫院,就不能以一紙協議拋開或架空倫理委員會。除非依據政府法定職責所進行的項目或公共衛生應急需要,另行依法實施。而且,風險程度較高的醫療AI研發項目也不能由某一家機構倫理委員會同意后就開展,還應該報省級以上醫學倫理專家委員會的同意后進行,因為這類項目可能有很大社會影響,甚至影響全人類。
盡管現在醫療AI技術較為成熟,故障率很低,但由于AI技術的復雜性,除了極少數人能夠理解它們是如何工作的,幾乎對所有人來說都是一個“黑匣子”[2]。技術的復雜性決定了技術的不確定性,AI醫療應用的可靠性是人們擔憂的一個重要方面,當醫療AI帶來很多不確定因素,諸如患者信息的泄露,個人安全甚至國家安全可能受到攻擊時,人類是無法信任AI的。
醫療數據安全風險一旦發生,直接后果是引發患者安全事件,間接后果是數據泄露所致的一系列影響社會穩定或不公平事件。如保險公司有可能在掌握了個人病史的情況下,提高保險費用,引發社會不公平等問題[3]。
從近年出臺的關于AI的相關政策看,從2016年的《“互聯網”+人工智能三年行動實施方案》到剛頒布不久的《“健康中國2030”規劃綱要》都直接或間接地表明了發展醫療AI產業的支持和推動態度。但國家安全問題不容忽視,如涉及人類遺傳資源的AI技術研究,謹防特殊群體、特殊疾病引發的生物安全問題。應該站在國家戰略高度認識特殊領域的醫療AI,否則以犧牲國家安全為代價的技術發展無疑是得不償失的。
我國應加強立法對醫療AI應用的有關行為主體進行管理。在醫療AI的設計、審查以及實施方面,既要有對項目的跟蹤,又要有對不同行為主體的監督管理,包括設計人員、施工制造人員、測試人員、應用實施人員,也包括實施的環境和條件、數據的管理和監督、數據脫敏化的處理、加密程序以及不同加密鑰匙的管理權限。醫生對AI系統臨床應用的另一個顧慮是誰對醫療AI提供的決策最終負責,如果出現錯誤,誰來承擔后果。當前階段,醫療AI的最后結果仍需要人工校驗審核,醫生承擔由此對患者診療結局的責任。未來臨床廣泛引入醫療AI后如何實現問責,現在仍不明確。當AI應用結果導致醫療糾紛、關于人的倫理或法律沖突時,能否從技術層面對AI技術開發人員或設計部門問責,并在AI應用層面建立合理的責任和賠償體系,保障醫療AI在臨床發揮其應有的價值[4]。
醫療AI涉及的倫理問題主體既包括技術設計者,也包括技術使用者,而當前設計者的倫理責任顯得尤為突出。未來應該在設計中把握好醫學倫理最基本的尊重、有利、不傷害、公正原則,這些原則看似簡單實則體現生命倫理的精髓。
醫療AI產品研發應用的首要倫理原則應該是尊重人的人格尊嚴和價值。這有一系列的倫理問題,例如,它是否能滿足和對應人的需求?它應該被使用在什么場景才不損害人的尊嚴?它與患者的關系是否屬于醫患關系?出現矛盾時如何解決?其中最大的難題恐怕是人與AI機器對話,對患者權利的尊重如何實現,道德主體如何界定等。在發生醫療AI對患者利益的侵犯和傷害時,諸如隱私權、醫療公正等,如何認定責任。如果AI作惡或者反抗,患者權利如何保障等,這些都是需要在設計源頭考慮的問題。醫療AI設計倫理中應該強調人的價值因素,而非僅僅是疾病,AI的臨床應用應體現出醫學對人的尊重,而非侵害、累及甚至奴役人。要真正貫徹尊重原則,就要深深領悟AI服務于人的根本宗旨,領悟醫療衛生行業是為人類健康服務的信仰。尊重人的價值、人的健康權益、人的生理及心理需求等。在某些領域的技術開發應該通過醫院倫理委員會審查,倫理委員會同時提供咨詢及幫助。像海豹機器人 Paro 雖然可以幫助老年人釋放壓力,但Skarkey認為現有的這些替代伙伴并不能真正地緩解老年人的孤獨,對于老年人的心理健康,在很大程度上依賴于和人類的接觸,需要與照顧人員進行交流[5]。醫療AI對醫務人員存在價值排擠,技術設計最初的出發點是輔助、幫助醫務人員,但有一種結果應該料想到,那就是某種程度的替代無形中形成的排擠。醫療AI產品上線后,短期內可能會迎合市場需求,緩解供需矛盾,但長期的發展可能是醫學的停滯,因為AI缺乏自我更新發展的能力;或者AI形成了自我創新發展的能力,而使醫務人員的價值物化、淡化、邊緣化,這樣的情形都可能發生,而事實上醫務人員應該是實施醫療行為的主體,患者需要的也是有真實情感和知覺的“人”。自動化技術的成本正在迅速下降,這意味著2020年價值幾百萬美元的AI產品到2030年可能只需幾千美元,對此要有心理準備。雖然醫療行業是相對復雜的崗位,醫務人員的工作很多時候是很難替代的,但這種擔憂應該是必要的。
AI對臨床的有利應體現在利他和人道方面,能增進患者健康利益和公共健康利益。AI的醫療應用一定是本著對人的醫療權、健康權的更好維護,公共健康利益的更好構建。這種有利是要求AI能增進他人的健康福利,即有利于疾病診斷、醫療救治、臨床用藥等。應該建立、健全醫療AI設計規范,使AI發揮更大效益,推進醫療衛生事業發展,通過倫理審查,對設計者資質、道德認識、風險預測等及時把控。如果說醫療AI實現了對患者的護理、關懷、陪伴,長此以往對患者生活的介入對患者是一種幸福還是不幸呢?這可能會引起患者心理與情緒的許多變化,禍福相依,因此應在實施應用前進行必要的評估,做出更有利于患者及公共健康的選擇,促進未來局面的持續向好發展。醫療AI是否會帶來公眾就醫過程和成本的變化,技術的出現本來應該以追求更高效、快捷的服務為目標,但如果醫療AI增加了就醫的復雜程度和時間、費用成本,那它也很難得到倫理辯護。
醫療AI可能帶來的傷害就是技術引發的對患者健康利益的傷害,諸如手術機器人的誤診,技術帶來的醫療費用的增長。醫療AI要符合臨床診療中倡導的傷害最小、費用最少、療效最好。切記不能為了AI而AI,不能把醫療技術要從人類福祉出發的目的拋擲腦后。如已經有成熟可靠的人工操作,卻要加大患者風險把簡單的手術交給機器人;或者從商家利益出發進行臨床AI替代療法。發展AI一定是本著不傷害患者利益,更好地服務于患者的目的。在醫療AI研發或應用環節,涉及數據訓練和結果分析時,需進行數據授權管理、對醫療數據涉及的關鍵隱私信息進行脫敏和強加密處理[6],以防止技術傷害。建議醫療AI的研發應該由國家有關部門主導,聯合多家醫療機構共同參與,以確保數據的可信、全面,避免重復建設及資源浪費。在設計和算法上要科學求證、謹慎推進,把技術可能帶來的負面影響盡量降到最低。醫療AI關乎健康、生命,這種系統錯誤的發生成本太高。因此,醫療AI設計時應充分考慮應用醫療AI技術的場景、情境,將可能發展的風險預先進行評估和防范,并實現制定一系列事故發生后的應急處置程序。
醫療AI的設計要符合醫療衛生資源公正分配的原則,這是醫療衛生領域的一個重要原則。如果設計者在道德認識中沒有充分認識公正原則,不僅不利于AI在醫療領域的長遠發展,還會和公共健康利益發生沖突。AI會在機器自我學習中造成偏見,隨著算法復雜程度的日益提高,通過機器學習過程形成的決策越來越難以解釋AI內部的代碼、算法存在的“黑箱”,導致無法控制和預測算法的結果,而在應用中產生某種不公平傾向[4]。如普林斯頓大學的醫學人類學家Biehl[7]曾深刻指出,那些被遮蔽的無法獲得病患身份的人口才是最脆弱的,也最值得被照護。但現代性公共衛生體制的諷刺之處便在于,幾乎所有疾病的診斷和治療都嚴重依賴于自愿登記的人口。不可見即不存在,在這種情況下,貧困(財力可獲得性)和信息鴻溝(信息可獲得性)等諸多因素始終會將本來就缺醫少藥的那部分人排除在醫療AI所描繪的美好藍圖之外[8]。這顯然不符合醫療資源的公正分配原則。
當然一種新技術的出現難免帶來這樣那樣的問題,對現有的道德價值規范體系有一定沖擊,我們也不能因為存在潛在風險而拒絕接受,對醫療AI要在謹慎中推進,力求在醫療實踐活動中發揮其價值和作用而盡量規避可能帶來的風險、矛盾。當前對AI臨床應用設計涉及的倫理問題更多關注的是弱AI臨床研究與應用帶來的問題,未來隨著AI的發展,有可能出現的強AI的臨床應用也需要學者積極思考、保持關注,這是學者對社會的責任。