林之森

根據美國醫學會統計,在美國每10個醫學診斷中就有1個是誤診。在初診中,每20個就存在1個誤診。單在美國,誤診造成的不必要死亡每年就多達8萬人。
這些令人擔憂的數字,源于診斷本身的復雜性,包括從患者那里得來的信息不夠全面,轉院治療時信息對接不及時,醫生因過度勞累、病人太多而造成的判斷上的偏差等。這些人為失誤,如果換成機器,就能避免。
這個夢想并不遙遠。在國外,已經有很多AI診斷APP可用,并可能不久將在國家醫療保健體系中推廣開來。但問題來了:健康是關乎人命的大事,我們能放心地交給機器來處理嗎?醫療AI值得我們信任嗎?
幾十年來,研究人員一直在增強AI的本領,包括讓它擁有深度學習能力等:通過利用病歷數據庫中的海量數據來訓練它,讓它學習診斷各種疾病,之后你只要按一下鍵,差不多就能獲得比人類醫生更準確的診斷書。
美國斯坦福大學的科學家用 10萬多張皮膚病(從皮膚癌到蚊蟲叮咬)的圖片訓練了一個能深度學習的AI系統,之后用1 4萬張新圖片對它進行測試。測試結果是,它對皮膚上黑色素瘤的診斷正確率,比經驗豐富的皮膚科醫生還高。此外,目前能深度學習的AI,在診斷由糖尿病引起的視網膜病變、眼血管并發癥等癥狀上,也比一般的醫生高明。其他的AI工具在從電鏡掃描中識別出癌癥,或從一般的健康數據中預測患心臟病的概率等方面,也已經大顯身手。
但是,它們除了能避免人類醫生那些明顯的低級錯誤之外,到底比人高明在哪里?
這可不是一個容易回答的問題。因為AI系統在深度學習中會形成自己的一套判斷規則,而這些規則到底是什么,哪怕是對于開發人員,都是一個“黑箱子”,誰也不知道。這就有理由讓人為此感到不安了。
當然,要是深究起來,這種情況人類醫生也難避免。
“他畢竟是人嘛,而我們現在面對的是機器。”你大概會說。但也許只是一個習慣的問題。如果A1“醫生”的診斷正確率非常高,甚至要好于人類醫生,這種不安感或許就會減輕,甚至消失。
醫學AI系統的出現,甚至可能重新定義“訓練一名合格醫生”的含義。未來的醫學教育將包括讓學生學習數據科學,把他們從死記硬背中解放出來,集中到學習如何解決問題、培養批判性思維上。
它還可以讓家庭醫生不出辦公室,就能以專家級的精湛醫術,為患者提供服務——只有萬不得已時,才把病人交給醫院和專家。這意味著,不必把一個病人的治療和護理,輪番交給好多家醫院的醫生來完成。這對于醫生和病人都是一件好事。
當然,在這種情況下,病人的隱私怎么保護?醫療事故誰來負責?這些問題還亟待立法去解決。
待到醫療AI成熟之后,皮膚科、放射科和病理科等主要涉及重復審查圖像的醫學部門,很多人工可能會被它取代。
那么,人類醫生會不會最終被醫療AI完全取代呢?
應該說是不會的。AI可以增強臨床醫生的能力,但不可能做人所能做的一切。首先,人們常說,醫生的職責是“有時去治療,常常去幫助,總是去安慰”。醫生對病人的人性化關懷是治療和護理必不可少的一部分,這是不能用機器取代的。其次,當醫療變得復雜的時候,需要人做出決定,AI無論多么復雜,都不能代替人做決斷。