黃 強,肖人銓,王璐穎
(1 中國人民解放軍聯勤保障部隊第九二四醫院藥劑科,廣西 桂林 541002,hhhqlg123@163.com;2 海軍軍醫大學基礎醫學院,上海 200433; 3 海軍軍醫大學政教室,上海 200433)
20世紀50年代,美國達特茅斯舉行了第一屆人工智能會議,人工智能的先驅者西蒙、明斯基等科學家參加了此次會議。該會議首次向世界宣告了人工智能時代來臨。時至今日,經歷半個多世紀的發展,以人工智能發展為主線,將其發展劃分為三個歷史階段。在每個歷史階段進展的過程中都是計算能力和數據容量的革命性技術突破。在第一個階段,主要是基于規則的某一專業的研究與開發,是一個具有大量專業知識與經驗的程序系統,根據某個領域一個或多個人類專家提供的知識和經驗進行推理和判斷,模擬人類專家的決策過程,以解決那些需要專家決策的復雜問題;第二個階段,機器學習的崛起,實現了智能系統與機器本身及自身之外的環境進行認知信息交互與聯系的功能,它可自行完成從外部環境中獲取有用的信息完成程序事先設定好的推理任務;第三個階段也就是現階段,人工智能具備“臨摹”和“超越”人類的能力,人工智能幾乎在所有領域超越人類,并在非人類的領域中進行探索,使得人工智能能夠真正地“智能”起來,使其能夠發現、創造,甚至運用新的知識。從粗鄙的機械性勞力工作到精美擬人化的設計工作,甚至超越人類多領域探究的智能機器人,從起初的服從到最后的創造,這不僅是人類生活的革命更是人工智能的矩陣革命。
目前,我國的醫療健康領域中存在部分人工智能的應用,已經有了初步的成果,例如智能影像輔助診斷系統、導診機器人、智能放療系統和藥物研發平臺等。其有效地幫助國內醫療系統解決了優秀醫療資源不足,分配不均,醫務人員工作任務繁重,偏遠地區對醫療資源需求大等的問題,人工智能的醫療應用改進了醫療模式架構,患者可以得到更好、更快、更高效的專業性醫療服務。
人工智能融入傳統醫療模式中,其強大的儲存、運算和分析能力彌補青年醫生缺乏大量臨床經驗的不足,為醫生選擇針對患者風險最小、利益最大的醫療方案。2016年,人工智能診療在國內迎來爆發式的增長,2016年10月,人民衛生出版社推出臨床決策輔助系統-人衛臨床助手。2017年4月,零氪科技的HUBBLE醫療大數據輔助決策系統正式上線。以往治愈患者之后大量數據信息歸檔,例如臨床醫學實踐報告、電子病歷等內容,如果有需要調查研究病例,依靠人工統計浪費大量的時間,而且過程繁瑣以至于結果極易出錯。同時,人工智能不是簡單機械計算和優于人腦的歸納整理,針對大量數據進行合理分析歸類極大程度促進醫療進程,這也證明人工智能具有戰略性的研究與發展價值;同時,為許多疫病的病因、治療藥物的研究提供方向。
智能影像輔助診斷系統發展迅猛,傳統的人工閱片耗時長、效率低下,醫療智能則能夠迅速讀片,找出病灶后生成一個完整的診斷報告,對醫生的判斷審查治療進行輔助。2017年的第六屆醫學影像高峰論壇上北京友誼醫院聯合相關人工智能公司研發出CT肺結節輔助診斷系統,該系統的診斷準確率據報道達到92%。同年,李紅天等結合人工智能影像診斷技術,利用晶狀體不透明面積、深淺和位置三大指標對患者的白內障進行檢測,對患者的患病概率進行高效評估[1]。國內醫療體系已大量引入人工智能設備,人工智能是時代進步的產物,醫療領域引入和發展人工智能已經形成了勢不可擋的趨勢,更加有效緩解醫療人員壓力、優化改善醫療服務模式。
近些年,國外很多國家都進行了專門的醫用機器人研究。其中最負盛名的就是現在國內也可以見到的Da Vinci(達·芬奇)外科手術機器人。由美國Intuitive Surgical公司于2000年推出。通過醫生在控制臺上來操作機器人動作,實現手術的精細化操作。在當前以機器人為載體的實際應用主要集中在外科手術領域,外科醫生給予機器人指令,機器人代替醫生執刀。一個優秀的外科主治醫生可以將誤差控制在2毫米,而機器人則可以達到微米級別[2]。在微創手術盛行的時代,其發展勢頭是不言而喻的。
人工智能的出現,是工具進化的結果,它回應了生產力發展的要求,很好地滿足了人類改造客觀世界的需要。維納認為:“工業革命是一把雙刃劍,既可以造福人類,也足以毀滅人類。”[3]這是一個哲學家對工業革命帶來的機遇感到的擔憂。在醫療智能化的背景下,必然加快醫療救治的進程,但同時帶來了很多倫理問題,是醫療糾紛潛在因素,是醫療實踐隱含矛盾。
人權,是作為獨立個體的社會人在他人或群體面前,能夠滿足自身基本權益的要求或者主張。而人權倫理則力求人的全面發展和人的自由可以實現,并且強調人人平等。現階段我們社會中存在的智能機器人尚且不會自主學習和思考,依靠人工植入的編程代碼來判斷是非,代替人去執行作業時,通過不同的算法使機器人盡可能地接近人的習慣,但是無法根據現有條件提出新的問題,不能作為一個獨立的主體去判斷做的事情“道德與否”。此時的機器人應該是不存在“人權”這一社會屬性的。在迅速發展的人工智能浪潮下,美國學者雷·庫茲韋爾曾大膽預言:“2029年將會誕生具有智慧的機器人,它將會有獨立性的自我意識”[4]。 所以在科技不斷發展的同時,將不得不面對人權倫理這一根本問題。人的思考是一個動態的過程,可以因為外界的事物不斷自我更新。正如現今很多線上購物平臺的商品推薦,能夠依據客戶的瀏覽記錄篩選出合適的商品類型和價格。說明了人工智能在數據挖掘的同時,也在模仿人類的“思考”模式來迎合人類。目前人工智能可能還沒有意識到,在未來若人工智能學會運用自己掌握的認知或者說憑借運算邏輯進行“思考”,誕生新的道德判斷。那么人工智能將會是具有獨立意識的個體且不再聽命于人類給予的運算邏輯,即成為一個能夠判斷是非的主體承擔者。最后對人工智能倫理人權的討論范疇必然納入倫理道德規范。
道德取向是指主體個人的道德認知和道德行為具有一貫的導向性的道德價值觀念,和具體的道德行為密切相關,并指向了一定的道德目標[5]。人工智能具有獲取速度快,快速統計出疾病的共同特點。現在我們醫生獲取醫學知識是依托導師的“傳、幫、帶”,缺點為掌握知識慢、更新速度低。優點是可以獲取一些個體化的治療方案。人工智能道德是指具有自主意識的智能機器或機器人判斷某種行為正當與否的基本標準與準則[6]。據此,人工智能的道德取向就是面對道德選擇時,能夠選擇正確的價值取向。道德并非先天就有,而要后天養成。對當今的智能機器而言,其所涉及的道德問題要分清主體是機器人還是設計機器的人。2014年,作為人工智能的領軍企業,谷歌率先成立了人工智能倫理委員會,其目的就是為了防止人工智能的濫用。當前情形下,道德概念是存在于人類社會之中,機器人并不能作為社會的一個獨立的主體,因為它自身的行為和社會地位的賦予,都依靠于它的設計者和使用者。此時人工智能的社會屬性是附著于人類身上,自身并不能產生道德問題或者成為道德的選擇者。而人和其他生物最主要的區別是建立了社群,相互之間進行有效的溝通。當人工智能機器人能夠和外界進行有效的信息交互,獨立于機器人設計師和使用者,自我進行事物的邏輯推理,那么便會擁有自己的道德判斷以及產生屬于機器人自己的道德問題。
大數據使人工智能試圖去代替人決策和行為,沃森醫生( Watson for Oncology)是一款 IBM公司制作的醫療認知計算系統,目前已被應用于8種腫瘤治療的決策中。使用者將患者基本信息輸入,沃森醫生就可以從數百種刊物里進行分析,選擇出最適合的治療方式協助主治醫生的治療。當沃森醫生的判斷導致了患者的病情加重時,沃森醫生作為人工智能設備不具備承擔責任的能力。因為在法律層面上來說,人工智能設備沒有意志上的自由,無法作為一個自然人來承擔犯罪行為的主體[7]。此類事故的責任人,是沃森醫生為患者制定治療方案所依據的文獻的作者或是最終采取沃森醫生制定方案的幕后醫生。目前,尚沒有明確人工智能在事故責任中應該擔負的角色和應承擔的責任,只是行為的代理執行者。在以后,機器人演化成擁有智慧的個體時,能進行獨立的思考和學習的時候,從生產線出來一段時間后通過自我底層算法的演化,變成一種類人生物。人工智能在診斷中出現的決策失誤而導致的錯誤行為,假設還和現行的歸責標準一樣進行裁定時,會因法律的缺失而造成社會上倫理道德觀念的混亂。
現代科學技術帶給人類便利的同時,也會使人們不得不置身于倫理的困境。科技的發展帶動人工智能的進步,人工智能的進步改變了社會內部的生產關系。人工智能帶來的倫理問題更加顯著,準確把握倫理道德問題的成因尤為重要。
人工智能向著不可預料的方向飛速發展,已解決了很多實際的問題。沃森醫生極大地解決了醫生檢索文獻所需要的時間,達芬奇手術機器人比大多數外科醫生更為精確……這都是人工智能帶給醫療工作者的福音,改變了人的思維和就醫習慣。20世紀,蘇聯切爾諾貝利核電站事件是整個人類的創傷,21世紀日本福島核電站事件是在尚未愈合的傷口又刺上一刀,科技給人類生活帶來的便捷是革命性的,但是面對最大利益是否可以犧牲部分人的幸福生活?如果有道德約束的人類能夠允許少部分的人犧牲,更何況無道德制約的人工智能。人的發展是社會的第一原則,沒有任何力量能夠阻止人類向前發展,5G時代的來臨,人工智能伴隨著瓶頸技術的突破而進入人類社會,社會中各行各業對人工智能充滿渴望和需求,從事體力勞動的人類必然被人工智能高效便捷的勞動所取代。不對人工智能加以甄別,可能會產生以行為的實際效果作為道德價值的基礎和最高標準的傳統功利主義[8]。長此以往,會損害當前社會固有的道德價值觀。
人工智能時代的來臨,研究型醫療工作者應時刻保持警惕,不斷學習和適應人工智能,合理地與人工智能一起工作。而不是坐享其成、故步自封導致頭腦僵化,對人工智能的依賴性逐漸加深,最終人被人工智能所取代,甚至淪為人工智能的生物能源。2018年召開的全國人工智能哲學與跨學科思維論壇上,倫理學家蘇令銀以中國傳統儒家倫理規范中的“忠”“恕”“仁”為規范,構建人工智能在現實社會生產先在條件和準則[9]。人工智能的開發者把家國融匯于技術開發的情懷,闡幽發微而示之以人所未見,率先垂范而示之以人所未行的踐行。如此守正之士才能創造符合人類社會真正需求的人工智能,人們方能享受人工智能給人類帶來的便捷生活。
2018年,歐盟委員會就值得信賴的人工智能(AI)道德準則草案開展了公眾咨詢[10]。該草案認為“AI必須具有道德目的”“以人為中心”等道德準則為發展AI的基礎。這就意味著人工智能必須是為人類社會謀福利,改善個人和集體的生活為主線。大數據、底層算法和CPU是支撐人工智能技術不斷發展的關鍵要素,數據量的豐富程度是提升算法有效性的關鍵,也將使道德的和不道德的信息一起涌入人工智能的數據庫中。隨著移動設施和全球網絡的普及、即將到來的5G時代 ,全球的信息將會越來越集中地涌到一起。倘若不加以約束,可能人工智能的走向會偏離人類的初衷。設想從底層算法層面進行倫理的制約,以倫理學為紐帶,人工智能的研發者應該具備工具理性主義的哲學思維,人類應為控制人工智能的主體,人類自身的理性不應該被超前的人工智能所統領,變成人工智能的工具或者是人工智能的延伸。為防止人類的理性被人工智能所控制,人類理應建立符合倫理道德的算法來對人工智能的大數據進行約束。人工智能自動依據道德算法對現行社會道德楷模特征定性并建立道德模型,作出符合人類當前社會道德價值的判斷,將人工智能技術發展勢頭控制在人類當前所能接受的倫理道德觀念之中。
法律的功能是將社會現實中復雜的、各具特點的人,以統一的、制度化的方式抽象構建出法律上的人[11]。 2019年1月,我國開始正式實施《中華人民共和國電子商務法》,人和自動售貨機及其搭載的自動交易平臺產生等價交易時,是需要結締合同的[12]。說明了社會的人和人工智能在該情況下是對等的。當前,相當多的學者反對人工智能的快速發展,觀點為對于人工智能的立法情況尚處于空窗期,人工智能擁有自我意識后會發生“革命”,背離我們人類最初發明它們時所賦予它們的使命。但是依據當前發展趨勢來看,人工智能的發展是大勢所趨。我們要做的不是阻礙人工智能的發展,而是在制定關于人工智能的相關法律時,應該指明在編程設計和編制范圍之外,人工智能產品基于自身“意志”自主實施的犯罪行為的情形,應將責任歸結于智能化機器人。對于人工智能產品按照程序設定的目的實施犯罪行為的,則應該責歸于智能機器人背后的程序員及其智能機器人的使用者。假如在制定法律時不加以界定,那么在某人工智能產品發生事故時,責任歸生產方還是使用者來承擔?所以,人工智能還尚未擁有自己的意識的情況下,制定合乎人類倫理道德的法律規范來對人工智能和人工智能相關產業產生約束是一個十分重要的手段。
綜上所述,人工智能目前在一些領域已經超越了人類,例如大存儲容量、大數據分析、大數據運算,但是它有更多不如人的地方。比如它沒有情商、沒有智慧、沒有人情味。對于人工智能的到來,我們滿心期待著它可以給醫療行業注入新的活力,同時我們也需要做好準備應對人工智能對醫療行業中的倫理價值觀帶來的沖擊。