(青島大學 山東 青島 266000)
1950年,圖靈在論文《計算機器與智能》中提出了“機器能夠思維嗎?”,人們開始關注人工智能。縱觀人工智能的發展史,在20世紀70-80年代主要是以計算機啟發式編程為基礎來模擬人類的某一類智能行為。此時的人工智能并不具備認知、意識等高級智能,僅僅使機器能替代人類做一些繁雜勞作。90年代,神經網絡等技術的突破,使人工智能從基于邏輯走向社會智能。其超越了只能簡單模擬人腦邏輯的“人類助手”,變為可能擁有自主意識的存在。21世紀,隨著各類新興技術不斷進步,人工智能載體材料日益豐富,由模擬人到類人的技術路徑也日趨成熟。
目前人工智能的研究方法主要使用系統建模,并以此為手段模擬人腦機制。雖然距離“人工智能超越人類”這一終極目標的實現還有漫長的道路要走,但是反觀人類科學與發展的歷史可以看到,人類的選擇具有盲目性,并非全部具有理性思維。如果量子計算機等技術的發展可以賦予人工智能某種意義上的意識,最終可能會讓人類喪失對該技術的控制。況且我們對于世界的認知總是基于先行的概念框架才得以可能的,而人類目前對于宇宙的認知范圍還太過狹窄,運行于自然界間的客觀規律尚難以被確切把握,人工智能最終將走向何處將很大可能突破人類現有認知,難以為人類所把控。
如今數據成為未來世界最寶貴的資產,權威將會從人類身下轉移到算法上,“人類已從中心主義滾向了X”①。計算機的發展帶來足夠大的計算能力,再輔以生物學中腦科學研究獲取的大量生物數據。兩者的結合,就有可能創造出比人類更了解自己的算法。而“一個擁有足夠多的關于我的數據、也有足夠算力的算法能理解我的欲望、情緒、想法、決策,進而能夠在很大程度上控制我、操縱我?!贝藭r,在政治、文化等各體系,決策的只能更加依托于大數據算法,而人類將會失去決策能力。正如曼紐爾·卡斯特在《千年終結》中闡述的那樣,數據時代下人民將與權利日漸遙遠。當我們放棄以人為中心的世界觀,而秉持以數據為中心的世界觀,就難免會淪落為單純“數字人類”的社會,②引發人類身份認知的危機。
隨技術的發展,人工智能將在越來越多領域超過人類,在越來越多任務上表現的比人類更出色,其將一步步取代重復性的人力生產勞動,且由于具有極高效的信息處理能力,未來一些高端行業例如醫藥制造、金融業等也將會由人工智能所操控。少數擁有先進算力與算法的精英階層將控制著經濟與政治話語權。在此之下工作崗位的減少,大面積失業現象將到來。人類社會很可能在此后被分成兩大階層,一部分是非常少的能創造和使用技術的階層;另外一部分則是在此經濟體系下難以繼續創造價值,將被系統的排除在能使他們自主的地方之外的“無用階級”。③人們不禁要擔憂:“21世紀經濟學最重要的問題,可能就是多余的人能有什么用。一旦擁有高度智能而本身沒有意識的算法接手幾乎一切工作,而且能比有意識的人類做得更好時,人類還能做什么?”④這部分無事可做的“無用階級”將與全球體系毫無邏輯、毫無干系,陷入極端空虛、縹緲的生活狀態。對于世界而言,這一部分群體可能成為隨時爆發的潛在危機。
根據赫拉利的觀點,人與其他物種不同,之所以能夠創造生產、發展經濟。這得益于人類可以進行靈活的大規模合作。而這種合作體系的建構是基于人類構造了不同于客觀現實世界的第二層虛擬世界。而在人工智能環境下,人們的歷史文化意識將被改變,漂流到虛擬的數字文化中;生產關系發生變革;國家和政府的力量被逐漸削弱;社會失去政治權力的控制等等。這些生產、權力和經驗關系的改變將匯聚成社會生活、時間與空間的物質基礎的轉化,最終使得人類無法繼續當前集體合作的模式,目前已經建構的二層虛擬世界將很可能面臨崩塌。在此種境況下,人與人之間如何產生凝聚的力量,重建共存的意識,迫切的需要一種全新的認同。
從人本主義的角度出發,技術發展的目的是為人所用的。但在現實生活中,技術常常突破其應為范疇而被濫用。從利用互聯網技術進行高科技犯罪的現象中我們可以看出,運用復雜技術的犯罪相較于普通犯罪,其更難事前管控、做出預測、且更易為極端分子所操縱;從犯罪后果來說其波及范圍亦更廣、破壞力更強;事后追責懲戒也更為困難。人工智能技術是通過代碼和算法來實現的,對于參與人員有著極高的專業性要求;且大多數人工智能系統是黑盒的,其內部原理的隱蔽性可以幫助罪犯規避審查。現有法律無法有效的防范人工智能被濫用。而算法在開發過程中如果包含價值偏好和不公正的因素,那么憑借算法的優勢去侵害大眾權益的案件將會屢見不鮮。更需要警惕的是,這種濫用的風險不僅僅體現在經濟領域,侵犯人身權利的范疇更應該被關注。例如,人工智能領域的軍備競賽已經展露苗頭,一旦人工智能得以武器化,最終毀滅的將會是全人類。
1978年9月,世界上第一宗機器殺人案件發生于日本廣島,一名值班工人死于切割機器人刀下。2016年5月,世界第一宗自動駕駛汽車致人死亡案正是由于特斯拉公司自動駕駛技術的缺陷造成的。2018年11月,由于機器人錯誤的將心臟放錯位置,最終使得英國首例機器人心瓣修復手術以失敗告終,病人也于一周后死亡。我們可以預見,未來隨著人工智能技術的發展與廣泛應用,人工智能造成的人身侵權案件將會以更多的形態呈現。而這一系列侵權乃至侵害事件的責任界定將成為人工智能應用領域的一個重要法律問題。以機器人修復心臟手術失敗為例,這一事件中主刀的達芬奇機器人是目前世界上最先進的手術機器人,尚且造成了病人死亡的后果。這些案件中機器人應當被賦予何種身份?誰來為它的行為負責?機器人生產商還是程序編寫員還是技術測評師還是該醫院還是主治醫生亦或是同意使用機器人手術的病人?如果由多方主體共同負責,那么他們之間的責任如何劃分?又該適用怎樣的評判標準?這一過程亦存在著證據的收集,舉證責任的分配等難題。
在社交網絡時代,人工智能包括3個核心要素:深度學習的算法、高質量的數據收集、高性能的計算能力。人工智能技術發展主要依賴于大數據包括敏感數據的收集和使用,在這一過程中,數據一旦被披露,將對個人隱私產生直接影響。有媒體報道,2017年5月Google旗下的DeepMind獲取了英國皇家慈濟NHS信托基金運營的3家醫院160萬病人的NHS(英國國家醫療服務體系)數據,其中包括HIV感染狀況、過去的吸毒過量和墮胎信息等私密數據。該新聞在英國掀起了軒然大波。此外,在社交網絡下,個人隱私遭到無所不在的窺探,人類實現了與肉體相分離的數字化生存。但凡通過鍵盤留下的痕跡都會迅速系統的被數據商收集,通過這些網絡環境中所采集的點滴數據的集合,可以立體的構建出真實世界中的個體形象。個人的行蹤、言談、取向等一系列隱私,都已經全面暴露在數據的洪流中,基本權益面臨巨大的威脅。
根據美國Narrative Science提供的數據,在未來新聞領域將有90%的稿件由機器人完成,同時人工智能也將用于藝術創作。關于這些人工智能的生成作品,在涉及到著作權法領域有兩個主要問題需要解決:第一,機器生產的作品是否享有與人創作出的作品相同的權利?依照我國現行《著作權法》,其保護的作品應當具有獨創性并能以某種有形形式復制。而人工智能的生產是將網絡中已經存儲的數據進行匯編整理,這是否可以被認定為具有獨創性?是否可以將其認定為一項智力成果?第二,該項權利的權利享有主體應歸屬于機器還是創制該機器的人?《著作權法》中將著作權人分為兩類:一類是作者,即直接創作作品的人;另一類是非作者,即通過某種法律關系獲得著作權的公民、法人或者非法人單位。對于“作者”亦有明確的說明,只有公民即自然人才能成為作者。而人工智能現階段還不具有獨立的人格意義,不具備法律上的主體地位,因此無法成為《著作權法》中的“作者”。但在未來的發展中,人工智能必然會生產出大量的創造物,這些創造物的性質、形式和價值可能將具備甚至高于《著作權法》所要保護的法益,對這部分內容進一步具體規制具有非常重要的現實意義。
人工智能是人類實現自身解放的重大機遇,但機會與風險及法律問題總是相伴而行。雖然文中的社會風險當前尚未切實發生在每一個個體身上,但人工智能革命引發的倫理、意識形態、法律問題僅是剛剛開始,伴隨技術發展的日新月異,亟需相關理論的創新和制度創新以跟進。在預防和規制方面,應以理性主義為指導,切實可行的將人工智能納入現有法律體系中來。
注釋:
① [美]戴維·魯本.《法律現代主義》[M].北京:中國政法大學出版社,2004:23.
② 馬長山.《人工智能的社會風險及其法律規制》[J].《法律科學》,2018,6.
③ [美]曼紐爾·卡斯特.《千年終結》[M].北京:社會科學文獻出版社,2006.
④ [以色列]尤瓦爾·赫拉利.《未來簡史》[M].北京:中信出版社,2017.