趙建營
(澳門科技大學,中國 澳門 999078)
當前,人工智能通過深度學習,其核心運轉模式可以突破人類在創造該人工智能時預設的框架,基于其獨特的運轉模式自主決策行為,這些行為可以是依據人類發出的指令而做出的,也可以是基于其運轉模式自主決定的。人工智能技術正在逐步走向完善,促進社會各個領域的發展,但其帶來的負面影響和法律問題也不容忽視。現行法律規范并未明確人工智能是否具有法律主體地位,法學界有關其是否應當具有法律主體地位的討論也尚未達成共識。基于此,為了規范人工智能技術發展,有必要遵循人們認知人工智能的技術性邏輯,依據其智能化特征,來探究人工智能的法律主體地位問題。
人工智能是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的技術科學。人工智能是計算機科學的一個分支,旨在了解智能的實質,并生產出新的能以與人類智能相似的方式作出反應的智能機器。其研究領域包括智能機器人、語言識別、圖像識別、自然語言處理、問題解決和演繹推理、學習和歸納過程、知識表征和專家系統等。人工智能包含兩種基本屬性,即工具性和智能性。
人工智能的工具性。研究者為計算機書寫算法程序時通過模擬人類大腦構造與人類思維方式,以求讓人工智能處理數據的機制與人類依靠人類獨有的神經網絡處理數據的機制類似甚至相同,最終讓這樣的計算機代替人類進行某項工作。人工智能的研究目標是人為地制造一種處理數據方式類似人類處理數據方式的,思考方式類似人類思考方式的,通過特定方式輸入指令后自主完成任務的一種輔助人類生產生活的工具,歸根結底人工智能是作為一種“手段”而存在的,是為人類達成“目的”服務的。
人工智能的智能性。智能性是指人工智能可以依靠自己收集到的外界數據,不受使用者干擾地做出自己的決策,并最終發展出其獨一無二的行為模式的能力。傳統機器被定義為工具,因其僅能在人類的操控下按既定的程序逐步推動任務的進度,即便有一定的智能也是在既定框架內運算出來的結果,這種智能是人類賦予的而非其自主發展得來的智能,不是獨屬于機器自己的。然而,深度學習理論的出現賦予其自主決策的能力,讓其發展出難以讓人預測到的、獨特的運行規則,打破了人們對機器應用技術的認知。深度學習是指通過組合數據低層特征形成更加抽象的高層表示屬性類別或特征,通過對數據分布的表面特征的歸納整理,讓機器自主發現數據的特征,以達到讓機器學會檢索或分類目的的學習方法[1]。在這一過程中,人工智能將不再受到既定框架的限制,并構建自己的運行規則[2]。
從人工智能技術的發展歷程和演進規律來看,人們將其技術的發展劃分為三個階段:弱人工智能、強人工智能和超人工智能階段。
弱人工智能(Weak AI),也被稱為狹隘人工智能(Narrow AI),是指僅具有較低等級的智能性,使用計算機語言模擬簡單的人類思考方式,并通過這樣的思考方式總結在解決某類問題時通用的行為模板,再以這樣的行為模板來解決各種問題的一種人工智能。當前,弱人工智能主要運用在問題求解、邏輯推理與定理證明、人工神經網絡、自然語言理解、模式識別、機器人學、機器學習、機器視覺等已有既定行為模板的領域進行問題的求解,在大數據的支撐下甚至能完成司法審判、新聞編輯等強調獨創性的工作,提高人類工作效率。弱人工智能不同于傳統的計算機裝置,具有一定程度的智能性。弱人工智能可以做一些簡單的行為,但其行為是按照已經設定好的框架來完成使用者發布的任務,如果脫離使用者,弱人工智能無法自主決定接下來的行為。
強人工智能(Strong AI),也被稱為通用人工智能(Artificial General Intelligence),是指在思維方式和思考模式上與人類相差無幾的智能計算機,擁有極強的計算能力和自主能力,在強人工智能不斷深度學習后,其會擁有等同人類的“自主意識”,不僅能夠在算法框架內運算,還可以通過不斷地收集和研究數據,在人為設定的框架外做出決策。強人工智能能夠使用與人類相似的思維模式對問題進行推導和思考,并得出自己的解決方案,逐步產生獨立于人的意識體系。強人工智能作為已經可以深度學習的人工智能,在運轉初期其展現出來的特性與弱人工智能差距并不明顯,經過一段時間的數據學習后,強人工智能展現出來的自主性與弱人工智能有很大的區別,強人工智能可以像人類一樣思考,可以自主決策其后續行為,但其載體不像正常人類一樣具有專屬性和不可替代性[3]。
超人工智能作為人工智能發展的終極階段,我們應當秉承發展的觀點對其進行研究。牛津大學尼克·博斯特羅姆教授提出的超人工智能,是指已經具有自主意識,且行為模式與正常人類幾近相同,但不論是其計算能力、科學技術、學習能力以及社交能力都遠超人類平均水平。超人工智能作為人工智能發展的最終階段,其思考方式與正常人類無異,擁有自主意識,能在不斷學習的過程中產生對外界環境的獨特感知,在這樣的感知作用下,其行為受主觀與客觀因素影響,與人類行為方式無異。
前文已述,人工智能具體分為三個技術階段:弱人工智能、強人工智能和超人工智能。然而,從人工智能技術特性和階段來看,當前有關人工智能法律主體地位的學說觀點都沒有將這三種形態的人工智能分別討論,而是將人工智能看作一個整體來探尋是否應該賦予其法律主體地位。這明顯忽略了不同階段人工智能的技術差異,脫離了作為評價之事實基礎的人工智能技術本身。
電子人格說指將人工智能視作具有人格的電子產物,賦予其一定程度的權利并讓其承擔一定責任。該學說認為,人工智能與傳統的機器裝置不同,其行為模式是自己在獲取數據、處理數據中不斷形成并完善的,具有一定程度的智能性,在部分與人工智能相關的事件中,人工智能是行為的實施者而非行為結果的承擔者,因此不應將其簡單地認定為法律關系客體。我們可以將人工智能視作民法上的限制行為能力人,賦予其獨立但不完整且受限制的“法律人格”,在法律根據其智能性特征,賦予其“電子人格”,這一人格不等同于自然人“人格”,自然就無法享受與自然人等同的權利,但可以享受部分權利并承擔部分義務。
電子人格說將自主性作為判斷人工智能是否具有法律主體地位的標準,卻在一定程度上忽略了其工具屬性,人工智能的創造歸根結底是帶有一定目的性的,不能忽略其工具屬性而去賦予其法律主體地位。人工智能因其技術差距,在生產生活中會有不同的作用。例如,弱人工智能可以在人類既定框架內高效地完成任務;強人工智能在進行深度學習后,在一些特定領域可以將其視作自然人同時享有權利承擔義務;超人工智能因其特性在其誕生之時就可以視作正常人類參與社會生產生活。在這樣的情況下,僅將自主性作為判斷人工智能是否具有法律主體地位的標準,也存在偏差。
“電子代理人”一詞最早見于美國法學會和美國統一州法全國委員會擬訂的《統一計算機信息交易法》。1999年8月,美國統一州法全國委員會通過的《統一電子交易法》(修訂稿)第2條也有關于電子代理人的定義,“電子代理人”系指非經人的行為或審核,全部或部分獨立地發起某種行為或應對電子記錄或履行的計算機程序、電子手段或其他自動化手段。電子代理人說認為,人工智能所做的一切行為都未經人的行為或審核,是一種廣義上的代理行為,并在法律上認定其有一定的代理行為能力,能夠以被代理人利益為出發點實行部分代理行為。各國代理制度中明確規定,只有具有一定行為能力的民事主體才有代理權限代替他人行事,該學說承認人工智能在部分民法領域內的法律主體地位。人工智能作為代理人可以替被代理人發起某種行為,但其行為不得違反被代理人預先設定的限制及法律且不得損害被代理人利益。過去機器人一直都只被當作一種人類使用的“工具”,究其原因,其根本不具有自己的理性認識,沒有獨特的思維傾向,其思維程序都是人類提前設定好的。隨著時代的發展,人工智能技術的成熟,機器人可以逐步產生并完善自己的思維方式,擁有了獨特的思維傾向,其行為就附帶著一定的目的性,這意味其已擁有類似人類的思維方式,能作為參與者參加各種各樣的社會活動。此時,人工智能可以認定為委托代理型代理人,但代理關系僅存在于人工智能正常運轉時。
電子代理人說將人工智能與人的關系視作代理與被代理關系,賦予其在民事上有關簽訂合同等行為的權利,作為代理人參與進民事關系從而獲得法律主體地位。在弱人工智能階段,其享有幾乎等同于被代理人的權利,但難以充分發揮這些權利的作用,對弱人工智能來說這樣的權利及規定就是擺設,且僅在民事方面對人工智能法律主體進行探究,并未對其他法律領域中的人工智能法律主體地位進行探究,但由于人工智能會在人類生活的各個領域產生影響,僅在民事方面對其進行研究,如若涉及刑事或行政方面,該學說并不能很好地解決問題。
工具說是指將人工智能視作人類完成某項任務的工具,一切行為都只是完成任務的行為,不將其作為置入法律關系中進行評價。該學說認為人工智能的行為是完全由人類的指令控制的,其行為模式是由人設計的計算機語言經過邏輯推導得出的,不具有與人類相同或相似的思維方式,缺乏獨立自主的意識和思維[4]。工具說將人工智能擁有者置于掌控者的位置,掌控著有關人工智能的所有行為,將其一切行為都視作擁有者意志的外延來保護其利益,即便人工智能做出一些不同于擁有者意志的事情,也將其視為擁有者意志支配的行為。工具說不承認其獨立自主性,認為人工智能只是人類制造出來完成某項工作的產物(工具)。
工具說將人工智能置于法律關系客體的位置,將其行為全部視作擁有者意志支配的行為,僅關注其作為工具被支配的一面,忽略智能性在人工智能相關事件中起到的作用,簡單地將責任全部歸咎于人工智能所有者,會導致歸責超出法律應有的含義,同時也不利于科技發展。在人工智能誕生之初即弱人工智能時期,機器人自主性不高,工具說的支持者認為其只是一個人類創造的工具是無可厚非的,且這樣的學說與當時的人工智能發展程度相適配。作為需要以使用者指令作為開啟運轉的一種自動化程序,其行為模式、行為結果都無法超越早已預設好的框架,弱人工智能的行為實際上是可以預測的,并無類似人類行為的不可預測性,因此弱人工智能的行為實際上就是使用者意志與事先預設的框架相結合的產物。隨著現代信息技術的發展,尤其是強人工智能的逐漸出現,其具備一定的學習能力和修改自己行為的能力,若仍將人工智能僅僅視作工具,就顯得不合時宜。
由于人工智能技術是在不斷發展的,弱人工智能、強人工智能、超人工智能各自具備的自主性、智能程度存在很大差異,用弱人工智能的標準來限制強人工智能乃至超人工智能,無疑會限制強人工智能和超人工智能發揮作用。反過來,用超人工智能的標準來衡量弱人工智能,但弱人工智能沒有與之對應的能力,即便賦予它諸多權利也無法使用這些權利,造成權利的泛濫。因此,在探究人工智能法律主體地位時,應當緊扣人工智能的技術特性進行分析,緊緊圍繞不同人工智能在技術水平上的差異進行類型化分析。
弱人工智能的出現主要是幫助人類解決特定問題,包括但不限于圖像識別、機器翻譯、自然語言等領域,其行為方式、過程主要由人類在其事先的編程框架內完成,不存在人工智能自發地、在既定框架外的行為。因此,筆者認為,弱人工智能不應當具有法律主體地位,應當將之定位為法律關系客體,具體理由如下。
第一,弱人工智能無法如同正常人類般思考。它的一切判斷是基于既定程序進行邏輯運算的結果,雖然可以在某方面模擬人類的感情,但這樣的模擬無法被視作“人類的思考”。首先,弱人工智能無法像人一樣對外界進行感知,只能得到客觀的認知結果,但人在感知外界環境時會有一定的主觀因素摻雜其中。其次,弱人工智能基于對外界的認知不會產生相應的感情和特定的意志。人會有思想、情緒、價值判斷等相對主觀的情感,這些情感會引導人類的行為,且這些情感會使得人在發起行為的過程中追求或好或壞的結果,但弱人工智能的行為不會受到這類因素的影響,弱人工智能的行為全都是基于編輯好的程序,接收到相應刺激或信息時就會按照既定的算法、特定的程序完成相應的判斷,做出特定的行為。綜上所述,弱人工智能沒有能力在設定范圍之外自主進行信息處理并做出相應行為。可見其意志并非獨立,無法產生權利義務意識,而是在人的控制之下完成一系列行為。
第二,弱人工智能無法享有權利。在弱人工智能領域,其自主性幾乎為零,即便享有權利也無法對權利加以利用,無法像正常法律主體一般,享有權利后自主的使用權利并維護自己的合法利益。由于是在人為操控下完成部分任務,人工智能的行為僅能看作人類意志在機器上的延伸,通過對機器的控制實現人類意識的現實行為化。
第三,弱人工智能無法履行義務。弱人工智能的意識終端是人工設立的、已有既定框架的運行程序,其行為完全受控制者或已設定好的程序支配并無自主因素,在造成一定影響后,其行為因為無自主意識的支配,應當將其視作工具,無法單獨承擔責任,應當以主導者即(支配人)為責任主體來承擔行為產生的義務。弱人工智能僅作為工具,可以作為主導者的附屬物,承擔部分義務。
綜上,弱人工智能無法如法律主體一般享受權利亦無法獨立承擔義務,僅可視作其支配者的附屬物,在法律關系中屬于客體的“物”的范疇,不能作為法律主體。
強人工智能的出現主要基于機器深度學習技術的完善,當該技術完善后,雖然強人工智能在初期僅能在算法框架內得出結論,但是在經過一段時間的學習后,其行為模式可能會超出既定的算法框架,創造出獨屬于該人工智能的行為模式。在此情況下,其是否可以取得法律主體資格就值得討論了。
第一,在享有財產性權利及請求權的場合,強人工智能應當具有法律主體地位。強人工智能在經過初期階段的算法框架限制之后,深度學習階段與人類智力成長及學習知識的過程類似。通過學習,強人工智能會得到類似于正常成年人的思維模式和行為方式,這個時候該人工智能可以像正常成年人一樣享有權利。強人工智能既然擁有了類似于正常成年人的行為模式和思維模式,且有智能這一人類的重要特性,在其行為時就可以將其作為法律上的人來對待。根據其行為產生的各種利益在法理上都應當歸屬于創造利益的行為人,那么這些利益都該歸該人工智能單獨享有,自然而然地其就享有對這些經濟利益的控制權[5]。雖然人工智能所作行為產生的利益最終會歸屬于該人工智能的實際控制者,但是仍然能夠從其勞動中獲得相應利益,在這樣的經濟利益還未交付實際控制者時,由其行為產生的利益仍然在該人工智能的控制之下。經濟利益的控制權,也可以認為是強人工智能的財產所有權。
第二,在享有人身權利的場合,強人工智能不具有法律主體地位。因為身體是人類存在物質世界的外在表現形式,是人類意識獨一無二的載體,當這樣的載體受損時,自然應當對損害行為進行制裁、對實施損害行為的人進行制裁,這樣才能顯示人類對身體這個獨一無二、最具專屬性的事物的重視。因此各國法律都對人類的身體設置各種各樣的權利來保護身體免受他人乃至自己的傷害,對侵害身體的行為有相對完善的處罰機制、事后保護機制,這一切的根源都是這獨一無二的身體。眾所周知,人工智能的核心在于其創造者在計算機上為其寫下的代碼,之后的一切,不管是深度學習功能的實現,還是產生的大量數據和基于這些數據形成的獨特的行為模式和思維模式,其基礎都是這些代碼,代碼作為一種計算機語言,是可以在不同的計算機中流轉的,也就意味著強人工智能可以使用“身體”去發揮創造者為其設定功能,它的思維和“身體”并非緊密聯系在一起的,代碼作為思維核心可以不斷地更換“身體”且不會影響其功能的正常發揮。當“身體”失去代碼作為思維來控制做出一系列行為,這樣的“身體”就僅僅是精密的工業物品,不具備任何智能。
第三,在承擔與人身權利相關的義務的場合,強人工智能也不具有法律主體地位。若是承擔賠償、返還原物等與財產性權利相關的義務,強人工智能具有法律主體地位;若是承擔法律規范或者法律文書確定的與人身相關的刑事義務時,強人工智能也不具有法律主體地位。人工智能是可以自主創造經濟價值的。如前文所述,人工智能可以擁有獨屬于自己的財產,那么當其真正侵犯他人合法權利時且這樣的侵害只需要承擔經濟上的義務之時,該人工智能完全可以用自己的財產對被侵權人進行補償。在傳統的義務履行機制中,只要侵權人履行了義務,就可以視作侵權人承擔并已履行該義務。那么,當人工智能作為侵權者對被侵權者做出返還原物、賠償損失等行為之時,是否可以看作是人工智能履行義務呢?履行義務的前提是承擔義務,那么對于人工智能來說,它履行義務的實質就意味著它是作為義務的主體的。在這種情況下,人工智能作為義務的主體自然是能夠承擔義務并以自己的能力履行義務的。人工智能的核心是其內部的代碼形式,代碼是虛擬產物可以在虛擬世界進行流轉,而身體只是代碼的一個承載物,當傳統的、與人身相關的義務產生時,由于現今的科學技術無法做到真正限制虛擬產物在虛擬世界的流轉,即便把強人工智能的載體限制在一定區域內,只要這個區域還有相關虛擬世界接入口,其可以自由地在虛擬世界流轉,這樣的限制對人工智能來說并無任何不利影響,也就失去了承擔該類義務的預防和教育意義。
綜上所述,強人工智能可以享有有關財產性權利并承擔與財產性權利相關的義務,但是由于意識和“身體”的非緊密結合,有關人身方面的權利和義務強人工智能無法享受和承擔。換言之,在與財產相關的場合,強人工智能具有法律主體地位;在涉及與“人身”相關的場合,強人工智能不具有法律主體地位。
掌握了深度學習后的強人工智能,在經歷相對較長的學習之后,利用其遠超人腦的計算能力可能進化到超人工智能。面對一個在各個方面都遠超人類的超級大腦,我們賦予其各個方面的主體地位,運用法律手段對其行為進行限制,不讓它濫用自己的超高智能,這似乎是在超人工智能出現時我們唯一能做的。
超人工智能具備實質性的獨立意識。超人工智能作為人工智能發展到頂尖階段的產物,它已經可以做到如同人類般思考。這樣的思考會讓超人工智能的行為完全脫離人類的指令,它可以自主決定自己的所有行為,這種情況下,超人工智能的行為與人類的生產生活行為沒有本質區別。
超人工智能可以享有權利。前文提到超人工智能在誕生之時就會獨立思考,自主決定自己的所有行為,作為一個擁有自己獨立意志的個體,其一切行為都無法被約束,具備理性意識并且能夠按照理性意識來支配自己的所有物、行為,那么當其作出一些行為而產生經濟利益之時,因其獨立的行為,這樣的經濟利益理所應當地歸超人工智能享有。經濟利益歸屬超人工智能后,自然其就可以享有對這些利益的所有權、支配權、請求權等權利,在享有這些權利后,超人工智能就可以用這些權利更好地維護其合法利益。在人身權利方面,超人工智能的本質是虛擬產物,因此其代碼本身是沒有人身權利的,但當其控制的載體受到損害時,可以將損害行為視為一種侵犯超人工智能財產權的行為,從而保護其載體的“人身安全”。
超人工智能可以承擔責任。超人工智能因其可以獨享其經濟利益,承擔與財產相關的責任當然是可以的。當超人工智能需要承擔人身相關的責任,如因刑事犯罪而依法應當限制其自由時,超人工智能沒有固定的形態,其本質是一種代碼生命,其可以如人類般思考。因此,若想限制其自由,可以將其限制在某一個載體中,并讓其意識到這是某一種“刑罰”,待“刑罰”執行完畢后,再解除其限制,這樣就可以使其承擔與“人身”相關的責任。
本文主要以人工智能法律主體地位為研究對象,以類型化考察作為研究方法,探究人工智能三大階段在法律關系中的地位,得出結論:弱人工智能不具有法律主體地位;強人工智能在有限條件下具有法律主體地位;超人工智能應當具有法律主體地位。本文僅用一種方法對人工智能的法律地位進行探究,存在一定的漏洞。因此,在后續研究中,應當采取多種方法對人工智能的法律地位進行研究。