姚天沖,周自達
(東北大學文法學院,遼寧沈陽110000)
在2019年1月,習近平總書記在十九屆中央政治局第九次會議上強調,加快人工智能發展是中國贏得世界科技競爭主導權的重要戰略抓手,是推動中國科技跨越式發展、產業優化升級、生產力整體躍升的重要戰略資源。[1]同年的3月份,李克強總理在政府工作報告中也強調,要深化大數據、人工智能等方面研發應用,培育新一代新興數字產業經濟。這些都說明新一屆領導人特別重視中國人工智能技術的研究和發展。
人工智能作為一項新技術,正在改變著社會政治、經濟、文化等諸多方面,同時也深深影響著法律規范的制定和實施。法律規范作為一種糾紛解決機制需要及時規制和解決人工智能發展過程中出現的問題。
在國際上,人工智能發展勢頭也很強勁。一些全球科技公司都在搶占人工智能領域的新高地。微軟科技巨頭公司已經制造出能夠自由創作詩歌的智能機,那么法律對于智能體的知識產權如何保護需要深入探究。人類最聰明的圍棋高手也敗在智能機器人手里。人工智能在深度學習、大數據、5G技術的支撐下得到了極大發展,人工智能技術已經逐漸應用到社會生活中,不斷智能化、自主化的許多智能機器慢慢走進人們的視野。
在國內,上海智能機器清潔工在漆黑的夜晚清掃著上海的大街小巷,武漢作為首個中國城市以軍運會為契機推動自主駕駛公交車在全市范圍內運營。除此之外,智能機器人服務員、保姆、律師也在研發當中。這說明智能機器已經應用到商業領域和日常生活中,這需要調整社會方方面面的法律規范,需要提前對人工智能問題進行規制。但是現有的以人類為中心主義的法律制度,很難去調整和約束人工智能機器行為。法律規范在面對人工智能犯罪和侵權問題時出現兩難的困境,因此,繼續去深入研究人工智能相關理論依據、主體資格和權責歸屬尤為重要。
在談智能機器人的相關法律問題之前,首先我們要談一些更為基礎的概念,這對智能機器人能否作為法律主體、承擔法律責任至關重要。在科學技術的進步下,智能機器人是否具備理性思維,智能機器人也是否具備感性意識,以及智能機器人是否具有自由意志等。[2]而這些都是在人工智能不斷智能化、自主化到強人工智能階段前提下探討的難題。
人們習慣把理性思維和感性意識作為人類特有的能力,動物正是缺乏思維和意識才比人低下。那么,要考慮智能機器人是否具有理性思維能力,回答這個問題需要了解人工智能發展過程中爭議的問題。[3]
“圖靈測試”①正是解決智能機器是否具備思維,甚至是否具備意識而設計的一個實驗。圖靈認為智能機器除了不具備人類一樣的活外觀,如果功能和行為與人類無法區分,那么智能機器就具有思維。但是塞爾不認同這個觀點,他提出“中文屋”②的思想實驗反駁圖靈。這個思想實驗是假設塞爾像智能機器一樣不懂中文,若有其他可操作的形式符號作為媒介,那么屋子里的賽爾能認識中文嗎?賽爾認為機器只能根據程序設定做翻譯,不具有自主性的思維判斷,不算有思維。
智能機器人是否應該賦予法律主體資格這一問題至今日都爭議不斷,但智能機器能夠理解編程語言,那么通過編程語言的轉換也可以理解其他語言。如果智能機器人足夠的智能和先進,它也有可能懂得人類語言背后的理性思維。但是理性思維是一種抽象之美,對于人來說,人類超越或升華了感性意識而具有了理性思維,那么智能機器人的一種完美程序編輯出來的理性或者程序思維與人類的理性思維有多大區別,這種區別對于機器人享有人格有無致命影響。
如果說理性的思維可以通過計算機編程可編輯,那么情感、知覺是計算機無法編輯的。機器人除了模擬人的身體部分動作外,內心的情感無法通過程序設計。因為情感是人類表達喜怒哀樂的生理機制,這些機制是無法量化為計算機的編程語言的。即使機器人越來越智能,那么機器人在智力能力上會超越人類,也可能使機器人更具有理性思維,但是機器人不會懂得對與錯的根源、是與非的界限、善與惡的分殊。就像機器人永遠不懂得什么是幸福一樣。這也引發出更大質疑,智能機器人是否有道德意識。智能機器只會自主地依據合理的指令作出行動,但無法自省地作出情感意義上符合道德的行動。
在2013年,具有多層神經網絡和“內分泌系統”的能夠感知人類情感變化或外部環境的智能機器人“胡椒”一上市就一售而空。[4]筆者認為,這種感知僅僅是計算機程序設計的結果。貌似一個乞丐受盡了人世間的冷暖,他為了生存向施舍給他金錢的人說謝謝或露出微笑一樣。在滿是編程語言的機器人眼里,向人類表現出來的情感式語言或動作在他們那里也僅是多加的一串代碼。正如療養院引進的陪伴兒童、老年人的智能機器人,在機器的思維表達里開發者設計了一些溫馨的情感式的話語,這不代表智能機器具有情感意識,真的會體會到快樂、悲傷。而這種不斷類人的感性設計,又會模糊人類與智能機器的差距,我們會懷疑智能機器人在不斷智能化、類人化的過程中他們已經具備了感性意識。如果這種感性的智能化是機器深度學習和自主學習的結果,我們會更加懷疑機器人具有情感意識。
如果這種感性的智能化是人類編程設計的,那么機器的編程開發者又可以去量化這種結果,人類就會知道智能機器的感性意識仍然只是設計出來的感性。但大數據和自主學習推動下的智能機器人感性過程的模擬學習,已經超出了人類編輯開發者的掌控之外,人類對智能機器人的擔憂和戒備是無法避免的,甚至與日俱增。
如果強人工智能機器人通過了圖靈測試,我們或許會承認機器人也有思維,但是有思維的機器人有自由意志嗎?我們探討了機器人有沒有理性,那么我們也要探討機器人有沒有自由意志。因為自由意志對法律規范至關重要,民法的締約能力,要求智能機器人在簽訂合同時要有獨立的意思自由。刑法在探討犯罪行為、犯罪目的、動機時也要考慮犯罪主體的自由意志。
自然人有了自由意志能做出符合法律和道德的事,除非有人用自由意志去報復社會。機器人有了自由意志或許做的事情也符合人類的道德,這是程序設計的結果,但是對于沒有感性意識的機器人來說這種道德不是機器人的道德,而是人類的道德。只有在機器人的世界里我們才需要區分有沒有道德意識,道德意識在某種程度上代表著能夠區別善惡,而人類的自由意志中理性的思維意志和感性的道德意識比較迷糊。
或許我們更深地懷疑機器具有意志,這種意志是否是自由的。人類的自由意志也不是絕對的自由,我們的意志受到客觀環境、教育程度的制約,但我們通過學習知識、積累經驗使自己比前人更加聰明,這也是我們的意志不斷自由化的源泉。機器人也一樣,其意志也受到開發者編程的限制?;蛟S正是人類這種近乎自由的意志發展出了人類的情感和道德,這種感性意識在面對復雜問題時又陷入沉思,例如我們來自哪里,我們要去哪里的問題,這使得人類需要擺脫感性意識去追求理性思維。如果機器人通過迭代學習能力不斷加強,有了自主性意識,突破了開發者編程代碼的限制,自主編輯了更加自由不受開發者制約的意志,那么智能機器人世界里或許也有了感性和道德意識。他們也因葉落知悲秋而惆悵,人類生離死別而難過。
如果智能機器有感性意識和理性思維,同時也具備簽合同的自由意志,那么法律或許對于智能機器的拘束與人類沒有多大區別。但是我們需要探討智能機器僅具有思維,可能具有感性意識的情況下在多大程度上享有法定權利、承擔法定責任,這又對智能機器法律行為的客體有多大影響,對社會產生哪些影響。這些都是需要仔細探究的,但這一切的一切都以智能機器通過“圖靈測試”具有類似于人的思維為前提。
智能機器通過了“圖靈測試”,那么說明機器也具有思維的。[5]簡單來說,如果沒有思維,智能機器不會將中文漢字轉變成編程語言的。這種思維像人類的理性思維,如果人類談到理性思維概念時能夠剝離其中的感性意識,在現實中這是做不到的。但是在智能機器人那里這是天然分開的。人類也想讓智能機器人的感性意識和理性思維糾纏在一起,這樣制造出來的智能機器人更像人了。但是智能機器人在現有的條件下無法擁有像人類一樣的喜怒哀樂的感性意識。那么在具有類人的思維前提下,智能機器將在社會應用中發揮多大價值,或許這種有思維的機器人在法律約束下會發揮更大價值。
法律其實是一個動態演變過程,自然人從成為法律主體到享受權利、履行義務再到最后可能的承擔責任是一個連續的過程。對于有思維的智能機器來說,那么法律賦予其法律主體資格,不論這種主體資格是電子人格、擬制人格還是有限人格,[6]這對機器來說也是否享有權利、履行義務或承擔責任。這說明智能機器已經進入法律的調整范圍之內,起碼智能機器所從事的法律行為會受到法律的調整。
在嚴格的理性思維下,我們探討智能機器人法律主體資格是有必要的,因為智能機器人具有理性思維是可能的,這也使得智能機器可以締約或作出意思表示的能力。如果智能機器人在擁有理性思維而不具備感性意識的情況下簽訂合同,或許我們將訂立合同的過程剝離成兩個要件,意思能力要件、表示能力要件。對于表示能力來說,我們無法在外貌上將智能機器人制造得和人類一樣逼真,讓和智能機器人訂立合同的法律主體以為自己就是和自然人訂立合同,但是法律賦予智能機器以擬制人格或主體資格,那么在簽訂合同的過程中,我們很難去知悉智能機器人表示能力具有瑕疵或者說智能機器的表示不是其理性思考下的表示。在這意義上,智能機器人的表示就是理性思維之下的表示。
同時我們要確信智能機器人的表示是真實的,因為程序設計比人類語言更精確,人類的表示可能存在虛假的情況,但是智能機器思維的單一性決定他不會存在像人類一樣的欺詐、撒謊行為,除非智能機器存在程序錯誤。那么對于意思能力,我們很難去界定沒有感性意識的思維過程中智能機器能夠懂得簽訂合同的意圖,簽訂合同意味著受法律規范的約束,而每一個法律行為都是一個動態的連續過程,意思能力中蘊含著承擔法律的后果。法律責任作為一種懲罰,讓沒有喜怒哀樂的智能機器去理解意思能力背后的懲罰是難以置信的。因此需要假設智能機器通過深度學習和自主學習可能具有感性意識,那么這使得智能機器人多大程度上理解法律責任的涵義又是很難界定的,這使得法律上僅有理性思維的智能機器訂立合同顯得特別困難,我們期望于智能機器能夠獲得感性意識。
對于有理性思維的智能機器人,法定的權利和義務對于他們來說又意味著什么。法律上的權利意味著一種自由,智能機器人能夠享受自由嗎?從一些具體的權利規定需要去具體探究這些問題。法律擬制主體的法人享有名稱權、榮譽權、名譽權,智能機器人在成為法律擬制主體下也應該具有這些權利,那么其他財產權和人身權智能機器享有嗎?說到身體權,我們好像聽到的是自然人只有此權利,那么智能機器人享有身體權嗎?智能機器的身體可以被破壞嗎?這種破壞算是對工具的破壞,還是對具有主體資格的電子人、代理人的破壞。那么破壞者多大程度上承擔法律責任。
如果從理性思維角度出發,智能機器也具有部分理性意識,但這種破壞不會使智能機器感受到疼痛,因為智能機器沒有感性意識。但是人不能總是以自己為中心主義,我們需要考慮智能機器的現實價值。那么智能機器可以享有人格權嗎?如果享有人格權,那么智能機器可以自由、健康而有尊嚴地、長久地存在嗎?我們到現在依然不認為智能機器人具有感性意識,所以我們不會去認為智能機器人可以自由、健康而有尊嚴地活著,在法律規范中“活”著更像是具有生命力的人類才適用。那么這種自由、健康而有尊嚴的存在,會使得智能機器人也需要生活在干凈舒適的環境里,因為生活在臟亂差的環境會損害智能機器的尊嚴。
如果智能機器有自由,那么我們也不能去剝奪智能機器的運行,我們不能任意地破壞他們,因為他們有自由運行權利,也就是有權像人一樣自由地“活著”。還有,智能機器人具有健康權嗎?我們對智能機器的系統需要保護,他們的運行機能也需要保護,這是不可想象的。許多權利都是以人類的視角規定的,所以我們會認為智能機器享有人所擁有的權利真的不可思議。但是智能機器作為有理性思維的智能體,他們需要權利來保護自己,或許這些權利不需要叫健康權、生命權,但可以叫完整權、運行權。
此外,智能機器僅有理性思維下需要承擔責任也是值得考慮的,更糟糕的是,我們無法確定智能機器自主學習、深度學習之后是否具有感性意識,如果我們測試智能機器的感性意識的設備缺乏準確性,可能導致智能機器在有感性意識下實施的違法行為,我們卻在法律上不能追究智能機器的責任,這是人類的悲哀。因為人類作為地球上最聰明最有能力的群體,對于智能機器的違法行為沒有規制手段予以處罰。即使人類在可控前提下發展人工智能技術,那么沒有感性意識的智能機器又能承擔多大責任。不論是民法和刑法責任,人身罰的懲罰對于智能機器沒有任何意義。[7]智能機器不會承擔了像監禁一樣的人身罰之后改過自新。對于金錢罰來說,還是無法避免人身罰一樣的效果,智能機器也還不會向人類一樣奪利。這些分析說明讓智能機器人承擔責任是不可行的。法律制度需要引進責任保險、責任基金以及其他制度來化解智能時代到來所產生的兩難風險。法律作為解決社會糾紛的手段,也需要迎難而上、主動出擊去解決現實問題。
在現有階段,像《黑客帝國》電影一樣的機器人反人類的場景不會到來,但是強人工智能對法律的沖擊無疑是巨大的。通過法律擬制智能機器人的法律主體地位,不論是電子主體資格、有限主體資格、代理人主體資格,然后對智能機器產生的社會糾紛囊括在現有的法律體系中。
從現有的法律責任制度來看,法律規范無法讓智能機器承擔相應的責任,因為沒有感性意識的智能機器不具有可譴責性。因此通過法律擬制解決智能機器的主體資格之后,急切需要的是通過責任保險、風險基金、公平承擔等法律制度的建立去化解強人工智能時代到來時,人工智能對社會秩序和法律規范帶來的嚴重沖擊。法律作為解決糾紛的主要機制之一,要有前瞻性地考慮人工智能發展過程中所發生的復雜問題。只有這樣,人類的未來才會可期待。
注釋:
①圖靈測試(The Turing test):由圖靈發明,指測試者與被測試者隔開的情況下,通過一些裝置向被測試者隨意提問。進行多次測試后,如果機器讓平均每個參與者做出超過30%的誤判,那么這臺機器就通過了測試,并被認為具有人類智能。
②中文屋(Chinese room):又稱作華語房間,是由美國哲學家約翰?賽爾(John Searle)在1980年設計的一個思維試驗以推翻強人工智能提出的過強主張:只要計算機擁有了適當的程序,理論上就可以說計算機擁有它的認知狀態以及可以像人一樣地進行理解活動。