(西南石油大學法學院 四川 成都 610500)
自50年代以來,人工智能已經發展了幾十年,遠遠超過人類的預期,并出現了一些令人難以置信的新情況。例如,2017年9月,浙江警察破獲了該國第一起利用人工智能犯罪的案件。涉及的平臺使用人工智能技術快速識別驗證碼,攔截和銷售超過10億公民的個人信息,以便合作團伙進行在線欺詐。2015年7月英國《金融時報》報道了德國大眾公司的機器人“殺人事件”,一名工作人員被正在安裝的機器人突然起身抓起重重摔在金屬板上不治身亡。一個是利用機器人的自主學習提升識別能力實施的犯罪,另一起是由于機器人完全自主的行為導致的人員死亡。因此,人工智能所帶來的風險是可見一斑的,也對我們的現行法律提出了挑戰。根據傳統的分類方法,人工智能分為三個層次,主要包括弱人工智能作為工具,具有自主權的人工智能,以及超越人類的強大人工智能。
人工智能的現實風險,作為高精尖技術的運用,其影響主要表現在兩個方面,即側重于影響法律和社會道德以及侵犯個人隱私。首先是影響法律和社會道德。例如,2017年10月26日,沙特阿拉伯王國授予由美國漢森公司開發的智能機器人索菲亞作為公民。智能機器人的法律問題逐漸從純理論問題轉變為實際問題。索非亞的公民是否可以代表作為普通的人類公民的合法權利,法律義務和責任,沙特國王沒有做進一步的解釋和規定。由此帶來的倫理和社會問題存在極大風險。二是侵犯個人隱私,主要集中在人工智能通過識別,攔截,模仿,授權等侵入許多信息庫的方式,可以追蹤用戶的信息。從某種程度上說,在人工智能的臉,人們似乎透明,沒有任何隱私可言,個人信息已被嚴重侵犯,以及數據收集過程的公開性,透明性和合法性受到威脅。甚至在很多情況下,即使隱私權遭到了侵犯也沒有察覺,更談不上如何維護自身的合法權利。
吳沈括、羅瑾裕指出,現階段的人工智能面臨著技術和制度的雙重風險,主要是安全保障技術的不夠完善、高密度的關聯風險增加、安全責任歸則問題、技術標準不統一、與網絡安全監管不匹配等方面。筆者認為這個風險的關鍵在于技術的不確定性和復雜性,因為在高精尖科技領域,倘若調整不足或者引導不當就會造成不可挽回的損失,最終必定會危害到人類。目前出現的基因編輯嬰兒就是一個很好的例證,不僅嚴重違背了倫理和學術,而且一旦進入運用到商業領域,帶來的社會不公平和倫理問題會越來越嚴重。人工智能不同于一般的技術主要在于其自主能力和深度學習能力比很多科技都要強大,不確定性的原因主要在于人工智能的自主性越來越獨立,可以不依賴人類完成一系類的行為方式。在人類的發展歷史上,就人類這一個整體而言,并非都是可以進行自主約束的,每個人都是獨立具有自主意識的個體,當某些科學家或者研究人員背離了研究目的和宗旨,為謀求個人私利或者某種不具有普遍價值的追求的時候。他就有可能完全不受道德、倫理、法律的約束,進而違背科學技術研究的準則,利用機器人的一些超人類功能,創造出損害人類甚至毀滅人類的人工智能技術,最終導致無可挽回的后果。盡管根據馬克思歷史唯物論,人類的認識水平是不斷變化的,也是受制于歷史發展的制約,但是人工智能的智力水平可是無法估量的。許多學者認為人工智能始終是人類創造出來的,運用過程一直處在人類的控制之中,對于這類觀點不置可否,但是需要明確的一點就是人工智能的高級功能就是深度學習。這一點和人類相比,在某種程度上說,已經完全超過了人類,還有一點值得注意的就是人工智能在自主學習過程還會不斷改進具體的運算方法和優化性能,也就是說,人工智能是在模擬人類特有的學習功能,學習知識和技能,人工智能也在不斷地努力進步。可以看出,在未來,人工智能技術將變得越來越發達,甚至超過了人類的智力水平。如果人工智能的發展進入一個無序的狀態,必定會為社會帶來極大的危害。
人工智能是具有法律基礎的,著眼于人工智能發展可能會帶來的損害,無論是人工智能本身還是人工智能的智力成果的運用,我們的關注都在于未來的危害,因而民事責任是對人工智能進行調整的主要方式,從這一點上看,人工智能是屬于民法意義上的法律客體,也就是物本身。關于人工智能的智力成果法律地位,法學界和人工智能界對于其在民法上關于其分類有三種說法,分別是人、物和準人。人工智能變得越來越智能化,并與人類的差異正在逐漸縮小。在未來,它可能有一個生物的大腦。從法律制度的發展來看,人工智能的法律主體與權利的發展的歷史規律。有其他學者認為不應當賦予其獨立的民事主體資格,楊立新指出,人工智能的運行是由算法決定的,尚不具有自主意識,也不能獨立享有權利、承擔義務。所以仍然應該講人工智能納入法律客體范圍。筆者認為在人工智能飛速發展的時代,包括將來人工智能的發展會越來越超越人類的想象,人工智能永遠也不可能成為法律資格的主體,甚至于準人格主體都不可能,即使索菲亞具有公民的身份,也不能完全和人類一樣擁有正常的生命權、財產權和身體權等。換言之,人工智能只是人類的一個工具,永遠屬于物的范疇。在民事責任中,首先應當是劃清人的責任和物的責任,倘若是人的責任,被侵權的人可以采取直接讓侵權人承擔責任的方式,無論是因為違約還是侵權,都可以適用于人的責任。如果是對象的責任,它應該是所有者,管理者和使用者的責任,無論是直接造成的損失或間接損失,如建筑物,掛飾等,即使這是一種間接的行為,相應的管理人員應該承擔一定的責任和違約責任也不例外。當然,無論是人的責任還是物的責任,最終也只能由人來承擔責任,現在社會,絕不會出現像美國那樣由物來承擔責任的情況。澄清的設計者,生產者,銷售者和用戶之間的關系和責任,確定它是否是人工智能產品的責任或對象的責任,其次,確定相應的責任為己任根據人的責任或對象的責任,再次,責任實體的民事責任是準確地確定。總而言之,應當對人和物的行為進行劃分,然后明確相應的民事責任,不僅要制裁違法者,也要制裁同行者和其他人。
不可忽略的是現在人工智能的發展已經超越了我們的想象,由此帶來的問題也非常現實緊迫,民事責任在人工智能的發展中應該具有其基礎和核心地位,確定了民事責任的承擔主體,也就是可以規范人工智能新技術的發展,并且對現實風險進行管控,讓人工智能的運用和進步在正確的軌道上進行。按照法律設計的路線和規范,最大限度的減少人工智能帶來的一切不利影響,朝著有利于人類的方向發展,勢必最終會造福人類。在新技術的發展和運用當中,人類一定要清醒的認識到可能帶來的不確定因素,做好管控和規范。