浙江尹天律師事務所 陳建煜
人 工 智 能(Artificial Intelligence)簡稱AI,最初是由約翰·麥卡錫1956年在達特茅斯夏季討論會上提出的[1]。AI技術的核心目標是讓機器變得智能,使其具有類人的行為、類人的思考,從而能夠實現理性的思考、實施思性的行動[2]。近年來,我國人工智能增速發展態勢明顯,國內現有的開放型創新網絡有利于集成各種創新要素[3],同時技術多元化對創新績效也發揮出多重中介作用[4]。現如今,人工智能在工業生產、自動駕駛、醫療衛生、行政司法等各個領域的應用越來越廣泛。如果今后人工智能的實際應用數量進一步增長,那么在應用中致人損害的責任承擔問題將會凸顯。對此,部分學者已經開始關注,不少學者認為人工智能仍應當作為民法上的“特殊物”,由人工智能的所有者或使用者承擔致損責任。有學者提出“人格降等”理論,主張可以參照古代奴隸人格,由人工智能在限額的范圍內適度擔責,其余責任由其所有者承擔[5]。也有學者提出應當賦予其有限的法律人格[6],在符合條件的情況下,由人工智能自行擔責。
法律畢竟屬于保守之學,對人工智能之界定不可能基于想象。“法律的核心功能是維護社會規范性期望的穩定[7]。”法律要規制的是今日已存之事,適度前瞻雖然必要,但基于大量假設制定規則顯然是不可行的。在人工智能大力發展的今天,筆者認為,核心現實問題是如何分配人工智能的設計者、生產者、銷售者、所有者、使用者等的權利和義務問題。……