摘 要 人工智能本質上是互聯網技術發展的結果,須自覺完成與《網絡安全法》的融合。人工智能應用首先必須遵守“機器人三定律”和倫德道德的約束,不得突破“保障人類安全、追求公共利益”、“故障透明且可追溯”和“尊重和保護個人隱私”等基本原則。人工智能犯罪是升級版的網絡犯罪,其犯罪類型、犯罪構成及定罪量刑受現行刑法理論的調整,但對于惡意的、以犯罪為目的的濫用行為,建議在條件成熟時增設濫用人工智能罪,以期從源頭上防控刑事風險。
關鍵詞 人工智能 倫理原則 網絡安全 濫用人工智能罪
作者簡介:李曉瑜,中共鄭州市委黨校法學教研部講師,研究方向:憲政法學、刑事法學。
中圖分類號:D924 文獻標識碼:A DOI:10.19387/j.cnki.1009-0592.2019.01.097
一、人工智能發展現狀
(一)人工智能概述
人工智能(Artificial Intelligence),簡稱AI,該名詞于1956年首次被計算機學界提出,之后人工智能技術得以快速發展,并與基因工程、納米科學并稱為二十一世紀三大尖端技術。
通常認為人工智能是互聯網技術發展的一個表現。北京師范大學的喻國明教授認為,互聯網技術發展的上半場解決了網絡化問題,大數據技術得以快速發展,使得用戶的痕跡能夠依托網絡連接被精細化、動態化分類、描述,為互聯網的下半場奠定了數據基礎。面對個性化、分眾化的消費升級和人類智能探索的需求,互聯網的下半場突出體現為了大數據基礎上的人工智能應用。可以說,人工智能是一門集合了哲學、計算機學、倫理學、數學、語言學、神經科學、法學等等多種學科特點的綜合性學科,覆蓋數據處理、機器學習、模式識別和智能算法等多重技術手段,主要應用在智能感知、智能推理與學習、智能行動等領域,具有強烈的創造性、精準性、自主性和交叉性。
隨著AI技術的快速發展和資本推動,人工智能應用已進入“全面爆發期”,根據麥肯錫統計,人工智能全球風投已從2012年的5.9億美元增至2016年50多億美元,全球從事人工智能應用相關的企業逾6000家,而國內相關企業已達1000余所,數量上僅次于美國。預計到2025年,全球AI應用市場總值將達近1300億美元。據統計,2017年國內AI市場產業規模已達300億,2018年有望突破380億,復合增長率近27%。截至2017年底,國內AI專利申請累計逾16000項,位居全球第二。目前國內AI產業主要集中于長三角、珠三角、京津冀地區,這三大集中區的企業數量約占全國總數的3/4強。
當下人工智能應用比較活躍的是AI芯片開發、無人汽車駕駛、智慧醫療、智能交通、智能投顧等領域。AI芯片開發目前仍由Intel、Google、IBM、高通等巨頭為主,我國當前的芯片設計研發能力仍處于初級的開發探索階段。美國無人駕駛的技術研發更加先端,但在行業應用中同樣面臨法律制度和交通基礎配套設施、標識等滯后的問題。依托共享數據的人工智能醫療影像診斷、機器問診、人工智能律師、AI金融客服、智能機器人陪護等應用,亦逐步深入市場。國內外知名高校科研機構如麻省理工、斯坦福、吉林大學等均建立不同類型、綜合不同交叉專業的實驗室、研究所,加快人工智能研發力度和人才培養。
(二)人工智能應用的倫理原則與法制探索
有學者曾將人工智能的發展形態分為弱人工智能、強人工智能和超強人工智能三種形態,并認為現階段我們仍處于弱人工智能階段,人工智能技術牢牢受到人類的操控和制約。著名的科幻作家阿西莫夫在《我,機器人》一書中曾提出“機器人三定律”,并得到全球公認:(1)機器人不得傷害人類,亦不得在人類受到傷害時置之不理。(2)機器人必須遵守人類指令,除非該指令可能違背第一條定律。(3)機器人得保護自己,前提是保護過程中不違背前兩項定律。作家阿西莫的“機器人三定律”僅僅是科幻愛好者的一家之言,雖得到廣泛認同,但畢竟不是經過國家法律認可的制度性規范或法治原則,同時也未能覆蓋到當下人工智能技術開發中的“自主意識”、“自主能力”等新的倫理、法律問題。
2014年6月,歐盟啟動《歐盟機器人研發計劃》,2016年10月歐盟法律事務委員會發布《歐盟機器人民事法律規則》,初步指出人工智能民事法律問題框架。2016年9月英國下議院科技委員會發布《機器人學與人工智能報告》。2016年美國專門成立Nitrd人工智能專項小組,以政府名義要求大專院校將倫理學與人工智能、計算機科學和數據科學等作為整體課程,截至2017年底美國已有23個州制定40余部“自動駕駛汽車法案”。日本政府2015年發布《日本機器人戰略:愿景、戰略、行動計劃》,亦重點強調人工智能與倫理法律的結合。隨著2015年“中國制造2025”、2016年《機器人產業發展規劃(2016-2020年)》、2017年《機器人行業白皮書》、《新一代人工智能發展規劃》和《網絡安全法》等國家級規劃、法律的出臺,人工智能技術與網絡安全、倫理道德、法律監管的構建完善工作日益得到重視。
2016年,聯合國教科文組織與世界科學知識與技術倫理委員會曾聯合發布一份關于AI機器人發展與社會倫理道德的報告,分別從網絡安全、隱私保護、誠信公平等方面進行了研究論證。2017年美國加州阿西洛馬會議上多位AI領域專家聯合簽署了“阿西洛馬人工智能原則”,要求人工智能的研究目的必須緊緊圍繞“服務于人類并為人類所控制”,必須遵循“保障人類安全,追求公共利益”、“故障透明且可追溯”、“尊重和保護個人隱私”三項倫理原則。這三項原則成為目前人工智能發展與應用中被廣泛遵守的基本原則。
二、人工智能與網絡安全法的融合
誠如前文所述,人工智能是互聯網技術發展的“下半場”,其本質是計算機技術之分支,人工智能應用也首先遭遇網絡系統的安全問題,其法律治理首當其沖。以最受AI愛好者關注的無人駕駛為例,汽車的駕駛系統有可能遭遇來自云平臺、移動端或者汽車端的網絡黑客攻擊,通過盜取賬戶密碼等方式控制操作或改變設置,從而帶來巨大安全隱患。2016年挪威某安全公司的工作人員就曾經通過入侵用戶手機獲取特斯拉APP密碼,對用戶車輛實施定位、追蹤、解鎖、啟動等操作,導致車輛被盜。而在2016年美國總統精選中,巨量的政治機器人被用于精準信息推送和虛假新聞發送,直接影響選情。人工智能的應用越來越廣泛,其網絡安全規制迫在眉睫。
根據《網絡安全法》和人工智能的特點,傳統的人工智能網絡安全主要聚焦于網絡系統安全、計算機算法透明度與問責性以及網絡數據隱私的保護等方面,而以人工智能硬件的屬性、供應鏈責任承擔等為基礎的新生系統風險則直接面臨與《合同法》、《網絡安全法》等法律的融合問題。
(一)人工智能硬件應用生產者的主體資格
《網絡安全法》將網絡運營者納入到網絡安全法網當中,并分別規定了各自的權利義務。根據該法第76條的規定,網絡運營商包括網絡所有者、網絡管理者和網絡服務提供者三方,顯然人工智能硬件生產者完全可以被排除在網絡所有者和管理者之外,那它是否屬于服務提供者呢?縱覽《網絡安全法》相關配套法規不難發現,我國《信息安全技術網絡安全等級保護定級指南》將物聯網明確納入其中,認定物聯網屬于網絡運營者。但是依照《網絡安全法》對物聯網中網絡服務、產品的審核范圍,其審核的對象主要集中為“重要產品”而非全部產品,所涉種類甚少,人工智能硬件作為物聯網的組成部分之一,雖包含操作系統、內置CPU、傳感器等技術,但并未有相關法律解釋或配套規范明確其是否為“重要產品”之一,對此法律適用過程中不可任意作擴大解釋,亟需相關部門從技術標準、評估認證、漏洞監測與披露等多個層面明確之。
(二)人工智能硬件應用的供應鏈責任承擔
縱覽《網絡安全法》、《網絡產品和服務安全審查辦法》、《工業控制系統信息安全防護指南》等相關法規,關于供應鏈各方的責任承擔問題規定得并不甚明確。依據《網絡安全法》第76條第3款的規定,供應鏈中僅設計了網絡運營者、產品服務提供者,而不包括供應商,如果人工智能硬件的生產者不具備《網絡安全法》主體資格,則其當然也被排除在供應鏈之外。但從商品生產、流通的角度來看,生產者顯然是產品交易過程的首要環節。以智能網聯汽車為例,其供應環節中當然包括了車載操作系統、車載應用軟件等智能硬件應用,當這些硬件應用出現重大系統安全風險時,如果是硬件生產者的明顯過錯所致,而仍將其排除在責任承擔主體之列,顯然與法治精神不符。
三、人工智能與刑法的因應
(一)人工智能犯罪是升級版的網絡犯罪
2016年9月中國境內發生首起特斯拉無人駕駛汽車肇事致人死亡案件,2017年9月紹興市破獲的特大侵犯公民信息案被稱為全國首例“利用人工智能犯罪”案件,刑法對人工智能的回應正式擺上了臺面。但縱觀人類犯罪史,犯罪的根源還是在于人自身,人工智能時代的犯罪歸根結底是人類利用互聯網科技的犯罪,是升級版的網絡犯罪。
人工智能犯罪涵蓋對人工智能犯罪和以人工智能為工具的犯罪兩大類,尤其后者,使得傳統的犯罪“插上了科技的翅膀”,通過對大數據的濫用或“欺騙”人工智能機器人,誘發犯罪后果的量變、增加預防難度。刑事法領域需要著力的一是對人工智能研發人員以犯罪為目的的或違背倫理道德的行為加以刑法規制,二是對人工智能應用過程中的配套的規則進行約束,如數據信息合法收集利用、道路交通規則嚴格遵守等方面的刑法規制。
眾所周知,刑事犯罪依據犯罪主觀方面劃分為故意犯罪和過失犯罪兩大類。以犯罪故意為主觀方面的人工智能犯罪,如以犯罪為目的的人工智能研發者,在進行設計、編程時即將自己的犯罪計劃植入計算機算法或程序中,依托機器人的程序化操作,一步步實現其詐騙、盜竊、殺人、間諜等犯罪目的。此時的人工智能就是典型的犯罪工具,其詐騙、盜竊、殺人、間諜等刑事責任自然應當由研發者承擔,應當將智能機器人看作行為人實施犯罪行為的“智能工具”,所有刑事責任應當由智能機器人的研發者或使用者承擔。以犯罪過失為主觀方面的人工智能犯罪,突出體現作為無人駕駛汽車交通肇事等犯罪形態,人工智能機器人的操作者、管理者基于疏忽大意或過于自信的過失,未能盡到預見義務或者已預見但輕信犯罪結果能夠避免,對此由人工智能的操作者在刑法明文規定的范圍內承擔相應的刑事責任。
(二)必要時增設濫用人工智能罪
人工智能的應用往往是為了應因人類的需求,尤其是高端智能機器人如2010年研發的生活伴侶機器海豹“帕羅”、菲比小精靈、機器人配偶等,甚至“帕羅”還獲得了“戶籍”。但是人工智能的應用也不排除被認為濫用的危險。如果人工智能的研發者、管理者不能嚴格遵守“機器人三定律”和倫德道德,為一己私欲利用人工智能實施危害國家安全、危害人類安全等嚴重犯罪時,該人工智能的研發、應用就猶如隨時可能引爆之炸彈,后果不可估量。對此建議將其預備犯形態獨立化,增設“濫用人工智能罪”,從源頭上嚴控刑事風險。
參考文獻:
[1]黨家玉.人工智能的倫理與法律風險問題研究.信息安全研究.2017(12).
[2]劉憲權.人工智能時代的刑事風險與刑法應對.法商研究.2018(1).
[3]黃云波.人工智能時代的刑法機能.人民法治.2018(6).
[4]王肅之.人工智能犯罪的理論與立法問題初探.大連理工大學學報(社會科學版).2018(5).