文 《法人》記者 李立娟
人工智能的發展是科技進步的必然產物,無論是標準化技術建構還是法律建構都處于初級層面,我們要做的是良性運用,而非魯莽發展
北京時間6月8凌晨,Google CEO桑達爾·皮查伊宣布了他們使用人工智能的七項原則,以及四條底線。
這七項原則是:對社會有益;避免制造或者加深不公平的偏見;在開發中進行測試以確保安全;對人類負責; 隱私原則; 堅守對卓越科學的追求;在使用中考慮首要用途、技術的獨特性及適用性、使用的規模這三個因素。
四條底線是:對于那些將產生或者導致傷害的整體性技術,確保其利大于弊,并將做好確保安全的相關限制;不會將AI用于制造武器及其他將會對人類產生傷害的產品;不會將AI用于收集或使用用戶信息,以進行違反國際公認規范的監視;不會將AI用于違反國際法和人權的技術開發。
人工智能的發展已經成為大勢所趨,我國《新一代人工智能發展規劃》(2017)和《人工智能標準化白皮書》(2018)的印發和實施,中國國家層面的人工智能戰略走向了前臺。
人工智能的迅速發展影響是二元的,將會深刻改變人類社會的現有結構,成為新一輪產業變革的核心驅動力和競爭對象。當然,因為變革,引發的一系列法律挑戰也是不可避免的。
“從歷史發展角度來看,人類試圖制造出能模擬大腦的機器已經很久了,人工智能并不是一個新領域,只是在這幾年里迅速地熱了起來。近60年來,人工智能已經經歷了三次浪潮。”鯨準研究院分析師張伊聰對《法人》記者說。
第一次浪潮,20世紀50年代的達特茅斯會議確立了人工智能(AI)這一術語,人們陸續發明了第一款感知神經網絡軟件和聊天軟件,證明了數學定理,人類驚呼“人工智能來了”“再過十年機器人會超越人類”。然而,人們很快發現,這些理論和模型只能解決一些非常簡單的問題,人工智能進入第一次冬天。
第二次浪潮,20世紀80年代Hopfield神經網絡和BT訓練算法的提出,使得人工智能再次興起,出現了語音識別、語音翻譯計劃,以及日本提出的第五代計算機。但這些設想遲遲未能進入人們的生活之中,第二次浪潮又破滅了。

第三次浪潮,隨著2006年Hinton提出的深度學習技術,以及2012 年ImageNet 競賽在圖像識別領域帶來的突破,人工智能再次爆發。這一次,不僅在技術上頻頻取得突破,在商業市場同樣炙手可熱,創業公司層出不窮,投資者競相追逐。
張伊聰進一步從資本和媒體的熱度角度對記者分析道,通過jingdata數據追蹤,人工智能領域是從2013年開始急速上升,在2017年仍是上升趨勢。而在這一年,整個一級市場遇冷,投資事件數下降41%,人工智能相對于整個大環境來說欣欣向榮。
她進一步分析道,投資人熱度也展示了這一趨勢,在2018年第一季度,對于行業賦能層來說,整體投資人熱度上升。其中上升最快的為自動駕駛和AI醫療,AI教育和AI安防的熱度相近位列第二批次。這些領域的熱度與人工智能創業側重點,所處市場大小有緊密關系。
從細分領域的角度來說,張伊聰對《法人》記者說,備受追捧的自動駕駛、AI醫療、AI教育和AI安防領域的共同點是市場規模極大,人工智能可以很好地發揮提升人類效率的作用,但不同領域的發展階段卻各不相同。
中研普華研究員劉雄同時對AI智能持肯定的態度:“隨著人工智能、自動控制、定位技術以及傳感器技術等領域的飛速發展,汽車逐漸向以智能化為核心的輪式機器人的發展,人與車、車與車、車與物的交互方式逐漸改變。人工智能應用領域也變得越來越廣泛,總體上看,人工智能在2040之前會一直處于快速發展階段,發展前景非常可觀。”
同時,“在法律領域,人工智能的影響肯定存在的”,北京市銘泰律師事務所高級合伙人、知識產權部主任徐新明在接受《法人》記者采訪時如是說。AI 是一種迅猛發展的科技,科技一定會促使立法者對法律進行修訂、進步、完善,法律的完善也會促使科技的發展。比如照相機的發展,因為照相機的出現,引發肖像權的爭議,肖像權屬于人格權的一部分。因為問題的出現,引起這個社會對立法的呼吁,因為需求的產生,當然就會催生出新的法律制度。
他進一步說,人工智能作為一種最新的科技手段,它會影響法律對人生活的調整,人工智能必然會影響人們生活的方方面面,也可能會影響與現在不同的新的行為與商業模式,當然會引起法律的回應。如果法律不能容納或者制約這些行為,那就會引發法律的變更甚至制定新的法律。所以,可以籠統地說,對人的行為產生影響的相應領域,必然會產生一定的調整以及回應。
鯨準研究院分析師張伊聰則認為,AI在法律領域分為兩大方向:為B端提供服務、直接服務于C端。在TO B 和TO C這兩個方向上的產品和技術壁壘有著質的不同,針對普通人的產品主要是通俗的自然語言輸入到法律要素的映射問題,常見的產品形式是自動法律咨詢;而較為專業的案例檢索,則涉及案件的深度研究,事實上單一的裁判文書并不能反映案件的所有特征,根據特征找到相似案例,然后一并推送給律師優選,實際上也只是起到了資料收集整理的作用,離真正的指導行為和決策還有很長的路要走。
“凡事均有兩面性,AI不可避免地會帶來一定的弊端,本質上還在于人的角色,人工智能雖說是高度發達的,仍然還是一個工具。”徐新明對《法人》記者說,“現在很難說法律的調控水平可以這么迅速地做出回應,似乎不太可能,而且人工智能的發展層級也不是說處于長期的穩定時期,其發展的速度是迅速的。立法的發展是相對滯后的,能動性并不意味著無法可依,目前來說,根據現有的法律制度仍然是有法可依。”
鯨準研究院分析師張伊聰則對《法人》記者說,立法一直是落后于技術發展的,且不同國家對科技的法律制裁態度不同。對于歷史來說,可以看到中國對互聯網及金融的嚴格政策,導致國內失去了一定先機。而對于近現代,對于人工智能,政策已經上升到了國家戰略層面,重視程度可見一斑。可是在知識產權方面的保護、在法律層面的監管,還都遠遠落后于傳統行業。
劉雄亦認為,人工智能技術會挑戰我們的法律。智能革命的出現,對當下的倫理標準、法律規則、社會秩序及公共管理體制帶來一場前所未有的危機和挑戰。它不僅與已有法律秩序形成沖突,凸顯現存法律制度產品供給的缺陷,甚至會顛覆我們業已構成的法律認知。
在隱私和數據保護方面,張伊聰對《法人》記者說:“人工智能對于隱私保護反而是一種助力,泄露的風險應該關注區塊鏈。”因為,人工智能已經在反欺詐、風控甚至是數據安全領域進行了一定的自動化保護,主要市場在對企業的信息安全方面。對于個人的隱私保護,個人認為市場較難進行推動,而是應該讓政府進行干預,更多地利用人工智能去保護個人的隱私。
徐新明同時認為,對隱私和數據保護主要還是大數據的問題,對大數據的充分利用的基礎上發展出人工智能,這是近幾年較為迅速的一個科技的進步。現在的問題在充分運用大數據的同時,不至于導致個人隱私權的泄露,這需要相關的主體采取一定的措施進行保護,這是一個挑戰。

現階段還是有法可依的,主要的問題是相關主體怎樣采取一定的技術措施,在利用大數據的同時,對相關的個人隱私進行一定的保護,這個也需要相關的主題平臺以及運營公司,在技術以及法律方面進行一定的思考,來達到法律的要求。
劉雄對《法人》記者強調,智能時代毫無疑問會釋放更多的技術應用紅利,但風險也不可小覷。AI作為基礎信息技術,既可以被攻擊者利用,也可以被防護方使用。AI產業崛起會加快被攻擊者利用和被防護方使用的進程,用戶只有提高安全意識、時刻注意隱私信息的安全保護才是最關鍵的。萬物互聯的時代,攻擊路徑變多了,攻擊速度加快了,防護難度更高了,安全挑戰越來越多,安全工作任重道遠。
“AI智能的標準化建構的探討為時尚早,因為人工智能的快速發展,可能有大的公司在這方面努力,但國際方面的統一標準還有待進一步的努力。”徐新明對《法人》記者強調。
張伊聰同時說,國家積極聯合民間企業進行標準化。國家標準化管理委員會已經兩次出版了《人工智能標準化白皮書》同時對于細分領域,各垂直領域的頭部公司也在積極地撰寫相應的標準化白皮書。
徐新明認為,現在需要強調的是,人工智能中新產生的作品權利歸屬問題,人工智能創造的作品就應該受到法律的保護,但是版權的歸屬仍是疑問,現在人工智能運用到新聞報道中,人工個智能機器人創造音樂、美術、詩歌,這是個比較難界定的復雜問題,現階段,人工智能獨創造的作品,可以達到法律所規定的獨創性的標準。
歐盟委員會提出“獨立智力創造”的標準,這個需要明確大陸法系和英美法系關于著作權界定的獨創性的標準區別,英美法系不太注重精神權利,更關注的是財產權,而大陸法系是立足于人格權,認為作品的第一要素是精神權利,所以說大陸法系的要求可能更高一點。
所以,人工智能的作品權利歸屬,就目前的法律是持否定態度的,因為對于著作權的歸屬,強調人格對作品的影響,AI的人格如何界定?徐新明強調,這是首先要思考的問題,即使他創造的作品達到獨創性,是參考《著作權法》第11條,作為單位作品,視為作者,是否能夠比照適用于AI,但是單位作品的前提是在自然人的主持下,形成一定歸屬于單位的作品,強調一種意志。所以,性質上的區別決定了作品權利、性質的界定。
“所以創造出的作品,我認為也是大數據的總結。所以,對于人工智能所創造出來的作品的可版權性,我認為還應該保持謹慎的態度。”徐新明說。
劉雄也對《法人》記者強調,人工智能的迅速發展,造成的案件多發,比如,2017年的紹興市公安局的1·03專案,便是一起利用人工智能進行網絡攻擊和欺詐行為的事件。嫌疑人運用人工智能技術開發出了一套圖像識別系統,這種圖像識別技術可以自動辨認出圖片上顯示的數字、字母、漢字等信息,并且通過深度學習的方式,在實踐中不斷提升辨認能力。然而,這樣的技術卻被犯罪團伙運用到了網絡詐騙等活動中。
他說:“類似的案例還有很多。人類有智慧能力創造出人工智能,也應有能力和理智來控制人工智能。因此,最好是期待人類的聰明才智,而非低估它;最好是承認風險的存在,而非否認它。”
徐新明對《法人》記者進一步說,人工智能的迅速發展,利用人工智能進行攻擊欺詐,歸根結底還是人的行為,人工智能本身并沒有錯,所以如果道德、法律凌駕于技術之上,就不會對別人產生實質性的威脅,其弊端與副作用就會最大可能地得到限制,對技術本身盡可能的地采取更進一步的限制人工智能的副作用,就不會因為AI 的發展產生真正的威脅。
“我們應當思考的不是消滅客觀危險,而是在這些潛在的威脅和挑戰面前,增強風險認識能力,提高制度風險意識,通過法律和其他社會規范來預防規避風險,引導規范人工智能技術健康發展,這需要全社會共同努力。”劉雄最后對《法人》記者強調。