999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能的法律規制路徑:一個框架性討論

2019-05-13 01:59:38汪慶華
現代法學 2019年2期
關鍵詞:人工智能

汪慶華

摘 要:中國、美國和歐盟在人工智能的法律規制上初步呈現出自身的特點。面對人工智能技術的發展,中國通過分散式的立法對它在電子商務、新聞內容推薦以及智能投顧等領域的應用進行了回應,算法公開透明是貫穿于這些層級各異的立法的共同要求。美國則是通過司法判例對算法的法律性質進行了明確,在搜索引擎算法的案例中,它被看成言論,刑事輔助審判系統中的算法則被認定為是商業秘密。與中國、美國的個別化進路形成鮮明對比的是,歐盟通過對個人數據權利的嚴格保護,形成了對人工智能的源頭規制模式。在數字經濟成為經濟發展的新動力的背景下,這三種模式體現了在數據權利保護和人工智能產業發展平衡問題上的不同側重。

關鍵詞:人工智能;算法;法律規制;自動化決策

中圖分類號:DF37

文獻標志碼:A?DOI:10.3969/j.issn.1001-2397.2019.02.04

人工智能①

和法律的遭遇會在兩個層面呈現出來。在享受人工智能帶來的技術紅利的同時,需要對它可能帶來的風險和挑戰進行回應,這意味著需要對人工智能進行法律規制。但同時大數據技術、云計算、人工智能的發展又為現有的法律提供動力,立法、司法和法律執行將會以一種從來沒有過的方式借助算法而實現變革。大數據和人工智能技術不僅會帶來社會生產力的變革,同時也帶來了社會生產關系的變化。在討論人工智能法律規制的時候,需要厘清的重點在于理解現有的法律概念、法律規則和法律體系的力量何在。弗蘭克·伊斯特布魯克法官的《賽博空間和馬的法律》 [1]一文深刻揭示了這樣的道理。正如不需要專門的關于馬的立法,其實也并不需要專門就互聯網、人工智能技術來進行專門的立法。這種觀念當然和美國的普通法傳統有關,無論時代怎么變遷,從封閉的農業社會到信息化、智能化社會,普通法規則得以延續下來,保持著它們的生命力。在大陸法系國家,法的安定性則是原有法律規則和法律體系適用到科技前沿領域的基礎性考量。

德國新的《道路交通法》在自動駕駛汽車侵權問題上沿用車輛所有人嚴格責任體現了這一思路。關于自動駕駛汽車對美國現有規制體系的挑戰及其回應的討論,參見:Brian A. Browne. Self-Driving Cars: On the Road to a New Regulatory Era [J]. Journal of Law, Technology &the Internet,2017, 8(1):1-19.但是在一些方面,現有的法律框架無法涵蓋人工智能在具體領域應用中所帶來的一系列問題,這意味著在一定程度上需要反思現有法律框架。人工智能技術的發展將改變人們對法律的認知,重塑法律的規則形態,乃至法律的價值導向[2]。人工智能時代法律制度的設計必須要考慮風險社會的現實,并兼容一定程度的不確定性[3]。

法律一般不對實踐中沒有定型的經驗、社會中沒有成熟的關系進行調整。目前,人工智能的技術也只是局限在具體領域,并沒有形成通用人工智能。就人工智能發展的階段而言,一般認為存在著弱人工智能、強人工智能和超人工智能三個階段。弱人工智能又稱為專門人工智能,指不能真正實現推理和解決問題的智能機器,它們并沒有真正的智能,只能實現單一任務,比如語音識別、自動駕駛、圖像識別等等;強人工智能具人類所有認知能力,它有知覺和意識,可以由同一個智能系統執行不同的認知任務;超人工智能在所有領域超過人類,所有認知功能超過人類。目前人工智能的發展仍然處于弱人工智能階段,因此當前并不能夠制定出關于人工智能的完整的法律制度。人工智能在過去的二十年中,在機器學習、知識圖譜、自然語言處理、計算機視覺、人機交互、生物特征識別等相關技術方面取得了突破,并表現出技術平臺開源化、專用人工智能向通用人工智能發展以及從感知智能向認知智能邁進的趨勢。人工智能技術和行業領域的深度融合在制造、金融、醫療該文討論了患者的安全、隱私,尤其是醫療器械監管和數據保護法對醫療機器人的影響。醫療領域的機器人有幾種主要類型:手術機器人、常規任務機器人以及個人看護機器人。機器人通過利用云端的數據,也許有一天可以做出實時的診斷決定,醫療機器人會變得越來越具有自主性。、交通、商業等傳統行業帶來了突破性變革。

人工智能的法律規制需要和具體的領域結合起來,并不存在對人工智能的一般化的法律規制。就人工智能技術發展水平及其當下應用而言,采取“傳統法律修正”的模式是一種可行的進路。算法往往和應用場景、商業模式相結合。在每一個細分領域里,存在著不同的規制方法、進路和手段。法律對人工智能的規制需要具體化和場景化,以避免在人工智能這一寬泛的表述之下的各說各話。人工智能在電子商務、精準醫療人工智能在深刻改變著醫療行業,由于大數據和強有力的機器學習技術,各種創新手段被用來推進診所醫療的過程、推動醫學研究以及提高效率。機器人的涉及和利用必須要最大化安全性能,對用戶隱私保持敏感性。參見:P W. Nicholson Price II. Artificial Intelligence in Health Care: Applications and Legal Issues, SciTech Lawyer, 2017,14(10). 和自動駕駛等領域有著廣泛的應用和實踐,而法律在這些領域的規制的方法、手段、強度和密度應該存在差異 關于自動駕駛帶來的法律規則的系統討論,包括道路測試監管、自動駕駛汽車市場準入、準入后監管的方式方法,參見:李磊.論中國自動駕駛汽車監管制度的建立[J].北京理工大學學報,2018(2):127-130;關于自動駕駛汽車的侵權責任的法律分析,參見:張力,李倩.高度自動駕駛汽車交通侵權責任構造分析[J],浙江社會科學,2018(8).。電子商務將互聯網的技術運用于商業領域,形成各種平臺和共享經濟。在這個領域中,政府監管的重要目的在于促進競爭和反壟斷,保護消費者權利,維護市場秩序。人工智能廣泛運用于醫療領域,智能輔助手術、機器人護士、機器人看護,醫療成本的增加和老齡化社會的到來將會進一步推動對智能醫療的需求?;ヂ摼W醫療因為涉及個人的生命健康、醫療及其相關數據往往屬于個人敏感數據。政府在設計監管模式的時候,必然采取高準入、嚴許可的進路,比如美國的《健康保險可攜帶和責任法》(Health and Insurance Portability and Accountability Act)制定了一系列安全和隱私標準,就保險公司、醫療服務提供者如何用電子的方式傳輸、訪問和存儲受保護的健康信息做了詳細而嚴格的規定。

目前,歐洲和美國在自動駕駛領域都已經有比較成熟的立法。德國在2017年新修訂了《道路交通法》,為高度和全自動駕駛提供法律依據

以下關于德國新《道路交通法》內容的討論,參考了埃里克希爾根多夫:《自動駕駛的規制之路——對〈德國道路交通法〉最新修訂的說明》。微信公眾號“人大未來法治研究院”。2018.4.12.。該法明確了高度自動駕駛和全自動駕駛車輛的法律含義,它指帶有為完成駕駛任務而能供控制車輛的技術設備,而且駕駛員可隨時解除自動駕駛功能或切換到人工駕駛模式。在法律責任分配方面,立法者追求簡約化的規則,尋求自動駕駛問題和傳統的道路交通法兼容,在自動駕駛的規制中沿用傳統道路交通法的規則。基于法的安定性考量,車輛所有人原則上承擔無過錯責任,這一歸責方式為新版《道路交通法》所延續。相較于責任分配問題的守成,德國新《道路交通法》中關于數據處理的條款尤其值得關注。該法第63條規定,當車輛控制模式從人工向技術系統切換或者技術系統向人工系統切換時,必須記載位置和時間信息。當系統要求駕駛員接管對車輛的控制或者系統出現技術故障時,也應保存相應信息。平臺向主管機關傳輸保存的數據的義務也是其中的亮點。遺憾的是,該法并沒有去處理自動駕駛碰撞可能會帶來的倫理困境問題 Jeffrey K Gurney對自動駕駛車輛是否應該做出倫理決定進行了探討。他假設了六種道德困境,從法律和倫理的視角考察在碰撞情境下如何進行算法優化。在倫理上考量了康德主義和功利主義兩個面向,在法律維度上則考察了碰撞優化算法的侵權行為和刑法含義。參見:Jeffrey K Gurney. Crashing into the Unknown: An Examination of Crash-Optimization Algorithms Through the Two Lanes of Ethics and Law [J]. Albany Law Review, 2016(79):183.。

美國加州則在2012年通過了州的立法,即SB1298 Vehicles: Autonomous Vehicles: Performance and Safety Requirement,確立了促進和保障無人駕駛汽車安全的立法理念,對自動技術、自動駕駛汽車進行了定義和規制。歐美在自動駕駛領域的立法為差別化、場景化的人工智能監管提供了具體的例證。

一、人工智能規制的立法進路及其趨勢

就人工智能的法律應對而言,我國目前更多的是從產業政策促進、扶持和發展的角度對人工智能提供行政指導。2017年國務院發布的《新一代人工智能發展規劃》突出地反映了這一思路。人工智能技術被定位為國家戰略。此后各部委和各地方政府也結合當地實際出臺了規章性質的人工智能產業發展規劃。工信部出臺了《促進新一代人工智能產業發展三年行動計劃(2018-2020年)》推動人工智能的科技研發和產業化發展。浙江省人民政府出臺了《新一代人工智能發展規劃》,涉及智能醫療、智能金融、智能商務等領域,提出加快人工智能技術攻關和深度應用。

在監管層面上,目前對人工智能的法律規制在電子商務、數據安全和智能投顧領域的立法中已經有個別條款分別涉及?!峨娮由虅辗ā芬幎?,電子商務經營者根據消費者的興趣愛好、消費習慣等特征向其推銷商品或服務的搜索結果的,應當同時向該消費者提供不針對其個人特征的選項,尊重和平等保護消費者合法權益。這是在法律層面對大數據/算法殺熟的回應。大數據殺熟作為差別化定價,是企業經營者利用機器學習算法,對每個消費者的消費偏好、消費習慣和消費能力等信息進行分析,構建定價模型,對同樣的商品或服務實行不同的定價。借助大數據技術,企業獲得了關于消費者的完整信息,從而能夠對消費者進行畫像,最大程度地獲得消費者剩余。此外,《電子商務法》第40條規定,對于競價排名的商品或服務,應當顯著標明“競價”。這對算法提出了信息披露義務,保障消費者的知情權、自主性和選擇權。

就我國目前的人工智能法律規制而言,《電子商務法》屬于法律淵源中法律層級的,另外還有規章層級的《數據安全管理辦法》(征求意見稿)也對算法進行了相應的規制?!掇k法》規定,“網絡運營者利用大數據和人工智能等技術,通過算法自動合成的新聞信息、博文、帖子、評論等,應當以顯著方式表明‘合成字樣。”網絡運營者利用算法進行新聞推送,被課加了披露義務以促進算法透明。在移動互聯網時代,算法新聞業蓬勃發展,算法內容生成日益成熟。在互聯網內容市場上,用戶內容生產、機器內容生產、混合內容生產交相輝映,形成了海量的內容信息。從內容生產到內容推薦,算法在新聞業扮演著越來越重要的角色。對于算法推薦的規制,除了披露義務之外,規范信息流程、報備模型參數、違規行為懲處等長效機制都是法律制度設計需要考量的要素[4]。

2018年3月28日,中國人民銀行、銀保監會、證監會、外匯局聯合發布《關于規范金融機構資產管理業務的指導意見》(以下簡稱“指導意見”)。該指導意見對人工智能在金融領域的應用進行了規制,從勝任性要求、投資者適當性以及透明披露方面對智能投顧中的算法進行穿透式監管。美國證監會在2017年2月發布的《智能投顧監管指引》中將“智能投顧”定義為基于網絡算法的程序,利用創新技術為用戶提供全權委托的賬戶管理服務的注冊投資顧問。智能投顧依托于互聯網,具有委托的特殊性,它為用戶提供全權委托的賬戶管理服務,即在客戶和運營者簽署全權委托協議的前提下,允許受托人未經客戶同意買賣證券[5]。

《指導意見》明確,運用人工智能技術開展投資顧問業務應當取得投資顧問資質。金融機構運用人工智能技術開展資產管理業務除了要遵守投資者適當性、投資范圍、信息披露、風險隔離等一般性規定外,還應當向金融監督管理部門報備人工智能模型的主要參數以及資產配置的主要邏輯,為投資者單獨設立智能管理賬戶,充分提示人工智能算法的固有缺陷和使用風險,明晰交易流程,強化留痕管理,嚴格監控智能管理賬戶的交易頭寸、風險限額、交易種類、價格權限等。這意味著智能投顧必須要取得行政許可,這是由金融業的專業性和高風險性決定的。此外,報備智能投顧模型的主要參數意味著算法黑箱的打開,算法透明得到了一定程度的貫徹。

《指導意見》還規定了運用智能投顧的金融機構的披露義務。金融機構應當根據智能投顧的業務特點,建立合理的投資策略和算法模型,充分提示智能投顧算法的固有缺陷和使用風險,為投資者單設智能投顧賬戶,明晰交易流程,強化留痕管理,嚴格監控智能投顧的交易頭寸、風險限額、交易種類、價格權限等。《指導意見》更強調在智能模型缺陷或者羊群效應的背景下,金融機構必須進行人工介入。金融機構委托外部機構開發智能投顧算法,應當要求開發機構根據不同產品投資策略研發對應的智能投顧算法,避免算法同質化加劇投資行為的順周期性。金融機構應當針對由此引發的市場波動風險制定應對預案。因算法同質化、編程設計錯誤、對數據利用深度不夠等人工智能算法模型缺陷或者系統異常,導致羊群效應、影響金融市場穩定運行的,金融機構應當采取人工干預措施,強制調整或者終止智能投顧業務。

在監管手段上,金融監管部門對智能投顧的法律規制采取了組合拳的方式,這可以為我們討論其他領域的法律監管提供有益的思考。智能投顧是沒有法律人格地位的智能機器人為投資人提供咨詢意見,這對以往以金融從業者為監管對象的監管模式產生了挑戰,需要重構義務體系。智能投資顧問是投資咨詢機構業務的延伸,投資咨詢機構應當被識別為受托人,承擔信義義務和合規義務。智能投資顧問模式下應當要穿透算法設定法律義務,一方面要避免算法黑箱逃避責任,另一方面應當為人工智能在投顧行業的發展保留充分空間[6]。

在監管方式上,金融監管部門運用監管科技應對金融科技的興起[7]。英國金融監管局在2015年最新提出Reg Tech的概念,并將它定義成利用最新技術手段,促進金融機構更有效達到監管要求。金融機構在利用智能投顧開展資產管理業務的時候,必須要獲得行政許可、獲得資質;報備模型參數、實現算法透明和算法可解釋性;制定預案、適時人工干預。

我國目前對人工智能的法律規制以分散式立法的方式分布在不同層級的法律規范中,對精確營銷、算法新聞和智能投顧進行了相應的規制。智能投顧中對算法的穿透式監管對將來人工智能的法律規制具有重大的啟示意義,在行政許可準入、算法透明化要求和主體責任承擔等方面為人工智能法律規制框架的構建提供了參考。

二、人工智能的司法規制及其法律定位

無論是人工智能還是機器人,如果去掉附著在它們身上的擬人化想象,它是基于算法通過數據自主學習的一套計算機制,本質在于算法和數據[8]。本文在討論人工智能規制的時候,將不去區分人工智能和算法之間的區別,將它們作為同一概念處理。美國聯邦法院和州法院在判例中對算法的性質、人工智能輔助量刑算法的合憲性、新技術條件下的個人隱私保護進行了回應,延續了其一貫的普通法的傳統,通過司法對人工智能的應用予以合法性的認肯,對其中隱含的風險予以規制,并將隱私保護擴張到手機位置信息。司法判例或者將算法定性成商業秘密,或者在關于搜索引擎算法的判決中,將它看成是言論[9]。將搜索引擎的算法當作言論的主張在學者中激起了廣泛的爭論。

(一)算法作為言論自由

2003年的Search King V. Google Tech., Inc.,堪稱搜索引擎領域算法第一案。該案中,Google對搜索王的網頁排名進行了降序乃至于刪除,搜索王將Google告到了法院。俄克拉荷瑪州法院認為,網頁排名是一種意見,它涉及特定網站對某一檢索指令響應的意義。搜索引擎根據算法生成的結果是它的言論。Google的主張,算法是言論得到了法院的支持。四年之后,Longdon v. Google 案中,聯邦地區法院也支持了算法是言論的主張參見:Langdon v. Google, Inc., 474 F. Supp. 2d 622, 629-30 (D. Del. 2007).。

應該說,美國法院為搜索公司提供了基于第一修正案的言論保護,為企業的發展提供了廣闊的空間。由于大數據技術的中立性、無國界使得算法性質問題具有了普遍的理論意義,加拿大學者Veenu Goswami則主張基于加拿大判例和加拿大人權憲章,應當將基于算法產生的內容置于言論的范疇之內,應受憲法上的言論自由的保護[10]。

不過,就搜索引擎算法是否是言論,在理論上仍然有激烈的反對意見。更進一步的問題在于,即使司法對此已經給出了正面的回答,這一定性是否推廣到所有領域的算法仍然是懸而未決的問題。這些司法判例帶來了美國法學界對搜索引擎中的算法的法律屬性的激烈而持續的討論

吳修銘(Tim Wu)認為搜索引擎并非屬于第一修正案所保護的言論,他對法院將搜索結果等同于意見的觀點進行了激烈地批評。(參見:Tim Wu,Machine Speech [J]. University of Pennsylvania Law Review,2013 , 161(6):1525-1531.)。

(二)算法作為商業秘密

在美國刑事訴訟領域,算法廣泛運用于預測個體是否會重新犯罪,以及是否到庭,從而影響定罪、量刑以及保釋。一些公司開發了輔助量刑工具,目前在美國有三種風險評估軟件,COMPAS, PSA和LSI-R,超過一半以上的州利用它們來輔助法官量刑。在算法的幫助下可以借助其預測功能來降低羈押率,提高法官裁判的公正性和效率。這種運用算法來輔助法官自由裁量的做法引發了廣泛的討論和批評,在算法的準確性、算法考慮不相關的社會因素以及算法的正當程序三個方面引發了普遍的質疑[11] 。2016年的威斯康星州的Loomis案對這些問題進行了司法上的回應。

在State v. Loomis, 881 N.W. 2d 749 (Wisconsin, 2016)一案中,魯米斯因駕車槍擊案而遭受刑事指控。威斯康星州法院在量刑的時候借助了Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) 軟件, 并基于COMPAS的評估判處魯米斯六年監禁外加五年監外執行。魯米斯以法院對COMPAS評估的依賴侵犯了他的正當程序權利和平等保護權為由提起上訴;具體到刑事案件,被告有獲得個別化量刑考量和基于準確信息量刑的權利,而COMPAS評估報告提供的內容是類型化的,無法充分考慮個人特殊性,而且NORTHPOINTE主張COMPAS算法是公司的商業秘密,無法校驗它的客觀性和可靠性。威斯康辛州最高法院認為,性別作為參數進入算法,其目的是為了算法準確性而非為了歧視,因此沒有侵犯被告的平等權。其次,COMPAS所分析的數據依賴于公開的刑事犯罪記錄和被告提供的數據。被告有機會驗證數據的準確性,他對可靠性的挑戰是沒有依據的。最后,由于評估結論并非法院量刑的唯一依據,法院所要求的個別化對待的權利得到了保障。

從本案判決可以看出,在算法公平和商業秘密之間,法院在這個案件中站在了商業秘密一邊,法院并沒有要求企業公布算法參數和模型。這一司法立場有助于促進技術創新和人工智能產業的發展。但算法公平性的問題仍然懸而未決。

當認為算法會帶來歧視性的結果的時候,根本原因在于作為算法基礎的數據中隱含著民族、種族和性別的偏見。Anupam Chander認為算法透明沒有辦法改變這種輸入性的歧視,有效的補救措施應當是,設計算法的時候必須擁有充分的意識,考慮到現有數據中潛藏著的歧視[12]。作為算法決策的一種表現形式,利用大數據對個人打分,決定我們是否是可信賴的貸款者,勤勉的員工,可靠的房客,高價值的消費者。Danielle Keats Citron和Frank Pasquale主張,正當程序應該要為此類的人工智能評分系統可能帶來的歧視提供基本保障,監管者應當可以檢測系統以確保其公平性和正確性,個人有權要求糾正對他們進行錯誤分類而帶來不利影響的機器決策。缺乏正當程序的保護,偏見和武斷的數據基礎上的算法必然帶來污名化的后果[13]。

三、人工智能的源頭規制:數據權利與免于自動化決策

2018年5月25日正式實施的歐盟《一般數據保護條例》是迄今為止關于個人數據保護范圍最為廣泛,權利類型最為多樣的立法 參見:京東法律研究院.歐盟數據憲章:《一般數據保護條例》GDPR評述及實務指引[M].北京:法律出版社,2018.關于該保護條例的介紹,以及與數據保護相關的隱私預期和風險規制,參見:丁曉東.什么是數據權利?——從歐洲《一般數據保護條例》看數據隱私的保護.華東政法大學學報[J],2018(4):39-53.。它通過訪問權、修改權、刪除權、可攜帶權等具體權利的規定確立了個人數據決定權。作為權利束,個人數據決定權內容廣泛多樣。這一權利束中的內容除了可攜帶權有利于在人工智能企業之間形成競爭、促進產業發展之外,其他的權利都對人工智能的發展構成了直接的限制。

《一般數據保護條例》更賦予數據主體以免于自動化決策的權利,這是對算法黑箱和程序不正義的直接排除 Seth Katsuya Endo, Technological Opacity & Procedural Injustice [J]. Boston College Law Review 2018, 59(3):821. Endo描述了不透明的技術如何侵蝕了正當程序和民眾參與的規范。關于人工智能問題,始終存在著鼓勵創新和權利保護之間的平衡,歐盟數據保護通則顯然傾向了后者,而歐盟沒有領先的全球性互聯網企業也從一個側面說明了歐洲法律政策的取舍。對于這個問題的討論,可以參見:鄭戈.在鼓勵創新與保護人權之間:法律如何回應大數據技術革新的挑戰.探索與爭鳴[J],2016(7):79-85.。在當代人的生活中,自動化決策扮演著越來越重要的角色,從貸款、投資、雇傭乃至交友,都成為算法決定的對象 [14]?!稐l例》21條明確規定:“數據主體有權根據其特殊情況,在個人數據被處理的過程中行使反對數據畫像的權利。在以直接營銷為目的個人數據處理活動中,數據主體有權隨時反對因為該商業行為目的處理其個人數據,包括有權反對與直接營銷有關的數據畫像。數據主體反對因直接營銷目的處理數據的,個人數據不得再因該目的被處理。首次與數據主體溝通時,第一款和第二款所述的權利應該明確提請數據主體注意,且明確將該權利與任何其他的信息相區分。在信息社會服務的情況下,盡管歐盟2002《隱私和電子通信指令》另有規定,數據主體可以通過自動化方式,基于技術規范行使其反對權。根據本條例第89條第1款所述的個人數據因科學、歷史研究或統計的目的被處理的,數據主體有權在特定情形下反對處理其個人數據,除非這種處理對執行公共利益的任務是必要的。”第22條進一步明確,如果某種包括數據畫像在內自動化決策會對數據主體產生法律效力或者造成類似的重大影響,數據主體有權不受上述決策的限制。

根據第29條工作組指引,在下述情形中,不得使用自動化決策。比如解除合同;對法律所提供的某一具體的社會福利的獲取或喪失;嬰幼兒補貼或住房補貼;拒絕入境某個國家或者是否認公民身份。上述情形具有的共同特點就是自動化決策已經影響到行政相對人的權利義務。

除了第21條的規定之外,《一般數據保護條例》“序言”(又稱為“鑒于”條款)第71條規定,數據主體應有免于受制于自動化處理手段對其個人進行精準評價,以及對其產生法律效果或重要影響的情況,比如,自動拒絕無人介入的在線信用申請或電子招聘。該等處理包括“用戶畫像”,包含任何形式的個人數據自動化處理以對自然人進行精準評價,特別是對自然人產生法律效果或重要影響的,針對于自然人的工作表現、經濟狀況、健康狀況、個人偏好、興趣、信譽、行為習慣、位置或行蹤相關的分析和預測。該條進一步規定,任何情況下,這些數據處理應當有適當的保護措施,包括獲得認為干預的權利、表達觀點的權利、評估后達成決定的解釋權以及獲得救濟的權利。盡管按照歐洲的法律慣例,立法的背景/序言條款具有幫助理解條款意涵的目的,并不具有直接的法律效力。學界有觀點指出,該條結合第22條、以及第13、14條關于數據主體知情權的規定,可以認定GDPR規定了自動決策的可解釋權:數據主體有權要求對自動決策的算法進行解釋,有權在不滿意算法決策的時候選擇退出該《條例》是否賦予了算法解釋權帶來了廣泛的爭議。相反觀點可以參見騰訊研究院(編).《歐盟〈通用數據保護條例〉詳解》[M], 2018:25-26.該書并不認為該《條例》賦予了數據主體以算法解釋權,也不認同這些條款對數據權利的保護會導致深度學習違法。。

歐盟《一般數據保護條例》涉及到人工智能數據保護和隱私權利的所有面向?!稐l例》區分一般數據和敏感數據,對后者進行更為嚴格的保護。第9條明確,除非各成員國立法授權,辨識種族或民族出身、政治觀點、宗教或哲學信仰、工會成員的個人數據以及以識別自然人為目的的基因數據、生物特征數據、健康數據、自然人的性生活或性取向的數據的處理應當禁止。

《條例》所確立的數據最小化原則對人工智能行業的發展有直接的影響。人工智能要精確和有效地服務其設計目的,就需要處理大量的數據以實現持續的機器學習的目的。為了實現歐盟《一般數據保護條例》所要求的數據最小化原則,企業必須闡明它們為什么需要收集和處理數據,以及它們進行數據處理獲得了什么成果。這就相當于要求企業證明收集是具有相關性的,滿足了必要原則,沒有進行過度收集。考慮到大數據是算法的燃料,對數據的監管實際上從源頭影響到人工智能行業的發展。歐盟也清楚地意識到了這一點,所以在出臺全世界關于個人數據保護最為嚴格的立法《一般數據保護條例》之后不久,歐盟又推出了《非個人數據自由流動條例》,鼓勵和促進非個人數據的自由流動和共享,禁止數據本地化要求,以推動建立統一的歐洲數字市場。

四、法律的人工智能規制

人工智能技術的發展為法律規制提出了現實要求,而法律領域也越來越深刻地受到人工智能的影響,法律和科技人員的合作將成為常態[15]。法律人向技術人員解釋法律規則的要求,而技術人員在設計產品的時候要將法律規則考慮進去。

《一般數據保護條例》的默認隱私原則展示了大數據時代人工智能技術對于立法行為的本質性改變,我們可以將法律所追求的價值和原則嵌入式地植入產品中。法律規制體系也將發生重要的變革,將從對事物的規制轉變成對代碼的規制[16]。默認隱私原則帶來的設計隱私就是這一變革最為重要的體現?;ヂ摼W巨頭企業在其人工智能倫理的主張中也體現了默認隱私或默認倫理的訴求,比如谷歌公司在其關于人工智能技術開發的原則中也包含設計隱私的內容。

就司法而言,通過智慧司法提升司法效率,促進司法公平是這一輪司法改革最為重要的目標和特點。最近增設北京互聯網法院、廣州互聯網法院更是將其意蘊拓展到了網絡治理主權的層面。就司法領域的人工智能而言[17],它對算法歧視和算法黑箱的回應更為急迫,如何以平等原則和正當程序回應算法歧視和算法黑箱將是司法人工智能領域的持久性話題[18] 。

在執法領域,因為自動化決策的普及,將會出現法律的自動執行。2018年,深圳為了優化營商環境,利用互聯網技術提升政務服務水平,就普通高校畢業生落戶深圳實現秒批(無人干預自動審批)

參見深圳市人民政府辦公廳.關于印發《深圳市普通高校應屆畢業生引進和落戶“秒批”(無人干預自動審批)工作方案》的通知(2018).。這是法律自動執行的生動形象的例子。無人干預自動審批可以被看成是全自動具體行政行為的表現形式。全自動行政導致具體行政行為成立要件中行政主體的意思表示的缺失,大量行政法上的程序權利被自動化決策所架空,這需要加強自動化決策方面的行政立法,以實現人工智能的運用和公民權利保護的平衡[19]。法律自動化執行的過程中,可以借鑒歐盟的經驗,當決策涉及到減損公民權利或增加公民義務的時候,公民有免于自動化決策的權利。

結?語

總的來說,并不存在關于人工智能的一般化的法律規制。相關的法律規制應當是和具體場景結合起來的,存在立法、司法和技術的三種形式。以此作為對中國、美國和歐盟的人工智能法律規制主要模式的概括,略去了這三個法域對人工智能規制時候可能兼采的其他形式。比如,美國也存在大量的對數據和隱私保護的聯邦和州立法,和通過司法規制人工智能形成互補,相得益彰。

我國目前采用的是一種分散式立法的方式,在《電子商務法》《數據安全管理辦法》《金融機構資理業務指導意見》等不同層級的法律淵源的具體條款中涉及到了對人工智能的法律規制。本文通過這些法律規范的分析初步勾勒出我國對人工智能進行法律規制的路徑,這并不意味著它能夠或已經窮盡我國法律對人工智能/算法的規制。除了上述立法之外,總體來說,人工智能時代+的特點并沒有能夠很好地反映到立法中。當務之急是修改現有的法律,使得它能夠兼容大數據和人工智能技術在具體領域和場景中的應用,對數據處理商和法院信息部門在法院司法決策中日益重要的位置予以正視[20]。就本文討論的內容而言,《證券法》第171條《證券投資顧問業務暫行規定》第12條規定,證券投資咨詢機構不得代理委托人做出投資決策。因此,智能投顧和禁止證券投資咨詢全權委托的規定存在沖突。智能投顧的高度智能化意味著在投資建議、指令執行、自動調倉等環節具有聯動性和連續性,這只有在全權委托條件下才能實現[21]?!睹袷略V訟法》也需要進行修訂或出臺互聯網管轄方面的司法解釋,使得互聯網法院的管轄、審理、送達等具體運作的環節上能夠實現網上受理,網上審理,網上執行的目標

2018年9月6日,最高人民法院通過了《關于互聯網法院審理案件若干問題的規定》,以司法解釋的方式從制度上對這個問題進行了初步的回應。該司法解釋在總結杭州互聯網法院實踐的基礎上,規定了法院的受案范圍、建立了在線訴訟平臺、完善了網絡訴訟規則。。《道路交通安全法》需要進行相應的調整,以兼容現有的無人駕駛技術。

歐盟的進路實際上抓住了人工智能的本質。歐盟《一般數據保護條例》以源頭治理的方式,從個人對數據的自決權出發建構個人數據權利體系,從而直接影響到人工智能的產品設計和技術發展。所有的人工智能都是建立在算法和算力的基礎上的。算法的燃料就是大數據。當對數據進行嚴格保護的時候,其實就在源頭對人工智能進行了規制。

參考文獻:

[1] Frank Easterbrook.Cyberspace and the Law of Horse[J]. University of Chicago Legal Forum,1996: 207-216.

[2] 李晟. 略論人工智能語境下的法律轉型[J].法學評論,2018(1):106.

[3] Anjanete H. Raymond. Information and the Regulatory Landscape: A Growing Need to Reconsider Existing Legal Frameworks[J]. Washington and Lee Journal of Civil Rights and Social Justice ,2018, 24 (2).

[4] 方師師.算法如何重塑新聞業:現狀、問題與規制[J].新聞與寫作,2018(9):11-19.

[5] 吳燁,葉林.“智能投顧”的本質及規制路徑[J].法學雜志,2018(5):22.

[6] 高絲敏.智能投顧模式中的主體識別和義務設定[J].法學研究,2018(5):40-57.

[7] 張家林.監管科技(Reg Tech)發展及其應用研究——以智能投顧為例[J].金融監管研究,2018(6):76-93.

[8] 胡凌.人工智能的法律想象[J].文化縱橫,2017(4):108-116.

[9] 左亦魯.算法與言論——美國的理論與實踐[J].環球法律評論,2018(5):122-139.

[10] Veenu Goswami.Algorithms, Expression and the Charter[J]. A Way Forward For Canadian Courts.Western Journal of Legal Studies ,2017,1(1):3-17.

[11] 李本.美國司法實踐中的人工智能:問題與挑戰[J].中國法律評論,2018(2):54-55.

[12]Anupam Chander. The Racist Algorithm [J]. Michigan Law Review ,2017,115(6):1027.

[13]Dianelle Keats Citron & Frank Pasquale. The Scored Society: Due Process for Automated Predictions[J]. Washington Law Review ,2014,89:1.

[14] Danielle Keats Citron. Technological Due Process[J]. Washington University Law Review, 2008, 85(6):1249.

[15] 鄭戈.算法的法律與法律的算法,[J].中國法律評論,2018(2):75.

[16] Paul Ohm, Blake Reid. Regulating Software When Everything Has Software[J]. George Washington Law Review ,2016, 84(6):1672-1702.

[17] 吳習彧.司法裁判人工智能化的可能性及問題[J].浙江社會科學,2017(4):51-56.

[18] Pauline T. Kim. Auditing Algorithms for Discrimination [J]. University of Pennsylvania Law Review Online ,2017,166 :189.

[19] 查云飛.人工智能時代全自動具體行政行為研究[J].比較法研究,2018(5):167-179.

[20] 季衛東.人工智能時代的司法權之變[J].東方法學,2018 (1):133.

[21] 李文莉, 楊玥捷.智能投顧的法律風險及監管建議[J].法學, 2017(8): 17.

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: www.亚洲色图.com| 成人蜜桃网| 日本国产一区在线观看| 综合网天天| 免费一级成人毛片| 亚洲中文字幕国产av| 亚洲欧美精品一中文字幕| 国产成人超碰无码| 国产成年无码AⅤ片在线 | 日韩少妇激情一区二区| 国产精品嫩草影院av| 午夜久久影院| 午夜欧美理论2019理论| 欧美视频在线播放观看免费福利资源 | 97亚洲色综久久精品| 欧美另类一区| 亚洲综合国产一区二区三区| 国产农村妇女精品一二区| 日本五区在线不卡精品| 东京热高清无码精品| 日本精品视频| 国产成人a毛片在线| 日本在线免费网站| 亚洲欧美成aⅴ人在线观看 | 欧美一级片在线| 亚洲欧美国产五月天综合| 亚洲国产欧美国产综合久久| 女人18毛片水真多国产| 国产av剧情无码精品色午夜| 91视频99| 露脸真实国语乱在线观看| 国精品91人妻无码一区二区三区| 久久久久人妻一区精品色奶水| 亚洲精品高清视频| A级毛片高清免费视频就| 99草精品视频| 日韩a级毛片| 91青青在线视频| 女人毛片a级大学毛片免费| 欧美午夜性视频| 综合色88| 日韩中文无码av超清| 亚洲天堂在线免费| 19国产精品麻豆免费观看| 在线观看免费人成视频色快速| 国产91九色在线播放| 欧美色伊人| 在线国产你懂的| 国产精品丝袜在线| 欧美性爱精品一区二区三区| 亚洲成人网在线观看| 亚洲综合片| 在线观看亚洲成人| 日韩东京热无码人妻| 91久久偷偷做嫩草影院电| 国产一二三区视频| 亚洲VA中文字幕| 又大又硬又爽免费视频| 成人免费黄色小视频| 丁香五月激情图片| 在线观看91精品国产剧情免费| 成年人福利视频| 亚洲福利视频一区二区| 日本福利视频网站| 国产乱人免费视频| 免费在线国产一区二区三区精品| 国内黄色精品| 日本不卡在线播放| 欧美国产日韩在线播放| 免费日韩在线视频| 国产农村妇女精品一二区| 亚洲AⅤ波多系列中文字幕| 亚洲欧洲日韩国产综合在线二区| 激情无码视频在线看| 亚州AV秘 一区二区三区| 国产精品乱偷免费视频| 欧美午夜视频在线| 国产精品乱偷免费视频| 国产aⅴ无码专区亚洲av综合网| 国产国产人在线成免费视频狼人色| 久久国产高清视频| 午夜人性色福利无码视频在线观看|