999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

智能社會的治理與風險行政法的建構與證成

2019-05-10 00:13:34何淵
東方法學 2019年1期
關鍵詞:人工智能

何淵

內容摘要:人工智能的成功將是史無前例的,但充滿不確定性、失控性及全球化的風險卻如影隨形般威脅著人類社會。需要重構一個以多元、開放、分享為基本特征的風險治理體系,市場、社會及國家這三種治理機制循環往復,時而正向運動,時而反向運動,同時還包括國家內部的立法與行政、中央與地方之間的雙向自循環系統,共同形成一個整體的四重雙向治理生態。這給行政法實現從“秩序行政”“給付行政”到“風險行政”的轉型提供了歷史契機,以“風險”和“治理”為基石的“風險行政法”應運而生。

關鍵詞:人工智能 風險治理 四重雙向法律治理體系 風險行政法

中國分類號:DF3文獻標識碼:A文章編號:1674-4039-(2019)01-0068-83

引言

在農業社會,人們通過植物和動物認識世界;在工業社會,人們通過蒸汽機征服世界;在互聯網時代,人們通過路由器連接世界;在人工智能時代,人們通過大數據和算法改造世界。就像望遠鏡讓我們能夠感受宇宙,顯微鏡讓我們能夠觀測微生物一樣,人工智能 〔1 〕正在改變我們的生活以及理解世界的方式。〔2 〕一次脫胎換骨式的重大時代轉型正在開啟,人工智能的發展不僅在生產和商業領域,而且在運輸、醫療、救援、教育、金融、農業和司法等領域,起著提高效率、減少消耗、增強安全水平和提供更高質量的服務的作用。北京 〔3 〕、上海 〔4 〕及重慶 〔5 〕相繼出臺規范性文件來監管自動駕駛汽車的路測行為,機器開始正式出版詩集和畫集,智能顧投已經替代人類完成一些復雜的金融交易,面部識別軟件也開始運用到海關、火車站等場景的安全檢查,甚至用于識別恐怖分子。

但脫胎于現代性的人工智能風險也如影隨形般發生了,數據涉及的隱私權問題頻發,年初支付寶年度賬單默認勾選《芝麻服務協議》被質疑侵犯隱私權,百度涉嫌侵害消費者個人信息安全被江蘇省消保委提起公益民事訴訟。而算法涉及的政治倫理問題也開始顯現,特朗普團隊利用數以千萬的Facebook數據,通過挖掘算法使總統大選獲勝;世界上首起UBER自動駕駛汽車公共道路致死案也在美國亞利桑那州發生。隨著平臺企業將人工智能的商業邏輯推向極致,大數據和算法潛在的風險和“創造性破壞”也必將隨之爆發,國家主權、生產關系、社會結構及法律秩序等關鍵議題都面臨著“顛覆式重構”。這集中體現為隱私與數據權、數據歧視、倫理與人格尊嚴、生態、就業、貧富兩極化、國家能力及國家安全等系列問題。正如馬斯克所說:“人類下一個生存威脅恐怕就是人工智能。對于人工智能應該在國際或者國家層面上有相應的監管措施,以防人類做出不可挽回的傻事來?!?〔6 〕

基于此,筆者主要討論的是人工智能的風險以及人類的法律應對。一方面,以費雪的“行政憲制主義理論” 〔7 〕為依據,提煉出核心法律問題是“法治政府”在人工智能風險治理中的作用、性質及理想類型;另一方面,以波蘭尼的“雙向運動理論” 〔8 〕和萊斯格的“代碼2.0理論” 〔9 〕為依據,在“法律(政府)、市場、準則(社會規范)、架構(代碼)”等機制之間構建人工智能風險的四重雙向法律治理體系,“風險行政法”也許正是我們公法學人在新時代的新貢獻。

一、人工智能風險的法律特征

生活在人工智能時代,不像是處在一輛被小心翼翼控制并熟練地駕駛著的汽車之中,更像是坐在朝向四方疾馳狂奔的不可駕馭的野馬身上,膽戰心驚,更不知道未來會發生什么?!?0 〕人工智能風險的本質正是現代性的后果,是一種人為的技術風險,不是自然帶來的。由此產生的“社會可接受性”更是加劇了人類行為的不確定性,這種現代性風險既不分階級,也不分國界,而且還是無處不在的。具體特征闡述如下:

(一)不確定性

在一個到處充斥著數據的“人工智能時代”,人類社會正在從“原子世界”向“比特世界”演進,不斷演繹著“人是生而平等的,卻無往不在枷鎖之中”的事情,人工智能賦予了人類很大的自由,人類實踐著空間維度的自由,甚至開始追求時間維度的自由,但過于泛濫的大數據卻給予了人類太多的選擇,能力有限的人類變得如同遇到洪水猛獸般不知所措。這就是未來社會的不可預測性,“被動自由”問題變得日益突出。這主要由以下原因導致:

第一,大數據的“全體性”“混雜性”及“相關性”必然帶來的是風險的不確定性。在小數據時代,人們受限于技術,只能選擇分析隨機樣本;但在大數據時代,收集與分析全樣本是現實可行的。大數據中的“大”非絕對意義的大,而是指全數據;〔11 〕在小數據時代,由于數據量少,人們執迷于數據的精確性,而在大數據時代,人們開始追求大而全的數據,這種混雜性確保了大量數據的真正利用,人類從此打開了一扇未涉世界的窗戶;〔12 〕在小數據時代,人們苛求因果關系,但在大數據時代,人們只追求相關關系,知道“是什么”就足夠了,沒必要知道“為什么”?!?3 〕

第二,算法的不可預見性也直接導致了風險的不確定性。擁有強大算法能力的人工智能決策系統則不同,它能夠在短時間精確計算所有可能性的基礎上,選擇機器認為的最佳方案。而人工智能決策系統并不受預置的價值觀念、經驗法則、道德法制等因素的制約,它們很有可能做出人類根本不可能考慮的實施方案。這就是算法帶來的不可預見性。由此,盡管人類制造了人工智能,但我們卻無法預見到人工智能最終的決策選擇。隨著深度學習技術的進步,人工智能行為的不可預見性問題更加凸顯,而且程度不斷加深。一個具有自主學習能力的人工智能系統,實踐中大數據的喂養使其愈發進化,使得最細心的制造者都沒有辦法控制或預測指數級升級的人工智能的決策過程及決策結果,這就是一個黑箱?!?4 〕

第三,架構的封閉性更加劇了風險的不確定性。網絡“性質”并非由上帝的旨意來決定,而僅僅是由它的架構設計來決定。〔15 〕網絡的架構既可以是開放分享式的,也可以是封閉控制式的。最初的萬維網是開放分享式的,是一種去中心化的、沒有等級制度的架構,但這種架構存在致命缺陷,即缺乏安全性標準。于是,平臺企業的商業邏輯和國家的安全邏輯共同導致了封閉性網絡的產生。少數巨頭控制了資源的流動,通過集中式基礎服務深入不同領域,形成半封閉的互聯網領地;政府部門使用分口和屬地管理方法,使互聯網治理變得碎裂化。由此,一個背離早期互聯網的封閉式網絡就此形成,“門檻很高”的人工智能軍備競賽使中心化趨勢愈演愈烈,“強者恒強”。

(二)失控性

“自然存在度在世界流變體系中呈現為逐層遞減的分布趨勢”,“愈進化的存在物其存在度愈低……它可以顯示某種相對活躍或較為主動的存在‘能力,卻不得不借助于日益精巧的求存能力來為日益衰落的‘自在自負其責?!?〔16 〕該遞弱代償原則也適用于人工智能時代的人類,一方面人們擁有了包括“數據權”在內的更多自由權利,具有更多認識世界和改造世界的主觀能力;但另一方面,現代性風險使人們對大數據和算法的依賴性越來越高,人們的自然存在度日益下降,逐漸喪失了對世界和社會認知的絕大多數自主性。一些日常生活中的事物都可能在一夜之間就變成帶來危險的“特洛伊木馬”?!?7 〕人工智能愈發明顯的強自主性以及人類對其的高度依賴性,最終演變為失控性。具體原因如下:

第一,強自主性帶來了失控性問題。與人類早期科技不同,人工智能的本質特征是以行為自動化為基礎的機器決策自主化。這種自主化有強弱之分。以自動駕駛為例,人類對于3級以上的具有自主性決策能力的人工智能系統的監管將是非常困難的?!?8 〕尤其當機器系統自帶深度學習而進行指數級升級的情況下,人類失去本地化控制或全方位控制只是時間問題。雖然失控并不必然帶來風險,但當人工智能目標與人類終極福祉背道而馳時,風險就不可避免出現了。由于人工智能只是一種基于大數據基礎的最優算法,它不會進行價值判斷,也不懂什么“善良風俗”,更不會堅守“道德底線”。比如人類為人工智能設定的目標是減少人類的痛苦,在不受任何人為干預的情況下,人工智能系統自主選擇的極端方案很有可能是“盡快滅絕人類”?!?9 〕由此,失控的強人工智能很有可能會給人類帶來生存性風險。

第二,人工智能研發的隱秘性和分散性加劇了失控性。與核能、轉基因等傳統風險源不同,人工智能的研發不需要建造大量的基礎設施,不需要雇傭大量的員工,甚至不需要購置生產設備,只需一臺電腦或一部智能手機即可。因此,大量初創科技公司或個人都從事于人工智能行業,他們甚至可以在全球的每一個角落隨時隨地進行研發。這種物理上的隱秘性和分散性使得監管機關很難確定是誰以及在何處制造潛在的威脅,社會風險由此不斷集聚。〔20 〕

(三)全球化

與財富一樣,前現代社會的風險分配是附著在階級模式上,只不過是以顛倒的方式進行:財富在上層聚集,而風險在下層聚集。〔21 〕而在人工智能時代,雖然貧困依然是等級制的,但大數據和算法帶來的風險卻是民主的。“飛去來器效應”逐漸打破了階級和民族國家的邊界,人工智能風險在其范圍內以及它所影響的那些人中間,表現為平等的影響。同時,風險的全球化伴隨著信息革命而出現,食物鏈實際上把地球上所有的人連接在一起,而全球化趨勢帶來了不具體的普遍性的苦痛?!?2 〕人工智能研發的全球化趨勢非常明顯:軟硬件生產的全球分散程度及交互程度遠超以往任何科技;全球協助研發成為可能,項目參與者可以生活在不同國家,而且并無法律上的關系;〔23 〕數據的跨境流動將更為便利,而跨國公司因法律環境而進行的總部變更將更加頻繁。這樣一種全球化趨勢給政府監管帶來了前所未有的難度,也帶來了“數據本地化”的要求?!?4 〕

由此,為了防范人工智能帶來的諸多風險,在不阻礙創新的前提下重構法律治理體系顯得尤為重要。從這個意義上說,我們理應觀察科技風險治理對國家和社會、政府和市場的關系演變以及法律體系歷史變遷的影響,這也是行政法學的重要任務。

二、人工智能風險的法律治理模式選擇

“這是以往的哥白尼革命、達爾文革命及神經科學革命中不存在的,人類在宇宙中的特殊地位受到威脅,人類已不再是信息圈毋容置疑的主宰,機器開始替代我們執行越來越多的原本需要人的思想來解決的任務?!?〔25 〕與蒸汽機、電腦等工具的輔助性功能不同,人工智能的強自主性可能會替代人類的作用,這種風險是現實的、巨大的且驟然的。

那么,人工智能的風險到底能不能被治理?“某只看不見的手正在建造一種與網絡空間誕生時完全相反的架構,這只看不見的手,由政府和商務共同推動,正在構筑一種能夠實現最佳控制并使高效規制成為可能的架構。” 〔26 〕事實上,憲法和法律也是這樣一種架構,它們不僅是一種文本,更是一種生活方式,規范著人工智能在虛擬空間的行為方式、權利義務分配,最終保護人類的道德底線和終極目標。從這個意義上說,重要的問題不是人工智能風險是否能被治理,而是如何構建整體性的法律治理體系的問題。

而“技術風險爭論并不單單是一個個不相關聯的技術或倫理上的不同意見,它關系到政府機構應當如何認定和理解技術風險并采取相應的措施”,〔27 〕關鍵問題是如何充分發揮法律和政府在風險評定及決策中的良好作用。為此,費雪在總結已有兩種進路的基礎上,提出了新思路:

(一)科學進路

該進路主張科學和專業知識是人工智能風險決策的主要依據。“技術問題的解決方案就是推動和促進科學決策或專家決策……據此,國家須要保證風險決策盡可能地客觀,保證決策者是其專業領域的專家……科學需要被帶入政治過程、帶入規制過程、帶入法庭,這樣,技術風險才能得到恰當的理解。” 〔28 〕公眾對專業知識的依賴,不僅關系到如何從彼此孤立的事件的既定普遍性中獲得安全性的問題,而且更關系到公眾如何通過反思性運用專業知識來計算利害得失?!?9 〕在他們看來,只有當充分的科學證據能夠證明人工智能技術并不會對人類的人身財產和國家的安全造成嚴重威脅,并且能夠讓社會成員普遍接受人工智能是一種安全有效的新技術時,決策者對人工智能風險的法律治理才具有了科學的邏輯前提。

(二)民主進路

該進路主張民主和倫理等價值作為人工智能風險決策的主要依據。“科學的‘客觀性實際上是給意識形態披上偽裝斗篷,而且風險決策關系到共同體民眾整體上意愿怎樣生活。因此,科學只是一個有限的決策工具……國家應當采取更為民主的應對風險的進路?!?〔30 〕該進路強調的是人工智能風險的社會可接受性,評價指標為“接受程度”和“充分保護程度”,倫理價值、自治觀念及誠信和公序良俗原則的重構顯得尤為重要。國家應當以立法的形式推出風險評估及決策過程中的公眾參與制度,保證各種不同的價值判斷得到充分的闡述和尊重。

(三)行政憲制主義

無論是科學進路,還是民主進路,法律在人工智能風險治理中的作用都被描述成簡單工具性的、無關緊要的或者會起妨礙作用的。〔31 〕在費雪看來,法律的作用是非常明顯的,它并不是工具性的或不相干的,它不僅精確界定和打造了“科學”“民主”“倫理價值”及“專家知識”等概念及社會影響力,而且還創造了人工智能風險決策的機構情境,控制決策者行為的合法性和合理性,規范被規制者及參與者的行為規則;法律也不會起到妨礙的作用,法律發出的不同聲音讓人工智能的風險決策者置身于充滿競爭性規則的法律網絡之中,法律的妥協性有利于人工智能風險的社會可接受性的實現?!?2 〕由此,行政憲制主義抓住了人工智能風險決策情境中法律的規范性質,也抓住了因為對有原則的憲制政府存在不同認識而造成的法律的變動常性。〔33 〕

事實上,人工智能風險治理的主要目標如下:保護個人數據隱私、安全及相關權益;抵御可能的集體風險,維護國家安全、公共安全及社會穩定;在個人數據權益保護和社會自主創新之間實現平衡。為了實現上述目標,我們需要重構一個風險治理體系,而核心問題是政府和法律的作用。該體系的特征如下:

(一)從封閉到開放

由于網絡的非開放性架構導致了人工智能風險治理結構的封閉性,具體表現為“行政主體—行政相對人”的固定規制結構,這種封閉性治理結構極大地增加公眾的存在性焦慮及風險的社會可接受性。在抽象體系的交匯口,連接公眾與信任關系的當面承諾,通常表現出明白無誤的可信任性與誠實性,并伴隨著一種“習以為?!被颉版偠ㄗ匀簟钡膽B度?!?4 〕這就需要開放的經濟、開放的社會和開放的政府,開放是人類社會之所以能夠進步最深厚、最強大的基礎?!?5 〕在人工智能時代,建立政府與公眾之間的這種抽象性信任機制的最好辦法,是實現從風險規制到風險治理的轉變,是重構一種以“開放和分享”為特征的法律治理結構。這種結構以風險治理過程中的多元主體參與和風險評估、決策制度的過程復合性為基本特征,以政府及其他主體所處的制度環境和多元互動為焦點,以協商式行政方式建構風險治理的網絡和關系契約。

(二)從單維度到多維度

面對著以復雜、不確定性和失控性為特征的人工智能風險,我們需要一種整體性的風險治理體系,即應當從中央與地方、政府與市場、立法與行政、國家與社會四個面向,以開放和多維度的方式來重構治理結構,意在實現政府、市場、社會及公眾之間的一個新型社會,一個更開放的社會,一個權力分享的社會,一個網狀的社會。具體來說,對于人工智能的風險治理,我們要實現從單維度到多維度的轉變,我們不僅需要政府的規制,也需要市場的自發秩序;我們不僅需要全國人大的立法規制,也需要國務院的行政規制;我們不僅需要中央政府高屋建瓴式的領導性規制,也需要地方政府對癥下藥式的自主性規制;我們不僅需要國家的外在強制性規制,也需要包括平臺公司在內的社會自我規制。

(三)從單向授權到雙向運動

傳統的風險治理結構的特征往往是政府向市場、行政向立法、中央向地方、國家向社會的單向權力運動或放權,但對于人工智能的治理,我們需要一種雙向的權力(利)運動模式,即承認上述單向運動的合理性和有效性的同時,還需要一種反向的權力(利)運動形式,即市場向政府、立法向行政、地方向中央、社會向國家的鱘魚回歸式的權力(權利)運行,這一點從某種意義上更為重要。

由此,現有的以追求秩序行政為目標,以法律保留原則、法律安定性原則和法律明確性原則為基石的封閉式行政法學理論顯然不足以抑制人工智能帶來的風險。我們無法再以絕對性、確定性、統一性、可計算性為前提的法學理論來構建前人工智能時代的法律秩序,我們需要一種以“開放與分享”為基本特征的整體性四維雙向風險治理體系。

三、四重雙向風險治理體系第一維:政府與市場

根據政府參與的深度和廣度,對于人工智能風險的治理大致可以分為私法模式和公法模式,私法模式以市場為基石,公法模式則以政府為基石。而政府與市場的關系則是四重雙向風險治理體系的第一維度。

(一)正向運動

正向運動的產生原因是什么呢?由于包括技術和效率等國家能力的欠缺,以及基于經濟便利和政治因素的考量,政府在很多情況下會考慮通過企業力量和市場機制來實現人工智能行業的發展以及對其風險的防范。但“未來社會的生產部門主要由少數的從業者、機器人以及人工智能共同完成,而憤怒的失業者則構成了社會中的不安定因素”?!?6 〕從實踐來看,人工智能發展的根本推動力是商業企業的市場邏輯,其本質是平臺公司以最低成本利用社會中的生產資料和勞動力,獲得高額剩余價值。剛開始是依靠瘋狂抓取、交易和其他不正當競爭方式獲得大量數據;后來隨著《國家安全法》和最高人民法院、最高人民檢察院《關于侵犯公民個人信息刑事案件解釋》的出臺,獲取數據的社會成本和風險不斷增長,如微信等平臺公司開始努力把既有用戶改造成免費的內容生產者,于是用戶的數據也就成為了平臺企業的資本。等到發展到一定規模,這些新型生產方式開始尋求國家和法律認可的“合法性”。在這過程中,我們看到了人工智能的“非法興起”過程,〔37 〕也看到了政府在“大眾創業、萬眾創新”口號下對市場不斷放權而形成了“正向運動”過程中的“野蠻生長”問題。而在后“野蠻生長”階段,政府如何通過法律上確認人工智能這類新生產方式的合法性以及如何對相關利益進行合理配置,這將是非常關鍵的問題。〔38 〕

在政府放任的“野蠻生長”階段,“非法興起”使得市場和平臺公司等商業力量迅速成為人工智能發展的主要推動機制。以此為契機,我國在自動駕駛、語音及人臉識別、智能投顧、機器人等人工智能領域都取得了長足進步;以深度學習為代表的機器技術開始進入政府的智慧城市建設;206工程強勢進入上海法院,人工智能開始成為司法機關重要的輔助決策系統,甚至被認為是法院的未來圖景。以“政府數據開放”為例,政府與企業力量、市場機制實現深度融合的方式如下:〔39 〕

第一,政府和企業的全方位戰略合作。如上海市政府與騰訊公司簽訂了戰略合作框架協議,共建智慧城市。雙方通過云計算和大數據能力,推動信息化服務產業鏈條的完形,以及在社會信用管理等領域進行大數據技術的探索?!?0 〕第二,政府機關委托企業經營的數據大平臺。如阿里健康受國家食藥總局委托作為藥品電子監管網技術運營商,提供技術及維護服務,但網站的所有權歸國家食藥總局所有,目前經營權移交回國家食藥總局?!?1 〕第三,政府和企業利用共享大數據的合作治理。如最高人民法院首次聯手芝麻信用共享被執行人信息,開創了第三方商業征信機構首次通過最高人民法院官方授權,通過互聯網聯合信用懲戒的先河,主要方式是限制失信被執行人購買機票、租車、貸款?!?2 〕第四,政府和企業合作運營綜合性的數據大平臺。如云上貴州系統平臺是全國首個省級政府和企業數據統籌存儲、共享開放和開發利用的云服務平臺。帶動企業、社會數據集聚及開發應用,提升政府治理能力現代化水平,推動產業發展,服務改善民生?!?3 〕第五,企業提供技術平臺,由政府自主運行數據平臺。如備受爭議的全國教育技術服務平臺(IME平臺)由天天艾米公司免費幫助教育部搭建,具體負責運營的是教育部直屬事業單位教育信息管理中心。〔44 〕

(二)反向運動

作為人工智能風險治理維度之一的政府和市場關系,往往會經歷雙向運動。“現代社會的原動力是由一雙重傾向支配著:一方面是市場不斷的擴張,另一方面是這個傾向遭到一個相反的傾向——把市場之擴張局限在一個特定的方向——的對抗。這一對抗自律性市場危害性的社會保護傾向非常重要。” 〔45 〕具體來說,作為正向運動的市場力量盲目擴張帶來的外部性問題是市場機制本身所無法解決的,這就需要一場旨在保護人、自然和社會組織的反向運動。

那么,這種反向運動的產生原因是什么呢?自生自發的市場秩序從來都是烏托邦,人工智能帶來的巨大風險自然也不能由市場機制本身所能化解,而市場機制自身所帶來的外部性卻日益顯現,具體表現在:

第一,隱私權。身處后隱私時代的我們,人人都變成了“透明人”,并深陷于一個巨大的“黑箱社會”之中。“社會個體不知道自己有多少信息被記錄了,這些信息會傳播到什么地方,也不知道哪些人會使用它,使用這些信息的目的何在,更無從知道這些信息的泄露會產生怎樣的后果,依據這些信息所作的判斷是否準確,是否存在偏見或破壞性?” 〔46 〕事實上,微信決定了我們是誰,淘寶和京東決定了我們想要什么,攜程和滴滴決定了我們去哪兒,而百度決定了我們怎么想,微博則決定了我們心中的“她”。我們在不經意間把自己的隱私權利和自由轉交給了一個缺乏倫理道德標準的冷血人工智能之網,我們深陷其中,再也無力掙脫。從隱私需求的整體性看:隱私保護已成為互聯網用戶和非互聯網用戶的共同關切?!?7 〕由于大數據的爆炸性增長和云計算能力的指數級進步,我們的風險不再僅僅局限于隱私的泄露,還在于我們成為了“不會被忘記的人”,更為可怕的是,我們還成為了“被決定未來的人”。

就人類而言,時間是最好的療傷劑,遺忘是常態,記憶才是例外。但隨著人工智能時代的到來,這種平衡被打破了。往事像炫目的刺青一樣永遠刻在我們的數字皮膚上,洗也洗不掉!隨著海量數據存在越來越廉價的云存儲器上,平臺企業對數據的獲取成本遠遠比選擇性刪除某些需要被遺忘數據的時間成本要低得多。于是,“在信息權力與時間的交會處,永遠的記憶創造了空間和實踐圓形監獄的幽靈。完整的數字化記憶摧毀了歷史,損害了我們的判斷和我們及時行動的能力”?!?8 〕

隱私的傳統保護模式主要是一種私法機制,采取的是目前仍舊在世界廣泛流行的嚴格的“告知-許可-例外”權利模式。雖然隱私保護的對象大致經歷了從住宅到人、到信息再到數據的轉變,但不變的是在這個過程中市場始終起到了基礎性的配置作用。但在人工智能時代,這種私法保護模式將面臨著越來越多的局限性:其一,不管是告知與許可、模糊化還是匿名化,這三大傳統的隱私保護策略都將失效。〔49 〕如作為“隱私例外”法律基礎的“匿名化”將由于撞庫和大數據等再識別技術出現而難以奏效。美國在線隱私再識別案充分證明了這一點,撞庫技術使用戶代碼與“如何殺死你的妻子”“死人的照片”和“撞車照片”等聯系在一起。〔50 〕其二,人工智能的預測能力的確可以為我們打造一個更安全、更高效的社會,但是“未來一切被預測”卻否定我們之所以為人的重要組成部分——自由選擇的能力和行為責任自負。〔51 〕以上局限性亟待政府主導的反向運動通過保護性干預來突破,畢竟“規范和監督個人數據處理行為,保護個人隱私不受侵犯是每個國家的基本義務”。〔52 〕具體如下:

1.建議政府重構一種能夠平衡公共利益和個人利益之間關系的隱私權保護模式,既保護公民的隱私權益,也要通過數據再利用實現巨大的經濟價值和社會效應。具體包括:一是,該模式應更注重數據使用者的企業、公眾為其行為承擔法律責任,而不是將重心放在收集數據之初取得隱私權者的同意上?!?3 〕二是,該模式提倡“差別隱私”,即政府和企業應當通過對數據進行模糊化處理,使確定個人與特定數據的因果關系變得困難,〔54 〕公民的隱私自然得到保護。

2.建議政府發動一場“互聯網遺忘”運動。提倡數字化節制、保護信息隱私權、建設數字隱私權基礎設施、調整人類的現有認知、打造良性的信息生態以及完全語境化等對策。〔55 〕具體而言,人類走出“數字記憶”的最好方法就是刪除,恢復人們的記憶能力。對政府而言,就是確定數據時效性問題,即政府通過行政立法的方式規定不同類型的數據必須刪除的最長時間,而數據的存續時間長短取決于數據的經濟價值、社會效應及法律風險等;對于公民而言,則是被遺忘權的問題,“不是通過委以技術手段將數字化記憶的問題推離我們的意識,恰恰相反,讓人們察覺到遺忘的價值和重要性”,〔56 〕這就需要政府通過立法方式正式賦予公民“被遺忘權”。

第二,倫理問題。不管我們是否承認,“一切被記錄,一切被監管”的人工智能時代已經來臨,數據開放帶來的倫理問題若隱若現,具體表現在:

1.大數據和高級算法可能會使所有人喪失了未來的自由選擇權。當醫療數據集比醫生更了解病人身體狀況、醫療病例和醫療方法時,絕大多數病人的選擇很可能是拋棄醫生,而選擇相信精確算法基礎上的人工智能;當基于高級算法的數據集能夠準確預測員工未來幾年的能力值、忠誠度、經濟貢獻值以及生育計劃的話,公司會選擇據此提前解雇某些可能成為負資產的員工;當基于高級算法的健康數據集能夠預測某人未來的健康狀況時,那么沒有保險公司愿意接受他的人壽保險申請;更為恐怖的是,當基于算法的信用數據集可以預測某人未來犯罪的可能性時,公安部門可能會以“預防犯罪”為名提前干預他的自由權利。大數據的高速流動和再利用也許可以“打造一個更安全、更高效的社會,但是卻否定了我們之所以為人的重要組成部分——自由選擇的能力和行為責任自負。大數據成為了集體選擇的工具,但也放棄了我們的自由意志”。〔57 〕而“算法共謀承擔責任的主體也存在著較大的爭議,使人類和機器的責任模糊化”?!?8 〕

2.大數據和高級算法可能會帶來數據歧視問題。數據表面上看是中立的,似乎并不涉及價值判斷,但在數據商業化過程中,一旦冷冰冰的政府數據加上高深理性的算法,數據歧視的產生可能就不可避免了。當健康大數據可以基本準確預測某位孕婦可能懷的是女孩,該孕婦可能會據此選擇墮胎,這是典型的性別歧視;當司法大數據推測黑人的犯罪率較高或阿拉伯人成為恐怖分子的可能性較高,那么監管部門可能會對他們重點監管,甚至提前預防犯罪,而有些公司也可能會據此拒絕雇傭他們,這就是典型的種族歧視和職業歧視;當電商平臺根據消費大數據,用高級算法作一個精確的推薦系統,如收入較低的顧客瀏覽此平臺時,非常多的打折信息會不斷跳出來騷擾,又如平臺給“經常打好評”和“很少退貨者”寄送假貨,而某旅游網站的“同房不同價”,這是典型的消費歧視。這就是人工智能時代“開放的大數據”加上“復雜卻差異化的算法”帶來的歧視,這是商業領域隱匿的“窮人與狗不得入內”?!?9 〕

以上市場外部性亟待政府的反向運動通過保護性干預來解決。具體包括:

1.建議政府通過立法方式重塑“公正”“合法推定原則”及“無罪推定原則”等概念。在充斥著“過去決定未來”及“數據預測未來”的人工智能社會,政府需要重新定義公正的概念,“個人動因的保護”應成為公正的新內容。人們應該只為他們的行為負責,而不能為未來的趨勢或傾向負責,應當堅決杜絕政府或企業依據大數據預測的行為而非真實的行為對人們進行評級或獎懲。只有這樣,自然人在法律上才是作為真正的“人”來對待,他們有行為選擇自由和通過自主行為被評判的人。這是人工智能時代的“合法推定原則”及“無罪推定原則”的新含義。〔60 〕

2.建議政府通過立法的方式積極推動企業算法的公開、公平和公正等特別保護措施。對于政府行為的合法性和合理性,法律設置了非常詳盡的實體法和程序法的規定。但對于同樣涉及我們每個人的權利和自由(甚至我們的未來)等重要利益的企業決策和評價,法律卻沒有任何限制性規定,這在法理上是說不通的。因為商業算法會直接影響到我們每個人的利益,所以企業不僅要遵循公開原則,向全社會無條件公布算法的具體內容;企業還要遵循正當程序原則,不能既作算法的評分裁判者又作算法的事實參與者;企業還要遵循可辯駁原則,企業在對用戶作出不利的評價之前,必須給用戶辯駁和說明理由的機會。

總之,市場向政府的反向運動在法律上主要體現為公法模式。這種風險治理模式是通過政府有意識的保護性立法和政府干預手段而實現。它強調的是政府的強力介入,通過詳盡規則的出臺,政府的人為設計甚至是政府的制度性導向來實現人工智能風險的治理。這種模式中起主要作用的公法機制,往往是顯性的。以歐盟為例,對于人工智能涉及的個人隱私等權利保護,成員國并非依賴私法權利體系及個人司法救濟來實現,而主要通過公法機制來實現?!皬摹稊祿Wo指令》到《統一數據保護條例》,歐盟一直致力于建立‘行業行為準則+法律強制性規范的雙重規范體系和‘數據控制者自律+政府數據監管機構的監督管理的雙重管理體系,尤其是新的條例要求歐盟各成員國均要建立獨立的數據監管機構,建立數據主體向監管機構投訴、受理及處理的一整套完備的行政救濟制度框架?!?〔61 〕

四、四重雙向風險治理系統第二維:立法與行政

人工智能的風險治理應當以公民基本權利的保護為根本出發點,基于人工智能風險預防特征,考察不同國家權力在手段與功能上的配置,實現治理責任的轉移和優化。〔62 〕行政、立法及司法三項主要國家權力如何在人工智能風險的法律治理中實現合法合理的分工,這也是一個非常關鍵的問題。

(一)正向運動

在人工智能風險治理的職能分工中,行政機關因其權力的獨特性承擔了越來越多的責任。由此,立法向行政放權的正向運動開始啟動,具體有三種方式:通過《立法法》及其他法律的明文授權,授予行政機關廣泛的行政立法權;通過法律文本中的不確定概念賦予行政機關更多的自由裁量權;通過設置“風險預防原則”賦予行政機關更多的事實上的風險決策權。而這個正向運動主要是由行政的以下特性決定:

第一,主動性及調動資源的能力。“行政的作用在于形成社會生活、實現國家目的,特別是在福利國家或社會國家中,國家的任務更為龐雜而繁重,行政往往必須積極介入社會、經濟、文化、教育、交通等各種關系人民生活的領域,成為一只處處看得見的手,如此方能滿足人民和社會的需要。” 〔63 〕相比立法、司法,行政是一種積極主動的國家作用,這種積極主動性也隨之帶來了強大的調動國家、社會資源的能力,這對于人工智能風險的治理至關重要。

人工智能風險標準的制定、評估及反饋需要查閱和收集大量相關的風險信息。這類相關信息往往涉及人工智能風險的法律性質、影響的范圍以及政府治理的法律后果,甚至可能直接關系到人工智能項目的生與死。〔64 〕另外,人工智能風險標準制定、評估及反饋不僅需要決策者與相關利益者之間進行大量的商談,還需要上下級決策者之間的日常式溝通。根據人工智能風險的性質不同,這種交流和對話可以包括收集風險信息、咨詢專家意見、各種形式的公眾參與以及利益集團的討價還價?!?5 〕對于這樣全天候待機式的工作,立法機關既沒有時間也沒有迅速集中大量資源的能力,顯然無法勝任。

第二,專業性。在時間和空間分離的巨大跨距之中,脫域機制通過將社會關系從它們所處的特色的地域“情境”中提取出來,使得這種時空延伸成為可能?!?6 〕而專家系統正是這樣一種能夠預防人工智能風險的抽象式脫域機制。對專家系統的依賴和對專家知識的需求,正是行政替代立法及司法發揮某些國家作用的傳統理由之一。由于行政機關往往只承擔一項具體的任務,其工作人員也可以只聚焦于特定行業的相關事項,他們很容易成為某一領域的專家。同時,在日常工作中他們還需要跟各種具有不同特定技能、經驗或知識背景的專業人士打交道,具有短時間內組織和聚集科學共同體和職業共同體中頂尖專家的能力。這種專家化和專業化的優勢對于人工智能風險的治理至關重要,治理過程所需要的專家系統是一個各行業各領域專家知識在人工智能風險的評估和標準制定過程中的綜合預測和運用的過程。

第三,靈活性。與立法機關、司法機關相比,行政機關在機構組織形式、行政負責人的挑選與任期、行使職權的方式等各方面具有更大的自由裁量空間和更多靈活性。事實上,行政機關依據《立法法》擁有了廣泛的立法性權力,依據《行政復議法》擁有了處理法律糾紛的司法性權力,而且還能發揮其實施法律的傳統國家作用。這種“三位一體”的行政權所體現的靈活性對人工智能的風險治理意義重大。風險標準制定中的核心問題是風險的可接受性,這不僅需要考慮特定的科學評估及客觀事實,而且也要關注不同社會階層的社會利益和政治關懷。事實上,立法機關雖然是最民主的,但其不具備處置具體風險的專家系統、機構能力和時間;同樣法院也不具備專家系統,不具備可用來收集風險信息和商談的手段,更缺乏主動對特定風險的持續監管與及時反應的能力?!?7 〕由此,人工智能風險標準的制定過程中所涉及沖突的利益考量及具體的政治平衡只能由兼具主動性、集中調動資源的能力、專業性及靈活性的行政機關來完成。

(二)反向運動

由于行政缺乏民主正當性,“行政立法”“行政司法”及廣泛的“行政自由裁量權”存在合憲性上的先天性缺陷,行政這個過度膨脹的當代憲制國家“尷尬傳家寶”面臨著“鳩占鵲巢”的嫌疑,這樣一種強大的利維坦式國家作用令人感到不安且充滿了法律爭議。于是,一場保護性的反向運動應運而生,核心問題是如何控制人工智能風險治理中的行政自由裁量權,而這正是法律的主要功能。這種法律的作用本質上是一種行政憲制主義的形式,重點是如何把治理人工智能風險的問題融入公共行政的合法性、合理性及有效性的法律爭論之中。〔68 〕為此,費雪提出兩個不同的行政憲制主義范式,這些范式不但解釋了立法與行政之間的憲法關系,而且也描述了法律作用與風險評估、決策以及民主、科學之間的相互依賴關系。

第一,理性—工具范式。該范式下行政的人工智能風險評估及決策行為,可看作是對立法授權所完成的“傳送帶”動作,包括確認特定的技術風險,評估可能采取的規制手段的法律后果及用“利益代表制”確認社會的價值偏好。〔69 〕該范式解決了風險治理中行政的合法性,評價標準是法律是否得到完全的貫徹實施。但立法機關并沒有能力對不確定的人工智能風險的治理制定出具體明確的指令,這顯然是不可能完成的任務。事實上,行政行為合法性已不再僅僅聚焦于“防止行政機關對私人自治領域的未授權的侵入,而是確保所有受影響利益在行政機關行使其被授予的立法權力過程中得到公平的代表”,〔70 〕事實上的廣泛行政自由裁量權在人工智能時代也不可避免。

第二,商談—建構范式。該范式主張授予行政機關行使實質性、強自由的裁量權,立法并非是一套精確的命令,而只是為行政裁量權設定一般性原則和考慮的相關因素。行政不再只是立法的代理人,而是實施其自由意志的機構?!?1 〕該范式為“社會可接受性”這一人工智能風險治理的關鍵點提供了可靠的法律機制,而商談是行政機關在風險標準制定過程中用于厘清相關問題、確定專家知識及作出最終決策的絕佳工具。這種基于商談基礎上的風險治理體系的成功建構并不是商談的民主性質,而是一種集體共同解決問題的優先手段,這是一種公共理性?!?2 〕

事實上,從“行政憲制主義”重新描述人工智能的風險治理,也許并不能直接產生具體的技術解決方案,但卻打開了一扇理論建構之窗,這有利于我們重新定位法律和政府在人工智能風險決策中的重要作用,并促使行政法學者開始試圖重構人工智能風險的整體法律治理系統。

五、四重雙向風險治理系統第三維:中央與地方

上文提到了市場與政府、立法與行政之間的雙向運動,而縱向的央地關系也是難以回避的維度。

(一)正向運動

地方政府一方面基于“GDP錦標賽”的需求,積極推動本地經濟試驗與人工智能產業發展深度融合,人工智能產業的實踐推手主要是地方政府而非中央政府;另一方面,對于隨之而來的人工智能風險,地方政府也是身先士卒地積極探索法律治理模式,并不斷積累經驗。我國是一個民主集中制原則下的單一制國家,其特征是中央的領導權和地方的自主權有機結合。而在人工智能的產業發展和風險治理實踐中,我國出現了一個明顯的中央向地方不斷授權以及地方自主權不斷擴大的正向運動,這種正向運動的產生原因如下:

第一,單一制與有效治理的融合。按照憲法的規定,我國是單一制國家,體現為中央在財政、人事、自然資源等方面對地方的最高領導權,而有效治理能力的增強是以地方自主權的擴大為基礎,法律上表現為中央向地方的自上而下的放權和授權。周雪光把這種中國國家治理邏輯歸納為“一統體制和有效治理的關系”?!?3 〕同樣,面對人工智能風險的不確定性,尤其在“地廣人多”和“經濟發展不均衡”的社會情境下,我國實現對人工智能風險的有效治理的良方之一是中央向地方不斷放權和授權。在這過程中,中央與各省之間存在一種顯性或隱性的談判,各省得到是制度化的或特定的某種利益,而作為回報,各省保證將代表中央以特定的方式做出行動?!?4 〕于是,單一制與有效性在人工智能風險治理領域實現了融合。

第二,新時代的特色法治經驗。重構人工智能風險的治理體系大致需要以下幾步:第一步,由地方政府就風險治理先行先試,積累有效治理的初步經驗;第二步,由地方人大基于已有的“地方性經驗”制定“地方性立法”,然后進一步試錯并積累經驗;第三步,由國務院在充分總結地方經驗教訓的基礎上制定行政法規;第四步,如有必要,再考慮上升為法律,適用于全國。這種新時代的特色法治經驗的形成主要有兩個依據:其一,我國經濟文化情境差異巨大。我國疆域廣闊,人口眾多,多民族多文化,經濟發展極度不平衡,東部、西部以及南方、北方的地理氣候資源變化多端,這決定了我國需要“差異化”的地方性立法及行政;其二,“民主集中制”原則 〔75 〕為新時代特色法治經驗提供了堅實的憲法基礎。

由此看來,對于人工智能的風險治理,地方行使自主權是法律的常態,而中央行使領導權則是法律的例外。只有當地方的行為可能改變中央和地方的政治平衡時,中央領導權的介入才有必要。〔76 〕而地方的主要工作如下:

第一,出臺人工智能的地方規劃及行動方案。據不完全統計,截至2018年3月,全國31省、自治區、直轄市中,包括北京、〔77 〕上海、〔78 〕廣東 〔79 〕及浙江 〔80 〕等15個省市已經發布了人工智能規劃,其中的12個省市還進一步提出了具體的產業目標,目前還有江蘇、山東、河南、陜西等省市正在編寫人工智能規劃。另外,其中的27個省市在“互聯網+”規劃中提及人工智能、22個省市在戰略新興產業規劃中設置了“人工智能專項”、19個省市在大數據規劃中提及人工智能、9個省市在科技創新規劃中設置了“人工智能章節”?!?1 〕這些規劃的核心內容是:發揮地方政府在培育人工智能產業中環境營造、政策支持、規劃引導等方面的重要作用;嘗試建立人工智能風險治理的組織機制,擬建立由分管市領導牽頭,科委、產業園等參加的工作協調機制。上海、廣東以及浙江等省市的規劃也有類似的規定。

第二,制定實驗性政策及地方立法。地方政府應當加強人工智能相關法規、倫理和社會問題研究,推動建立保障人工智能發展的法規和倫理道德框架。根據新時代的特色法治經驗,在人工智能產業發達的城市,如深圳或杭州就風險治理進行試點,積累有效治理的初步經驗;由地方人大基于已有“地方性經驗”制定“地方性立法”,然后進一步試錯,為國務院制定行政法規和未來的全國人大立法提供實踐基礎和理論支撐。

第三,試驗性設立獨立的人工智能風險及安全監管機構。地方立法既要保證該監管機構組成機構及成員的獨立性,也要確保監管機構行使職權時程序上的透明度。安全監管委員會的主要成員可以從所在地公安局及市場監管局選任,該機構應當具有如下主要職責:人工智能風險的評估及風險標準的制定、風險決策過程正式和非正式的公眾參與制度的出臺、對人工智能平臺企業行使行政調查權及限期整改等矯正性權力、向上級機關或立法機關提出建議的權力以及定期發布人工智能風險預警和治理的年度報告等。

由此,地方政府主導的人工智能風險治理試驗從宣示開明的政治姿態演變為動態的經濟實踐,其內在的政治與法律意涵開始不斷豐富?!?2 〕

(二)反向運動

人工智能的風險治理應當是一種制度化體系,這種頂層制度設計只能由中央政府來構建和提供,其目的在于保護自然人的數據權益,維護國家安全、公共安全和社會穩定,但卻不能因噎廢食,阻礙數據合法的自由流通并完全禁止人工智能的研發。我們建議,全國人大在充分吸收地方的經驗和教訓的基礎上制定《人工智能發展法》,具體制度如下:

第一,設立人工智能系統的登記認證審查制度。立法的重點是圍繞如何在不阻礙創新的前提下最大限度控制和防范人工智能的潛在風險,因此,除了自動駕駛系統這類可能對自然人的人身財產權造成巨大威脅以及智能武器這類可能威脅國家安全、公共安全的人工智能系統之外,立法并不能也沒有必要對所有的人工智能系統設立嚴格的事前行政許可制度。

筆者建議,設立適用于所有人工智能系統的登記認證審查制度,即所有的人工智能系統都應當按照法律的要求去監管部門登記備案,但絕大多數并不需要事先取得監管機構的批準性許可文書。同時,實現認證程序與侵權責任體系深度結合。企業可以自愿申請監管部門或授權的專業機構的認證程序,經過權威認證的人工智能系統的設計者、生產者或銷售者僅需承擔有限侵權責任,而沒有經過認證的人工智能系統將會承擔嚴格的連帶責任。〔83 〕

筆者還建議,設立抽查式事后的安全審查制度,監管機構審查的關鍵詞是“安全”,即查看人工智能系統“是否落實網絡安全等級保護制度,按照國家標準規范要求,采取管理和技術措施,保護網絡、信息系統、數據資源安全”,立法應當授予監管部門“安全一票否決”的權力,即涉及“安全”問題,監管部門有權強制啟動嚴格的事先行政許可制度,即人工智能系統獲得行政許可需要經過多重多階段的嚴格安全測試,在沒有獲得許可前不能上市銷售。

第二,設立人工智能專員制度。當實施政府數據開放和利用的機構是政府部門時,或者當其核心業務是用算法處理大量數據且需要進行定期的、系統化的大規模監控時,或者當其核心業務是用算法去處理就業、社會保險與社會保障法等領域以及與犯罪和違法行為有關的大規模特殊數據時,立法應當明確要求數據控制者和處理者指定一名人工智能專員?!?4 〕人工智能專員在履職過程中,應當從處理行為的性質、范圍、環境以及目的的角度合理充分關注算法和數據所帶來的不確定風險,一旦發現問題需代表雇主及時向監管機構報告;應當就數據合規、算法公開以及隱私保護等內容進行內部的員工培訓;與監管機構就大數據及算法等內容保持溝通及協作,共同抵御風險。〔85 〕

第三,建設國家統一的大數據平臺。國家統一大數據平臺需要有足夠的立法支撐和可操作的實施方案,同時應當通過立法設立首席信息官、首席技術官及首席數據官等專業機構。這樣的國家大數據平臺只能由中央政府來建構,并且需要一個較長時間的經驗積累和試錯。從地方分散實踐到中央統一立法的反向運動是可取的,我國地方數據平臺從數據量、時效性、數據集可視化、互動分享等方面與美國存在巨大的差距,其中一個重要原因是各自為政下形成的“低法治”數據割據。由此,一個旨在全面提升數據的有用性和易用性以及公眾數據利用效果的全國性數據開放平臺的建設必須提上全國人大的議事日程,應當將中國最為重要的政府數據統一集中到一個網站,為全國所有公眾無差別地提供一站式的、內容豐富的、便于再利用的數據群,而這個工作只能由《人工智能發展法》來完成?!?6 〕

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 国产手机在线ΑⅤ片无码观看| 91精品国产自产91精品资源| 欧美成人手机在线观看网址| 最近最新中文字幕在线第一页 | 国产一级二级三级毛片| 99在线视频免费| 亚洲日韩AV无码一区二区三区人| 国产精品不卡片视频免费观看| 国产高潮视频在线观看| 成人在线不卡视频| 色综合a怡红院怡红院首页| 色网站免费在线观看| 精品国产aⅴ一区二区三区| 99这里只有精品6| 国产va在线观看| 亚洲日韩精品欧美中文字幕 | 国产精品自在在线午夜| 精品乱码久久久久久久| 人妻无码AⅤ中文字| 真人高潮娇喘嗯啊在线观看| 她的性爱视频| 国产高颜值露脸在线观看| 精品视频免费在线| 白浆免费视频国产精品视频 | 成人va亚洲va欧美天堂| 亚洲第一区在线| 老司国产精品视频| 免费在线色| JIZZ亚洲国产| 好吊妞欧美视频免费| 久久96热在精品国产高清| 久久精品国产一区二区小说| 欧美无专区| 亚洲欧美日韩综合二区三区| 国产99在线| 一级做a爰片久久毛片毛片| 亚洲精品波多野结衣| 国产一线在线| 成人在线亚洲| 国产日产欧美精品| 亚洲不卡无码av中文字幕| 四虎精品国产AV二区| 国产精品免费p区| 欧洲欧美人成免费全部视频| julia中文字幕久久亚洲| 97免费在线观看视频| 国产麻豆91网在线看| 成人免费黄色小视频| 欧美第一页在线| 992tv国产人成在线观看| 亚洲69视频| 伊人久久大线影院首页| 精品福利视频网| 亚洲人成成无码网WWW| 免费人欧美成又黄又爽的视频| www.日韩三级| 日本黄网在线观看| 国产成人a在线观看视频| 91久久夜色精品国产网站| 久久黄色免费电影| 99精品免费在线| 亚洲精品无码日韩国产不卡| 亚洲人成网站色7799在线播放 | 爆乳熟妇一区二区三区| 久久综合伊人77777| 国产尤物视频在线| 亚洲精品国产综合99久久夜夜嗨| 婷婷六月天激情| 亚洲精品桃花岛av在线| 波多野结衣无码AV在线| 国产精品久久久久久久久久98| 国产精品视频a| 国产丝袜无码一区二区视频| 久久精品国产精品一区二区| 国产网友愉拍精品视频| 国产www网站| 国产黑丝视频在线观看| 日本欧美中文字幕精品亚洲| 久久国产成人精品国产成人亚洲| 国产成人综合欧美精品久久| 久久人午夜亚洲精品无码区| 99久久精品国产精品亚洲|