999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

算法治理的域外經驗與中國進路

2021-01-08 08:08:24孫逸嘯鄭浩然
信息安全研究 2021年1期

孫逸嘯 鄭浩然

1(中南財經政法大學法治發展與司法改革研究中心 武漢 430073) 2(中央財經大學管理科學與工程學院 北京 102206)

(710976842@qq.com)

得益于互聯網信息技術與信息革命的不斷縱深發展,人類社會經歷了從互聯網1.0到互聯網2.0,再到人工智能時代的轉型跨越.作為大數據時代背景下人工智能產業與數字經濟發展的驅動引擎,算法技術由于數字經濟的蓬勃發展而逐漸嵌入到人類社會生活的方方面面.隨著網絡空間與現實空間不斷耦合以及弱人工智能到強人工智能的轉變,算法也在不斷地改變甚至重塑著人類社會生活,已經成為一種能夠實現社會資源配置的新興力量.但算法決策、算法推薦、算法分析等技術及其架構的應用為數字經濟發展帶來無限機遇的同時,也由于算法黑箱、算法偏見等問題的強化而潛在地存在諸多風險,從而給各國既有的治理體系及其能力提出了較大挑戰.

基于這樣的時代背景,可以說,算法治理作為各國網絡社會治理體系的重要環節,其治理體系和治理能力的提高不僅是一國國家治理體系和治理能力的重要體現,而且是當今數字經濟發展現代化的內在需求.而如何正確認識和把握算法及其可能引發的風險,則是進一步討論算法治理和各國經驗做法的重要前提.因此,本文旨在比較研究的基礎上,重點圍繞以下2個方面進行論述評析:從算法治理的必要性出發,通過論述算法應用可能引發的潛在風險,以明晰算法治理何以進入治理之視域;探討美國與歐盟在算法治理方面的經驗做法,幫助理解在不同文化、制度背景下這2種典型算法治理框架結構形成、發展的脈絡及其特點.從而為我國算法治理的路徑選擇提供切實可行的路徑依歸.

1 算法治理的必要性:算法應用引發的潛在風險

深刻理解和反思算法技術應用可能引發的潛在風險,是進一步探討算法治理的必要之前提.從社會、法律與政治3個不同維度對算法風險進行透析,是將算法置于特定的時代背景下的類型化拷問,需要從算法技術及其背后的算法架構甚至算法權力去審視并回應這一問題.

1.1 社會風險

當前算法已經深深嵌入到社會運行的方方面面,其引發的社會風險主要體現在以下2個方面:一是加劇了“信息繭房”(information cocoon house)現象.在算法應用平臺中,用戶的各種信息數據通過信息內容推薦、信息生產、協過濾等算法機制,很容易使用戶被自身的興趣愛好所引導甚至牽制,導致平臺算法源源不斷地向其輸入某一類型的信息流或推薦相關用戶群,從而使用戶的生活桎梏于像蠶繭一般的“信息繭房”中.比如,Facebook通過“信息流”(news feed)和“流行話題”(trending)這2個主要算法架構和程序控制著其平臺新聞傳播的“可見性”. “信息流”被扎克伯格稱為“個性化報紙”訂制功能,也就是按用戶的興趣愛好推薦他們“感興趣的內容”; “流行話題”則更強調其他人在關注什么信息,更側重于時事新聞.這2種渠道都將要傳遞的新聞主動推送給用戶,從而建構這種主動互動的雙向關系.然而有學者對40位Facebook用戶展開了算法意識的調查,發現62.5%的參與者不知道Facebook的信息流策展.同時,“信息繭房”還在無形中進一步強化了用戶群體的“標簽性”,從而加劇了網絡社會的階層分化,形成新的數字鴻溝,進一步導致網絡社會的碎片化與群體極化現象.尤其是算法媒體通過算法技術及其架構實現了對人、地點、對象和思想以及與這些過程相關的思維、行為和表達習慣的重新排序、分類和分級[1],進而導致“信息繭房”現象的迅速蔓延與日益固化,基于年齡、學歷、知識背景等對不同內容消費的階層分化現象逐漸加劇.而這一新數字鴻溝的出現進一步強化了不同階層、群體之間的信息隔膜,造成某一群體針對某一信息不能暢通地與其他群體進行溝通交流,由此加劇了群體內部的極端化程度,導致群體極化現象的產生[2].二是算法驅動了“監控資本主義”的興起.現代信息社會的網絡化數字基礎設施使得持續、實時的監控成為可能,這不僅為監控資本主義的興起提供了必要條件,而且成為算法介入信息資本運行的重要基礎.作為信息資本主義發展的更高階段,監控資本主義已經蔓延到各類算法應用尤其是媒體平臺之中.其內在邏輯表現為,它通過對用戶數據的搜集、萃取、分析,以及個性化、持續性的實驗對用戶個人實施難以辨別的單項監控,產生巨大商業監視效能,繼而由算法預測和調整人類行為,獲取利益并控制市場[3].算法應用平臺作為商業利益驅動的企業主體,其核心目的不僅在于促進平臺應用的廣泛適用,而且在于實現以平臺廣泛應用帶來的巨大商業利潤.而隨著算法與平臺組織架構的深度融合,算法應用平臺實質上已經通過不斷搜集、篩選、分析用戶各項數據而逐漸建立起一座“數據資源池”.在大數據時代以及商業資本的帶動下,這座“數據資源池”實際上已經變成了部分網絡平臺賺取高額利潤的“原油庫”,用戶的各項數據被無形中嵌入到信息產業及數據經濟的生產鏈條,客觀上變成了被算法支配調控的客體,由此實現通過預測和修正人類的行為來獲得收益并控制市場.正如學者哈考特所言:“我們正在見證一個獨特的西方民主類型的監控社會的出現,因為我們愿意通過交換個人數據來換取網絡數字工具的效率和便利,從而讓自己成為算法監控的對象[4]”.正如近年來谷歌公司和Facebook的信息販賣和信息泄露等事件,已經暴露出這些巨頭公司在其“信息王國”中通過大數據攫取利潤的監控資本主義行徑.此外,由于以用戶數據帶來的巨大利益鏈條,算法應用平臺對用戶個人信息的搜集相較于公權力部門有針對性的監控(1)根據《中華人民共和國網絡安全法》《互聯網信息服務管理辦法》《互聯網新聞信息服務管理規定》等法律法規的規定,互聯網信息辦公室等部門主要對用戶是否存在不得制作、復制、發布、傳播法律、行政法規禁止的信息內容進行監控.而言更為廣泛和普遍,如用戶的瀏覽偏好、信息發布、位置信息、轉發推薦內容等.基于此,算法媒體基于對用戶群體數據“信息流”的掌控而通過平臺內的廣告投放等引導性機制調整用戶行為進而獲取利潤.在這一過程中,用戶的行為將會不斷被類型化區分并與“標簽化”的內容相匹配,實現用戶行為邏輯與平臺信息投放的契合.由此可見,“監控資本主義”作為大數據與人工智能時代信息經濟的產物,其打破了傳統的經濟模式及其結構,使得傳統法律層面主客體關系條件下人與機器的關系發生了異化——在監視資本主義下,人的價值在于其網絡行為產生的原始數據,進而為監視資本主義所重構的新型生產關系提供重要的原料和商品.

1.2 法律風險

當前,數字經濟的蓬勃發展已經將傳統的“物物交換”生產生活方式拓展為“數據交換”這一新型模式,大型公司通過算法技術以“同意-公開”的捆綁性前置程序不僅能夠免費獲取用戶行為數據,而且由此獲得制度層面合法性的“外衣”.隨著這些大型公司主體在算法技術及其架構方面優勢的不斷強化,傳統“國家-公民”二元主體框架下的金字塔型權力結構逐漸被打破,并型塑為“政府監管的制度權力、平臺運營商的技術權力與用戶享有的正當權利” 的扁平化權力結構.在這種新型權力結構框架下,日常生活中用戶以交換個人數據而享受平臺公司應用的數字生活方式[5],隨著算法技術及其架構與公眾社會生活的并軌交融,其可能產生的侵犯公民隱私權等法律風險日漸突出.一方面,算法應用需要以持續監控和收集個人數字行為數據為基礎,而這種持續性、無間斷地“搜集—分析—加工—決策”的運作邏輯實質上就是以公民各類信息如消費習慣、興趣愛好、社交結構,甚至家庭成員、醫療信息、婚姻財產狀況等隱私為導向的挖掘式精準營銷.在數字經濟時代背景下這些具有潛在無窮大價值海量的數據資源,在實踐中很容易被泄露而應直接用于商業運用,甚至作為工具性資源影響政治權力格局.另一方面,許多大型互聯網公司借助算法技術及其架構,已經算法決策、算法推薦等一系列直接涉及用戶正當權益的事項內置到算法運行程序之中.公眾等社會主體由于信息不對稱、對算法知識的缺乏等原因,加之算法偏見的隱蔽性植入,公眾難以真正理解算法決策的作出及其過程,其知情權、參與權等基本權利難以得到有效保障,實踐中這類損害發生后也難以舉證進行司法救濟.從而使得傳統法學意義上 “正當程序”或者“程序公正”,尤其是行政法強調的行政裁量權必須依法公正行使,從而確保公民的正當權利等理論或原則遭受沖擊.再一方面,算法決策的內容會損害實質性公平與分配正義.盡管有些學者已經從算法媒體治理的角度提出建立專門的監管機構、制定通行的監管規則、嵌入公共理性等方式,以增強算法運行及其決策的透明性[6],但實際上過分追求算法決策客觀性與無差錯結果則過于理性化.這是因為數據在進入算法程序應用時,其需要以可解釋性基礎為前提,而在這一算法處理的各個階段包括數據的收集、處理、過濾、歸納、分析、輸出等則是一個主觀處理的過程,從而產生算法偏見等現象[7].對此,學者Gandy[8]早在20多年前在福柯關于全景敞視主義論述的基礎上就提出,個人和群體信息的收集、處理和共享如何在營銷零售行業中被用來對商品和服務的獲取等隱憂.他進一步提出:“當這些技術被用來作出涉及公民具體事務決定時,這種‘故意的歧視’可能會破壞民主、平等、公平公正分配等,但法律對此幾乎沒有提供制度性保護[9].”而美國白宮則于2016年發布的《大數據報告: 算法系統、機會和公民權利》圍繞算法系統和機器學習的設計,從信貸、職業、教育以及刑事司法4個方面對大數據的適用與加劇算法歧視之間的關系作出解釋,提出公共部門與私主體之間應通過構建數據道德框架、議定數據使用規則、設計合理透明的算法系統、促進算法學術研究等方式,以避免算法歧視,從而實現公民個人權益的充分保障[10].

1.3 政治風險

政治及其系統的運行邏輯在于,通過合法且權威性的體制機制實現社會資源的合理分配,以促進社會公平、正義與民主為核心.隨著弱人工智能向強人工智能的轉變,算法偏見、黑箱等技術的不確定因素問題不斷地侵蝕并挑戰著既有的政治生態甚至政黨的執政安全[11].主要體現在政治傳播領域,算法借助其架構與技術優勢逐漸擺脫工具化屬性而向本體化的角色轉變,并開始實質性地作出直接涉及權力資源調配的決策.盡管算法被設計亦或應用都在強調其具有的“中立性”,但由于算法技術及其架構本身就是算法設計者、運行者將一系列代碼按照特定的組成而形成的一種程序性機制,這種程序化的運行鏈條不可避免地會結構性帶有他們的價值偏向與思維邏輯.所以說,在算法媒體中不同類型化的標簽式群體所接收到的信息,以及其推薦而層層疊加所形成的“信息繭房”等現象,實則是天然地帶有算法設計者、運行者“偏見”的程序性運行機制所導致的必然性結果.而這種算法偏見在實踐中會對社會公平正義造成很大的沖擊,甚至會因其導致的種族歧視、性別歧視、工作歧視、家庭歧視、膚色歧視等問題進一步沖擊社會秩序而危及整個政治生態.例如,2016年美國大選期間,特朗普團隊聘請數據分析公司劍橋分析(Cambridge Analytica),通過竊取5 000萬Facebook用戶的個人數據并對其進行心理特征分析,從而在游說中依據每一位用戶的年齡、性別、喜好、政治偏向等因素精準推送有關大選的廣告和新聞.對此,劍橋分析公司的產品總監奧茨科夫斯基曾評價:“數據不會贏得競選,關鍵是你如何理解數據如何使用它,進而對抗正常的政治趨勢[12].”此外,在算法“黑箱”及其不可解釋性等內部原因的共同作用下,算法程序在執行系統程序過程中難免會陷入形成自我固化的“盲區”,從而導致用戶始終沉浸在算法推薦的信息流之中,且其中隱含的帶有歧視性、狹隘性的信息內容難以被用戶發現,從而強化著不同階層的社會偏見,公眾之間的共識不斷被割裂分化,社會的公共性由此不斷被侵蝕.同時,隨著算法在公權力行使及其治理過程中的應用,算法技術及其架構不斷地被嵌入到既有的行政體制機制之中并發揮效能,從而在社會救助、精準扶貧、醫療福利等領域提供強有力的科技與算力支撐.但算法在增益社會治理與國家治理現代化的過程中,傳統的科層體制也在被不斷地注入工具理性,傳統公權力運行機制更加依賴以算法為代表的人工智能技術及其架構,這不可避免地會將算法偏見、算法黑箱等問題潛在地植入到整個國家權力運行及其決策系統之中.由此,如果這些問題造成的錯誤決策或偏見性決策等通過國家制度系統得以“表達”,則會損害政府的公共性、權威性,甚至引發比較嚴重的政治風險.例如近來澳大利亞國家審計署審查發現,國家數字健康署推行的“我的健康記錄”計劃及其體系存在較為嚴重的網絡安全問題和隱私風險,且為得到妥善有效的管控.事件爆出后,民眾紛紛選擇退出這一系統,并呼吁聯邦政府暫停此計劃的實施.盡管之前聯邦政府通過《我的健康記錄法案(2012年)》《我的健康記錄條例(2012年)》《我的健康記錄規則(2016年)》等法案為“我的健康記錄系統”提供了制度規則[13],但實踐來看這一計劃及其立法框架未能有效保障公民權益,將個人各類醫療信息置于可能被濫用、盜用的風險之中,政府也因此受到民眾的質詢.

2 算法風險應對的典型樣態:美國與歐盟的模式梳理

如前所述,作為數據治理體系的重要環節,世界各國和地區圍繞算法治理化解已經作出了諸多探索并形成了可借鑒的經驗,以期最大程度上預防并化解算法應用可能導致的諸多風險,進而促進數字經濟的蓬勃發展.以美國和歐盟為代表的發達國家和地區已經結合自身不同的文化背景、發展理念、規則框架等,形成了適合于本國家或者區域數字經濟發展并與其制度體系相洽的算法治理模式.

2.1 算法治理的概念及其內涵

近年來,隨著算法歧視、算法偏見以及個人信息隱私被侵犯等風險逐漸增加并進入公眾視野,算法治理(algorithm governance)同數據權屬、個人信息隱私保護、網絡安全挑戰等問題一同被推向網絡社會治理的前臺.特別是臉書內容推薦歧視、英國就業性別歧視、劍橋分析影響美國大選、美國芝加哥法院COMPAS算法案件等事件的披露,公眾和社會對算法治理的需求顯著提高.而這一過程中,算法治理內涵也已經發生了較大轉變,經歷了從“行業—國家—全球”的范圍轉變,成為各個國家與社會治理的重要內容.

里約熱內盧州立大學Doneda教授和哈佛大學Almeida教授[14]在其《什么是算法治理》一文中提出,算法治理包含嚴格的法律法規、純粹的技術觀點等不同層次,其重點通常是問責制、透明度和技術保證.而基于算法的性質、具體內容和風險分析等因素,算法治理有著不同的特定治理路徑.硅谷企業家Tim[15]則從規制的角度提出算法治理的監管系統應該具有如下4個特征:1)對算法應用的預期結果有深刻的理解;2)實時測量以確定是否正在取得成果;3)監管框架根據數據更新能夠作出調整;4)對算法本身是否正確以及是否按預期運行進行定期、深入的分析.結合當今數字經濟發展的時代背景與上述學者對算法治理的認識,本文認為算法治理是指:一國針對算法技術及其架構的應用、處理、保護等方面所采取的策略、方針、政策、法律等一系列制度安排的總和.算法治理內涵可以從以下幾個維度理解:1)主體層面.包括政府、社會公眾、企業、第三方專業機構等不同主體.2)內容層面.其主要內容包括算法技術的規范適用、算法風險預防、算法問責、算法透明性、算法可解釋性等.3)方式層面.其既包括法律規范、政策方針、行業規則等制度性資源,也涵蓋道德倫理、自我調整等非制度性資源.4)目的層面.其目的在于規范算法技術的科學合理適用,防范算法應用可能帶來的諸多風險,以切實保障公民合法權益,促進人工智能行業與數字經濟的深度融合發展.因此,算法治理實質上就是針對算法技術的治理,其既作為網絡社會治理的重要環節而統籌于整個網絡社會治理規則體系之中,又因其獨特的技術規制、引導等全部內容助推網絡社會治理體系法治化、現代化,以適應數字經濟對海量數據的快速、便捷、規范使用與網絡社會治理的制度需求.

2.2 美國基于“算法問責”的專門監管模式

作為最早應用互聯網的國家之一,美國在信息技術、人工智能、科技創新等數字經濟基礎內容方面一直領先全球,在世界數字經濟市場體系中處于優勢地位.基于其自身強大的資本力量與領先的信息技術,美國自互聯網應用以來一直在全球范圍內推進數據流通與數據應用,旨在通過加快本國企業占領世界數字經濟市場的步伐,從而在全球范圍內建立基于以其為主導數據規則的經濟市場,進而實現對數字經濟市場資本的攫取.同時,面對數字經濟發展帶來的一些問題,尤其是算法應用可能引發的諸多風險,美國基于其政策和法律體系較早地作出了監管策略和法律回應,形成了較為具體且靈活的治理框架及其結構,即通過綜合運用法律法規、自治規則、道德規范,形成政府、行業、第三方機構、公民等不同主體的治理合力,以規范算法的不同場景適用.

2017年1月12日,美國計算機協會下屬美國公共政策委員會(USACM)發布的《關于算法透明度和責任的聲明》指出:“生活中無處不在的算法促使我們應該專注于解決與算法的設計和技術方面相關的挑戰,并從一開始就防止偏見”.并提出了7項促進算法透明度和可靠性的原則,以旨在確保以算法為代表的技術和政策生態系統中實現公平,這包括:1)意識.算法系統的所有者、設計者、構建者、用戶和其他利益相關者等相關主體應意識到算法在應用中可能存在的偏見及潛在危害.2)獲取和救濟.監管機構應采用機制對算法決策提出質詢,使受到基于算法的決策不利影響的個人和團體獲得救濟.3)責任制.即使無法詳細解釋算法如何產生結果,機構也應對其所使用算法的決策負責.4)解釋.鼓勵使用算法決策的機構對算法所遵循的程序及其作出的具體決策進行解釋.5)數據來源.算法的設計者應該對數據如何收集加以描述,同時對算法數據收集過程引起的潛在偏差進行探究.6)可審查性.對算法的模型、應用及其數據和決策進行記錄,以便在懷疑有損害的情況下對其進行審查.7)驗證和測試.機構應使用嚴格的方法來驗證其模型,并記錄方法和結果[16].該聲明的發布不僅將以算法為代表人工智能存在的算法歧視、算法偏見、算法黑箱等問題推向公眾視野,而且在公共政策層面提出了解決此類問題的原則性規定,為立法層面出臺相關法案提供了實踐導引.

為了進一步規范算法技術在政府機構及其權力運行如犯罪預測、量刑建議等活動中的應用,防止算法決策引發的偏見與歧視問題,2017年12月,美國紐約市議會通過了首部針對人工智能進行監管的《政府部門自動決策系統法案》.這部法案要求成立一個由自動化決策系統專家和受自動化決策系統影響的公民組織代表組成的工作組,以就市政機構使用自動決策算法的公平性、問責性和透明度等問題進行專門監督,并作出如下具體規定:明確界定需要受到規制的政府機構自動化決策系統;受政府機構自動化決策系統影響的個人可以要求提供解釋和證據;制定判斷是否存在算法歧視的程序;向受政府機構自動化決策系統影響的個人救濟途徑;應當將政府機構自動化決策系統(包括代碼、算法等技術性信息)向公眾公開.由此,對公共領域的算法應用在法律層面作出專門回應,這不僅有利于促進公權力決策的規范性、正當性與權威性,而且進一步完善了算法規制的法律框架,為算法治理的規制體系奠定了重要基礎.

2019年4月,為了進一步規范人工智能機器學習系統的道德使用,解決高風險的人工智能系統比如檢測人臉或基于敏感個人數據作出重要決定的技術,以及更大范圍內保護用戶數據的隱私和安全,美國眾議院和參議院的民主黨議員提出《2019年算法問責法案》,要求企業對其人工智能工具和系統的“準確性、公平性、偏見、歧視、隱私和安全性”等問題進行自我審查,并將這一監管權力提議授予聯邦貿易委員會(FTC).同時,這項法案將適用于能夠獲取大量信息的大型科技公司,包括年收入超過5 000萬美元的公司,以及擁有超過100萬消費者數據的數據代理商和企業[17].可以看出,該法案的提出也是美國在上述算法治理的先行經驗基礎之上,為了進一步促進算法在數字經濟時代的規范應用,保障非公共領域的用戶權益,在聯邦層面進行的立法探索.如果這一法案獲得批準,將會為美國的算法治理提供堅實的制度支撐.

從上述主要實踐可以看出,美國針對算法治理體現出較為明顯的實踐導向,注重以“算法問責”為核心而構建起算法妥恰應用的外部控制模式.這一模式實質在于通過社會、經濟和政治機制等不同維度的合力以實現對算法的權力制衡[18],具有如下特點:1)注重引入第三方機構對算法透明、算法決策的專業審查作用;2)著力推動行業自治,促進企業主體針對算法運行進行自我監督、自我解釋;3)充分發揮公眾監督力量,將公眾參與置于涉及算法運行的各個階段;4)針對公共領域內算法運行進行立法規制,而在非公共領域則突出政府協助、行業主導、公眾參與的治理模式.總體來看,美國的算法治理模式從不同的立法層級、規則構建、問責設計、監督方式、權益保護等方面針對人工智能尤其是算法規制作出具有延續性的制度回應,這與美國在個人信息隱私保護、數據保護、網絡安全保護、未成年人網絡保護等統籌于網絡社會治理的整體性框架之中,其治理思路、框架、路徑本質上都是遵循盡量避免政府的直接干預,注重對新興技術的引導和支持,以促進社會經濟尤其是數字經濟發展的技術路線,呈現出“條塊分割”型的專門治理樣態.

2.3 歐盟基于“增益用戶權利”的結構控權模式

作為當今世界數字經濟發展的重要區域之一,歐盟在數據保護、數據治理法治化等方面一直走在世界前列.但由于歐盟各成員國之間在文化傳統、法律規范、制度體系、經濟發展、科技創新等方面存在的差異,歐盟始終難以構建區域內較有影響力的互聯網巨頭企業,由此導致其推進自身數字經濟體系建設的過程步履緩慢.因此,相較于美國注重以靈活的治理體系以保護和促進新興經濟發展,歐盟始終以打破不同成員國之間的數字孤島、保障人的數字化發展及其基本權利為目的,大力推進數字化單一市場戰略為出發點,并以嚴格立法的形式構建起了強有力的數據保護規則體系.基于這樣的背景,歐盟目前并未通過專門立法以引導算法治理,而是將算法治理內嵌于其數據保護框架之中,通過具體條款以調控算法應用在不同階段對人造成的偏見、歧視等損害.這種統籌協調于數據保護整體框架之中的算法治理模式實質就是以增益公民權利對抗算法應用可能帶來的危害后果.

歐盟于1995年頒行了歐洲第1部個人數據保護法規《數據保護指令》,在立法目的、立法原則、數據主體的權利、數據保護監管機構、跨國數據流通的限制等方面作出詳細規定,由此構筑起了歐盟數據保護的基本框架,為各成員國之間妥善處理保護數據主體權利和促進自由貿易提供了規則體系支撐[19].為了進一步打破成員國之間的數字壁壘,促進區域間數字商品、服務和市場健康發展,歐盟委員會在2015年5月出臺的《數字單一市場戰略》中提出,構建數字化單一市場戰略將建立在三大支柱之上,其第一大支柱是使全歐洲境內的消費者和企業能夠更好地使用在線產品和服務;第二大支柱是為數字網絡和服務的蓬勃發展提供更好的環境;第三大支柱是使歐洲數字經濟的潛力實現最大化.其中,在第二大支柱的具體內容中提出一些在線平臺如搜索引擎、社交媒體、電子商務平臺、應用程序商店、價格比較網站等在數字經濟生活中發揮了越來越重要的作用,但這些擁有重要市場力量的平臺通過算法處理、分析、轉化用戶數據的行為已經引發了社會公眾的擔憂,提出需要根據新的數字環境構建適合平臺發展的監管框架.對此,歐盟委員會提出從以下幾個方面對在線平臺以及互聯網中介服務提供商進行綜合評價,以制定后續的監管框架.1)透明度,如:搜索結果的透明度(含付費鏈接和廣告);2)在線平臺對用戶數據的使用情況;3)在線平臺與數據服務商之間的關系;4)對平臺在用戶數據進行平臺間轉移的限制及意愿進行分析;5)如何對互聯網上的非法內容進行最佳處理.這一戰略的提出不僅為歐盟推動數字單一市場與數據保護體系的構建奠定了規則基礎與制度框架,而且也為算法應用帶來的挑戰提供了初步的治理策略.為了回應機器人和人工智能發展過程中帶來的歧視、非正當程序與可解釋性等問題,歐盟于2017年2月通過了《機器人民事責任法案》.該法案提出,進一步發展和增加使用的自動化和算法決策無疑會影響個人的選擇(如一個企業或一個互聯網用戶)和行政、司法或其他公共機關的權威,需要現有的法律框架針對這些問題予以回應,并確認這些問題造成危害后果時從業務視角模型和人員設計模式2方面明確法律責任.同時,鑒于安全保障以及人工控制和核查的可能性需要納入自動化和算法決策過程,實現對算法技術應用的合法合理限制.這部法案還強調要構建符合算法合理應用的道德框架,通過為算法應用的發展、設計、生產、使用和修改制訂一個明確、嚴格和有效的指導道德框架,以補充上述提到法律框架難以規制的方面[20].

隨著互聯網信息網絡、大數據、云計算等新興技術的迅猛發展,為了進一步應對大數據與數字經濟背景下用戶數據指數級增長帶來的保護新挑戰,歐盟在《數據保護指令》建立起的數據保護體系基礎上,于2018年5月正式實施《通用數據保護條例》(GDPR,以下簡稱“條例”).這部新條例由11章共99條組成,對其立法目的、數據處理的原則、數據主體的權利、控制者和處理者的義務、獨立監管機構、合作與一致性、責任救濟、處罰規則、授權行為和執行行為等作出詳細規定.進一步聚焦到算法治理方面:1)條例第2條規定:“本規例適用于全部或部分以自動方式處理個人數據,以及以自動方式以外的方式處理構成檔案系統一部分或擬構成檔案系統一部分的個人數據.”第4條規定“‘個人數據’是指與已識別或可識別的自然人(數據當事人)有關的任何數據;可識別的自然的人是可以確定的,直接或間接,特別是通過引用一個標識符,比如名字、身份證號碼、位置數據,在線標識符或特定的1個或多個因素的物理、生理、遺傳、心理、經濟、文化和社會身份的自然人.”質言之,這2條規定將基于算法技術而產生的大量數據分析、處理、決策行為,以及可能導致的算法偏見、算法歧視等危害后果納入到條例確立的框架體系的調整范圍之內.2)對于敏感數據數據處理方面,條例第9條規定:“對揭示種族或民族出身,政治觀點、宗教或哲學信仰,工會成員的個人數據,以及以唯一識別自然人為目的的基因數據、生物特征數據,健康、自然人的性生活或性取向的數據的處理應當被禁止[21]”,但其列出了應當被禁止的例外情形如獲得數據主體的統一、為了公共利益之必要等.3)條例第3章“數據主體權利”對數據主體行使權利的透明度、交流和模式,數據控制者關于糾正或刪除個人數據或限制處理的通知義務,數據主體收集的個人數據的提供,以及數據主體的數據訪問權、糾正權、被遺忘權、限制處理權、反對權、拒絕權和自主決定權等作出的詳細規定.這些規定不僅從法律層面使數據控制者應增強其適用算法技術的透明度,并作出便于數據主體理解的解釋,而且通過賦予數據主體被遺忘權、訪問權、糾正權等新興數據權利的方式,增強數據主體對自身行為數據的階段性控制,以此對抗因算法決策產生的算法歧視、算法偏見等現象.4)條例第4章“數據控制者”對其基本義務、數據保護的設計和默認、記錄數據處理活動信息、數據保護影響評估和事先咨詢、行為準則等內容作出詳細規定.尤其是條例第29~32條對數據處理者的行為義務包括“處理的主題和處理的期限、性質和處理目的、對處理活動的記錄、處理過程的安全性”等等作出明確規定,通過嚴苛的法律責任以規范數據處理者的行為.此外,第37~39條還提出設置數據保護專員制度與獨立的監管機構,從而為數據控制者和處理者合理規范使用用戶數據提供了強有力的外部監督體系,由此從數據被處理的各個階段構建起以數據控制者和處理者責任義務為核心的問責機制.

總體來看,歐盟關于算法應用導致的相關治理問題已經取得較好成效,尤其是自GDPR實施以來,其在逐步推進嚴密規范、系統完備數據保護體系的同時,也構筑起散布于這些法規條例之中的算法治理體系.這種基于“增益用戶權利”的控權模式具有如下特征:1)服務并統籌于歐盟數據治理體系框架之中,且隨著其數據之體系的不斷完善而完善;2)圍繞保障并不斷增益數據主體的新型數據權利為核心,進而對抗數據主體可能遭受的算法危害;3)通過設置數據保護官、專門的監管機構等方式,從法律制度層面不斷強化算法規范應用的外部監督體系.但由于歐盟出臺的相關條例尚未從制度層面區分算法具體應用的不同場景、結構及其功效,這種注重對用戶個人新型權利法益保護的控權型算法治理模式,則可能在具體實踐中致使算法治理難以合理相洽于歐盟整個數據治理結構中,從而會對以人工智能為代表新興行業的發展形成一種難以避免的壓制性力量.

3 域外經驗與本土展望:我國算法治理的路徑優化

當前,我國的算法治理問題及其治理需求主要集中在以算法商業應用的平臺經濟中.隨著我國大數據戰略的實施與人工智能技術的廣泛應用,算法、算力及其架構在為數字經濟蓬勃發展奠定關鍵技術基礎的同時,也潛在地增加了由算法偏見、算法歧視、算法黑箱等問題可能引起諸多風險的可能性.特別是近年來魏則西事件、脈脈非法抓取使用新浪微博個人信息案件、淘寶大數據殺熟等為典型代表的算法推薦、算法新聞負面事件的頻頻發生,進一步將以算法治理為深層次邏輯的平臺治理推向網絡社會治理的前臺,其不僅涉及到平臺信息內容、平臺經濟驅動等關乎經濟利益分配乃至權力分配格局的進一步優化,更關系到我國的信息主權安全.面對我國現實且緊迫的治理需求,國家立法機關以及以國家互聯網信息辦公室、中共中央網絡安全和信息化委員會辦公室為代表的公權力部門,在遵循《中華人民共和國網絡安全法》(簡稱《網絡安全法》)等網絡空間基礎性法律的前提下,對以算法技術為代表的人工智能治理內嵌于平臺治理之中,并遵循規范治理與技術治理的原則,修訂并出臺了相關法律法規、規范性文件如《中華人民共和國電子商務法(2018年修訂)》(簡稱《電子商務法》)《網絡信息內容生態治理規定》《信息安全技術個人信息安全規范》《App違法違規收集使用個人信息行為認定方法》等(2)這些法律法規、規范性文件中均對以算法為代表的人工智能技術規制作出相關規定,如:《電子商務法》第18條、第35條、第40條規定電子商務經營者在使用算法推薦技術發送廣告等行為的,應當遵循相關法律規定,切實保護用戶權益.《網絡生態治理規定》第13條、14條、15條、16條對網絡信息內容服務平臺應當加強以人工編輯、機器算法等方式推薦、呈現信息環節的管理,應當建立體現主流價值導向的推薦模型,建立健全人工干預機制,建立用戶自主選擇機制等內容作出規定.《信息安全技術個人信息安全規范》在第3,5,7部分對用戶畫像等作出詳細規定.同時,《個人信息保護法》《數據安全法》已經進入審議階段.,以引導平臺企業主體行為,規范算法技術的合理適用,促進平臺經濟與網絡經濟、網絡社會與現實社會的持續健康發展.但從算法治理的整體效狀檢視,當前我國算法治理的實際能效難以與社會對其治理的現代化現實需求相匹配,主要體現為算法治理的制度基礎尚不堅實且靈活、治理理念重責任監管、治理技術不精細,等等.因此,基于我國制度特色與算法治理的本土探索,結合上述對算法引發的諸多風險以及歐美算法治理的模式選擇與經驗,提出未來我國算法治理的可行性路徑,以期實現算法治理的制度科學化、結構合理化、方式精細化、過程民主化,以科學完備、系統合理的算法治理制度助推網絡社會治理體系和治理能力現代化.

3.1 構架“多方均衡”的算法治理體系

算法治理作為社會治理尤其是網絡社會治理的重要環節,其治理效能與治理能力的提升不僅有助于為共建共治共享的社會治理格局提供有效的法治保障,而且能夠進一步完善網絡社會治理體系,推進國家治理體系和治理能力現代化.而堅持和樹立科學的算法治理理念是引導算法治理行動策略、實現算法治理現代化的基本前提.首先,不同于歐盟通過為公民個人賦權以對抗算法風險,亦或美國通過構建外部專業的問責機制確保算法規范應用,我國的算法治理體系構建應在綜合考慮基本國情、經濟發展、數據安全、信息保護等因素的基礎上,確立構建滿足國家數據安全、數字經濟發展、人工智能產業升級和個人信息保護的“多方均衡”算法治理理念.這既是在網絡社會治理整體治理格局角度下,綜合平衡不同利益主體、行業發展的現實選擇,也與我國堅持和完善共建共治共享社會治理格局的基本要求在理論與實踐邏輯上相洽.其次,依據算法應用的不同階段、場域、方式及其可能造成后果影響的大小,有重點、分主次地制定政策與法律規范以引導算法治理.由于法律天然具有的滯后性使得其難以對算法為代表的人工智能技術的飛速發展帶來的諸多風險與挑戰作出及時回應,對此,可以借鑒美國在此方面注重以行業政策、公共政策如算法倫理原則等方式,在未來妥當利用政策具有的靈活性而有效及時地引導算法治理.同時,在此基礎上,還須確立整體主義的算法治理思路.這是指對算法治理的制度設計就是要在考量算法應用在不同行業發展及其特性基礎上,綜合公權力部門、公民、第三方機構、算法應用等不同主體的關聯性因素進行整體性制度構建.這要求在具體制度設計中須明確其目的與價值注重修正公權力部門、平臺運營商、公民三方主體的權利(力)、義務(責任)的畸輕畸重偏差,厘定其三方主體之間的權利(力)、義務(責任)邊界,為司法實踐中存在的相關法律問題提供正當明確的制度依據.此外,在法律制度體系建構層面,須以《網絡安全法》和即將出臺的《中華人民共和國個人信息保護法》(簡稱《個人信息保護法》)《中華人民共和國數據安全法》(簡稱《數據安全法》)等網絡空間治理的基礎性法律為上位法依據,并結合國家網絡安全與信息發展的方針、相關行業規則、技術標準等,針對算法應用主體的特征、不同主體之間的權利(力)義務(責任)關系等方面進行專門性立法.

3.2 健全算法治理的制度基礎

合理的算法治理結構旨在通過監督、激勵、控制和協調的一整套制度安排,以充分發揮各治理主體的能動性,從而實現治理資源的有效配置.一方面,在法律層面實現數據保護與算法權力規制的有序銜接.從我國當前法律制度體系來看,傳統的法律制度偏重于對信息內容的管控,如《網絡安全法》《全國人民代表大會常務委員會關于加強網絡信息保護的決定》《互聯網信息服務管理辦法》《互聯網新聞信息服務管理規定》《互聯網文化管理暫行規定》《互聯網群組信息服務管理規定》等多部法律法規及規范性文件,都以信息內容及其保護為出發點對網絡信息的傳播、搜集、認定作出相關規定.這種側重于對信息內容管控的法律制度安排不僅導致傳統結果監管思路下,公權力部門內容審查范圍擴大、難度增加與算法應用主體監控責任加強的尷尬局面,而且忽視了人工智能時代由于算法技術應用導致的信息分類處理的不可解釋性、“黑箱”現象.其實質上是從加強對數據控制以保護個人信息法益的角度去建構這一法律體系,實踐中可能會對以數據共享互惠為基礎運行法則的互聯網應用及其發展造成一定的制度阻礙.實現數據內容保護與算法權力規制的有序銜接須綜合考量當前網絡法律體系尤其是不同法益保護面向、層級、屬性的制度規范而提出來的規制思路.這是沿循當前個人信息保護法律框架,結合算法應用主體的發展特點、架構特征及其可能導致的社會風險而提出來的層級協調體系.盡管當前不少學者對于算法提出“技術中立”的原假設,但事實往往是算法一旦走向應用,不同行業領域的利益屬性交織而使其難以保持中立.因此,算法媒體規制的重點不在于是否要分場景、層次、級別的適用算法,而在于從制度體系層面實現對算法技術、架構及其應用的規制.這要求公權力部門在進行具體制度設計時須以涉及個人信息保護的基本法律框架為基礎,在處理好數據流通與個人數據基本權利保障之間平衡的前提下,將對平臺運營商所設計算法程序規制作為重點,通過建立一系列風險防控機制預防、預測、預警算法應用主體可能出現的危害后果,由此從源頭上控制并盡量避免平臺資本無序崛起、媒體公共性消解等風險的發生.

另一方面,在內容層面積極保障用戶權益并明確其救濟途徑.人工智能技術的創新發展不僅使得人類生產生活發生了顛覆性變化,更促使人的權利集合中增加了數據法益的要素,改變了傳統人權實現及其保護的權利邏輯.這一系列變化亟需新的法律制度體系以應對人權內涵的變化、人權價值的實現以及人權保障的滿足.而算法作為人工智能技術的典型代表,對其治理之目的不僅在于防止算法技術性權力的不合理擴張,還在于充分實現用戶個人數據權利的充分保障,這包括數據信息自主權、數據信息知情權、數據信息表達權、數據信息公平利用權、數據信息隱私權、數據信息財產權,等等.同時,我國現行有關算法應用規制的《互聯網新聞信息服務管理規定》《互聯網信息內容管理行政執法程序規定》等法律法規幾乎未對公民個人權利救濟的具體情形、方式、程度等作出明確規定,反而是算法應用主體發布的章程如《新浪微博公約》對用戶正當權益受損的救濟途徑、方式等作出較為詳細的規定.因此,未來針對算法應用的相關法律法規亦或是行業規范等,均應當注重將個人在算法應用平臺中的救濟權利予以制度化、規范化,唯有通過制度保障與權益法定相結合的方式才能最大程度地保障用戶切身權益.此外,結合上述相關制度設計,這種救濟權利可以進一步分為平臺救濟與司法救濟2個環節,實踐中個人的權利救濟主張應當在申請包括算法決策的解釋、算法可解釋內容等平臺救濟未果的基礎上,再被導入司法救濟,實現發揮平臺效用與節省司法資源之協調.

3.3 設置限制算法技術性權力擴張的機制

算法技術及其架構的復雜性決定了算法治理需要遵循一定的治理原則,依據算法具體適用的不同場域、方式、類型及其他相關因素進行精細化設計.

一方面,對算法問責方式適用“場景式類型化劃分”+“層級監管措施”的模式.相比公權力機關監管所有的算法決策、設定一般性的監管規則,通過構建算法問責機制以促進算法決策正當性已經逐漸成為業界共識.公權力機關應以促進算法技術及其構建正確應用為基本目標,通過一系列框架和程序設計對因不同算法應用可能產生的損害后果進行劃分認定,從而使潛在的危害可以在“算法系統”中評估、控制和糾正,如圖1所示,即算法應用主體對發生的違法違規現象進行事實和法律認定;確定算法是否按照算法應用主體設定的既定程序(符合算法應用主體的意愿)運行;確認算法應用主體是否有對已經發生的違法現象進行確認并作出措施積極修正.在這個權責框架內,政府、企業主體、專業評估機構等主體,還須結合算法應用可能造成權益分配、行為后果、危害程度等不同企業應用作出層級劃分,并據此出臺不同類型的相關監管措施,由此避免在實踐中對企業主體處罰的“一刀切”等現象,實現算法應用層面激勵約束并舉的引導性策略.

另一方面,厘定算法可解釋性內容及其原則.隨著算法應用在方式、層次、深度方面的逐漸加深,算法由初級到深度學習的過程中經歷了結構的簡單到復雜、線性到非線性的轉變,這也使得社會公眾的認識體系越來越難以與其運行邏輯相匹配.基于此,無論基于算法應用主體自身規訓“算法權力”的考量,亦或是公權力部門規制算法應用主體、保障用戶基本權利的需要,有必要專門針對算法應用的具體場景而厘定算法可解釋性的相關內容及其進行解釋的原則.其可解釋內容主要包括:算法應用主體適用算法的類型、方式、領域及其應用基本原理;算法應用主體為適用算法運行而構建的基本架構及其類型;算法對用戶數據信息搜集、處理、分類、再分發的基本知識.但考慮到商業秘密、技術創新、知識產權保護等因素,其解釋的內容不應包含具體的技術細節.同時,算法應用主體須遵循便于理解原則、相關性原則、層級性原則等具體原則,以便于實踐中用戶理解算法運行機制,合理保護其自身權益.

圖1 算法應用產生損害后果的認定程序

3.4 增益算法治理的公共性

公共性是當今構建民主社會的內在核心之一,其一般體現為制度、理念與行動的公共性,科學的治理理念與制度體系為治理的行動提供了重要支撐,而合理的治理行動又是治理理念與制度體系得以彰顯的具體表達方式.從這個視角來看,我國算法治理的路徑優化除了須在更新治理理念、調整治理結構、細化治理方式的基礎之上,還需要政府發揮主導性協調作用,著力推進多方主體參與算法治理的互動體系,從而以算法治理的過程公共性促進算法的多元共治.因為算法治理實質上就是政府、算法應用主體(企業)、公民等主體,即公共利益、商業利益以及個人利益之間互動、博弈與平衡的過程,而算法治理的最終目的則要求妥善實現不同主體之間權力分布與利益分配互融相洽的格局.因此,作為天然地擔負公共治理職責的政府須根據人工智能發展的階段性特征與算法技術應用的實際情況,通過搭建算法治理的互動平臺和有效載體,建立政府、企業、公眾互動協調的治理機制.如未來算法媒體行業在設計其算法問責機制或制定具體的《可解釋性準則》等規定時,公權力部門要發揮好其引導作用,通過構建平臺基于行政職權分擔的社會責任體系與加強用戶平臺治理的話語權[22],將不同主體間尤其是公民關于問責機制、算法可解釋性內容的訴求意愿共同嵌入到制定過程之中,從而使算法可解釋性及其內容構建更具有正當性,以為司法實踐提供可操作性與規范性的指引.

4 結 語

人類社會不斷發展演進的歷史經驗表明,每一次新技術的產生在逐漸影響、推進、革新社會結構及其制度的同時,也潛在隱藏著諸多風險.基于規制風險而設置的各類防范舉措、方針亦或政策等也將會通過漸進且結構性的預期回應,對新技術的應用與發展提供更科學合理的制度支撐.當下,在人工智能、大數據與數字經濟時代多重疊加的背景下,算法作為一種革命性技術力量正在顛覆著人類傳統生產生活方式而邁入數字社會,而基于算法風險預防、預測與化解的需要,算法治理作為一種時代需求也亟需各國進行制度回應.無論是美國的 “算法問責”外部控制模式,亦或是歐盟的“增益用戶權利”內部控權模式,究其本質都是對算法及其權力的規范適用.但算法治理終究是一個復雜的系統性工程,如果說算法是這個時代的偉大發明,那么算法治理則是各國難以忽視的時代難題.因為算法的應用不僅僅是顛覆了人類的生活方式,它其實更深層次地改變了傳統的經濟生產方式、結構、體系以及與之相匹配的制度規則體系與權力分配格局.我國已經圍繞人工智能發展、數字驅動戰略與網絡社會治理,針對算法治理作出了立法、政策、行業規則方面的制度回應,但仍然與國家治理能力與治理體系現代化的社會需求、制度需求、時代需求存在一定的差距.不可否認的是,未來算法治理的路線圖與具體方式將會更加明晰,但當下需要學術界和實務界共同努力并從實現科技與法律、良法與善治之協調的視角,對其實踐中產生的各類問題進行分析回應,為立法機關、行政機關、不同行業提供合理切實建議,從而進一步探尋算法治理的“中國方案”,為世界分享算法治理的“中國經驗”.

主站蜘蛛池模板: 日韩精品成人在线| 国产一级毛片高清完整视频版| 香蕉久久国产精品免| 黄色三级毛片网站| 97色婷婷成人综合在线观看| 精品视频福利| 国产在线精品99一区不卡| 亚洲欧洲日本在线| 国产人免费人成免费视频| 91极品美女高潮叫床在线观看| 国产91色| 黄色成年视频| 欧美精品一区在线看| 57pao国产成视频免费播放| 看你懂的巨臀中文字幕一区二区 | 成人福利在线视频| 天堂岛国av无码免费无禁网站| 综合色区亚洲熟妇在线| 99精品伊人久久久大香线蕉| 免费三A级毛片视频| 亚洲美女久久| 亚洲欧美成人网| 国产主播喷水| 无码精品国产VA在线观看DVD| 伊伊人成亚洲综合人网7777| 国产一在线| 亚洲中文字幕23页在线| 亚洲综合18p| 国产激情影院| 九九九国产| 亚洲天堂啪啪| 亚洲色图另类| 综合久久五月天| 爆操波多野结衣| 午夜电影在线观看国产1区| 亚洲欧洲美色一区二区三区| 久热精品免费| 91午夜福利在线观看| 亚洲午夜福利在线| 国产尤物视频网址导航| 国产成人综合久久| 国产自在线拍| 白丝美女办公室高潮喷水视频| 亚洲性影院| 国产成人禁片在线观看| 国产精品免费福利久久播放| 国产一级毛片在线| 国产第四页| 日韩视频福利| 精品無碼一區在線觀看 | 色国产视频| 好紧太爽了视频免费无码| 午夜视频www| 动漫精品啪啪一区二区三区| 精品无码日韩国产不卡av| 国产97公开成人免费视频| 国产乱人伦偷精品视频AAA| 欧美精品高清| 秋霞国产在线| 国产免费好大好硬视频| 国产午夜看片| 色欲不卡无码一区二区| 日本在线视频免费| 精品人妻一区无码视频| 中文成人在线视频| 亚洲人网站| 人妻丰满熟妇αv无码| h视频在线播放| 国产午夜无码片在线观看网站| 亚洲欧洲自拍拍偷午夜色| 国产极品粉嫩小泬免费看| 久久中文字幕2021精品| 91成人精品视频| 欧美翘臀一区二区三区| 午夜毛片免费观看视频 | 丁香婷婷综合激情| 欧美综合中文字幕久久| 国产自在线拍| 青青久久91| 国产女人喷水视频| 色婷婷天天综合在线| 国产第四页|