999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

平臺算法監管的邏輯起點與思路創新

2022-09-06 09:44:22肖紅軍商慧辰
改革 2022年8期

肖紅軍 商慧辰

隨著平臺商業化的逐步深入,大數據和人工智能技術的研發和應用逐漸集中于大型平臺。數據、算法、算力相輔相成,在平臺的運用下以顛覆性和變革性的節奏將我們帶入算法時代。擁有核心算法的大型平臺可以迅速獲知互聯網平臺用戶的信息和軌跡,對市場行情作出精準判斷并輕松獲取市場競爭優勢地位。算法使得平臺在市場信息收集、用戶偏好判斷、資源配置優化、交叉網絡外部性構建等方面存在以往技術難以替代的計算優勢,算法成為驅動平臺資本主義運行的“內燃機”。借助算法的力量,平臺與用戶和社會保持著看似“輕鏈接”的中立關系,平臺行為表面上是算法自動化決策的結果,在運行過程中卻因算法技術自身因素和平臺價值偏好引發系列算法失當問題。對于消費者來說,基于用戶行為的推薦與過濾算法導致的個性化排名和差異化定價,通過向用戶提供碎片化認知操縱用戶軌跡,實現價格歧視,侵害消費者福利;對于平臺競爭業態來說,不僅平臺和企業自身可以通過算法壓制競爭對手曝光度、排斥新進入者,平臺之間、企業之間亦可以通過算法實現隱性或顯性合謀,損害市場公平競爭環境。算法黑箱的存在以及各式各樣的算法歧視、算法合謀、算法霸權等算法失當行為引發了學術界和業界對于平臺算法的信任危機,針對平臺算法的監管迫在眉睫。

平臺經濟下的算法監管引起了國內外政府和社會的高度重視。一方面,關于普適性算法監管的制度供給不斷涌現。2018年5月,歐盟全面施行《通用數據保護條例》,提供了有關算法自動化決策的行為指南,以個體賦權為主要形式的算法治理路徑由此展開。2021年4月,歐盟委員會公布了《關于“歐洲議會和理事會條例:制定人工智能的統一規則(人工智能法案)并修訂某些聯盟立法”的提案》,確立了算法應用主體和政府在算法應用過程中應遵循的底線原則,并界定了基于風險等級的算法應用場景。相應地,美國于2017年12月簽署通過了美國立法史上第一個對公用事業領域算法進行問責的法案,即《算法問責法案》;2019—2022年,美國立法者相繼提出并持續更新《算法責任法案》,旨在為軟件、算法和其他自動化系統帶來新的透明度和監督方式。中國近年來也愈加意識到算法監管的重要性。2021年,《國務院反壟斷委員會關于平臺經濟領域的反壟斷指南》《中華人民共和國個人信息保護法》《關于維護新就業形態勞動者勞動保障權益的指導意見》印發,對算法自動化決策亮起了“紅燈”,以保護用戶數據隱私,維護勞動者權益;國家互聯網信息辦公室等部門聯合印發《關于加強互聯網信息服務算法綜合治理的指導意見》,以加強互聯網信息服務算法綜合治理。另一方面,監管機構逐步認識到平臺作為算法的設計者、擁有者和使用者的角色地位,針對平臺算法的制度供給進入公共治理視野。2020年12月,歐盟委員會發布《數字市場法》與《數字服務法》提案,對其互聯網領域的規則進行全面改革,構建了網絡平臺特別是大型平臺的梯度算法責任體系。中國也于2021年逐步加強了針對平臺算法的制度規制。2021年10月,國家市場監督管理總局公布《互聯網平臺落實主體責任指南(征求意見稿)》《互聯網平臺分類分級指南(征求意見稿)》,推動平臺企業落實其算法規制責任。同年12月,國家互聯網信息辦公室、工業和信息化部、公安部、國家市場監督管理總局聯合發布《互聯網信息服務算法推薦管理規定》,將應用算法推薦技術向用戶提供信息的算法推薦服務提供者特別是大型平臺作為算法治理對象。為響應《互聯網信息服務算法推薦管理規定》,國家互聯網信息辦公室牽頭開展“清朗·2022年算法綜合治理”專項行動,重點檢查具有較強輿論屬性或社會動員能力的大型網站、平臺及產品,推動算法綜合治理工作常態化和規范化。但是目前特別是國內平臺算法監管仍處于起步階段,針對平臺算法監管的系統性研究不足,平臺算法監管的邏輯起點尚未明晰,在如何達到適度的監管強度與合意的監管模式等方面仍存在一些爭議,平臺算法監管仍存在較大的研究空間。

隨著平臺算法監管實踐的不斷推進,理論界也在不斷探索平臺算法監管的完備體系與理想模式。現有對平臺算法監管的研究集中于以下方面:其一,部分學者針對特定的平臺算法議題進行研究,一方面重點關注平臺應用算法推薦技術帶來的倫理學風險,認為算法推薦技術會逐步讓人類社會陷入“技術拜物教”的泥潭,并相應地提出了倫理風險治理方案;另一方面則關注平臺算法應用帶來的社會經濟議題及其治理方案,如從算法合謀的類型、危害、治理方式,算法黑箱的成因、風險和規制方案,算法歧視的分類、界定、治理模式等具體算法議題出發,試圖剖析各類危機產生的機制,探索危機治理方案。其二,另有一些研究重點關注平臺算法的特定應用場景,如針對人工智能醫用軟件平臺、第三方支付平臺等算法應用場景提出相應的風險控制與算法治理方案。其三,學術界也開始系統性關注平臺算法監管模式、平臺算法監管實現路徑等方面,對歐美以及中國的平臺算法監管 體 系 進 行 剖 析 和 梳 理,并 試 圖 從 法 律 規制、技術監管以及協同治理等角度探索平臺算法監管的理想方案。盡管學術界對于平臺算法監管作出了多條路徑的積極探索,對平臺算法監管具有重要的理論和實踐價值,但目前平臺算法監管仍存在許多理論探索的空間,尤其是對平臺算法監管的邏輯自洽性和全景式監管模式的刻畫,有必要進一步進行深入探究和討論。

一、平臺算法監管的邏輯起點

探究平臺算法監管的邏輯起點,是為了明確平臺算法監管的緊迫性、正當性與自洽性,即回答為什么要針對平臺算法進行監管。平臺算法監管的邏輯起點主要可以從技術邏輯、發展邏輯、現實邏輯和責任邏輯四個方面予以解讀。

(一)技術邏輯:算法運行的非中立性

現代計算機算法概念主要來自20世紀英國數學家圖靈提出的圖靈論題,即一種通過在無限長的紙條上進行打孔計算的計算機假象模型,算法則是這個計算機抽象模型解決不同問題的不同方法和程序。隨著邁入人工智能領域,機器學習算法成為主流,其通過設定某些參數條件使計算機自動生成算法,即“算法的算法”,逐漸類似于人類大腦學習的方式,從而使算法能夠自我改進、自我學習、自我強化。具體到平臺情境,平臺算法作為平臺功能得以實現的技術載體,體現為人機交互的決策機制,而平臺算法監管的正當性恰好與算法在人機交互過程中是否中立的認知密切相關。部分學者堅持技術中性論,哈佛大學教授梅賽納的觀點即技術中性論的代表性觀點,其認為技術應用的目的和其產生的經濟社會影響,均與技術本身固有的性質無關,而與“人”通過技術來做什么事情緊密相關,因此只需要對操作算法的“人”進行監管。但是,在人工智能技術成長的各個階段,不可解釋性、不確定性、魯棒性較差等特征一直伴隨著算法的發展且從未被完全解決,算法難以在運行中保持完全中立。

一方面,平臺內算法黑箱的存在成為平臺算法社會問題生成的內生邏輯,平臺算法背后的決策邏輯難以進行理解、預測和評估。某些時候,算法與云數據、深度學習等前沿技術結合后會帶來技術不確定性和不穩定性,在算法自動化決策運行和資源配置過程中,算法歧視、算法權力擴張等成為算法運行過程中內生的技術隱憂,并在深度學習中不斷加強和固化,最終造成難以察覺、預測和糾正的惡性經濟社會影響。另一方面,盡管技術本身是自由的、中立的、去中心化的,在當前平臺應用情境下,算法可以通過系列指令產生自動化決策邏輯,自由地對平臺內數據流和信息流進行處理。但處于弱人工智能發展階段的算法僅具有“異質自治權”,這一能力是在一定范圍之內為算法提供最高程度的決策自由,而非無限自治權,其決策過程中仍然隱含承載著平臺的價值觀和主觀決策意圖,這種主觀決策意圖偏見可能來自編程者無意識的編入,也可能來自輸入數據自身反映的社會偏見。總之,隨著資本力量的介入,算法和技術的可規制性、中心化程度會越來越強。以上問題的出現主要源于技術理性的內在悖論,技術理性可劃分為工具理性與價值理性兩個維度,而平臺算法作為技術與平臺、用戶互動的產物,其在運行過程中必然會納入“人”的價值和需要。若價值理性克服工具理性,則會催生算法“技術向善”,技術發展和應用逐步契合于人類社會的總體價值取向;一旦平臺內部以經濟目標主導的經濟邏輯相對于社會邏輯占據主導地位,工具理性占上風,算法設計應用過程就傾向于將算法視為牟利工具,算法失當行為可能就會出現,催生出社會公平正義被破壞、個體權利不對稱、倫理行為異化等社會風險。平臺算法在數學計算指令中隱藏著來自技術自身、輸入的數據或者平臺賦予的價值偏好和價值歧視,導致價值理性與工具理性兩大維度之間的固有矛盾成為平臺算法運行難以保持中立的重要原因。因此,對算法進行監管,對保證平臺算法決策結果的合意性和平臺運行的穩定性具有重要意義。

(二)發展邏輯:算法發展的風險性

隨著計算機編程語言不斷豐富,算法應用場景也逐漸從信息傳播擴散至自動駕駛、虛擬現實、區塊鏈、公共管理等多重領域。社會分工的存在更使得算法研發呈現分散、便捷、多樣化等特征。算法的可得性逐漸增強,相應地,其運行過程中的衍生風險也逐漸增長。由于算法的應用而產生的算法風險則開始從特定的算法應用開發者和網絡平臺逐步分散至獨立的算法研發專業人員以及利用算法模型進行訓練的算法用戶。甚至在沒有商業資質的情況下,算法的研發和應用依然可以被迅速搭建。平臺算法風險不僅來自平臺經營者本身,而且來源于在平臺之上應用算法的分散式的算法開發者,爬蟲算法以及各類信息技術知識社區的存在使得平臺算法風險范圍進一步擴大。

在深度學習領域,基于人工神經網絡結構的復雜層級使得輸入數據與輸出結果之間存在監管審計機構、社會公眾甚至開發人員難以觸摸和理解的“黑箱”,算法技術開發設計、系統數據輸入、平臺算法部署、算法自動化決策、決策結果輸出等任一環節的缺陷都會引發難以估計和預測的系統風險。平臺在算法技術層、算法基礎層、算法結果層之間分別產生技術類風險、數據類風險、決策類風險,三個層次之間相互依存、相互傳導。此外,算法設計運行的邏輯逐漸隱于暗處,表現出不可知性,體現為決策結果的算法外延與通過程序代碼和內在計算過程實現的算法內核逐步分離,算法運行目的的隱蔽性逐漸增強。而對于平臺運行內在機理的監管需要極高的技術水平和專業知識,當算法決策變得不可解釋時,決策結果將會面臨質疑,算法決策將會變得失控,算法信任將會面臨危機。例如,在司法或者醫療領域,一旦算法決策產生的結果無法通過現有認知進行解釋,其所產生的司法判決或醫療診斷就難以令人信服,平臺算法的權威性就會受到挑戰。

更進一步地,發展至宏觀層面,算法黑箱、算法失當可能會產生扭曲消費者決策、損害市場競爭、影響收入分配功能等經濟性風險,以及侵犯個人隱私、引發社會歧視、甚至損害生命健康和危害公共安全等社會性問題。因此,當人工智能發展逐步深化、算法應用場景逐步多元化、算法開發應用逐步分散化、深度學習模式逐漸隱蔽化時,為防止算法在發展過程中產生更多的技術、數據、決策類風險,就有必要厘清算法風險轉化條件和轉化邏輯,針對算法全生命周期建立完善的縱向監管機制,不僅對算法失當行為進行糾偏,而且對算法權力的過度膨脹進行約束,以防止算法在發展過程中擴大衍生風險。

(三)現實邏輯:平臺監管的模糊性

國內算法監管實踐仍聚焦于對算法應用的開發者及平臺進行規制,算法監管的假定對象主要還是提供信息科技及互聯網服務的平臺企業。但是,隨著算法在商業社會生活的深度嵌入,平臺算法的自動化運行可能會產生“責任鴻溝”。“責任鴻溝”這一概念于2004年由安德利亞斯·馬提亞提出,即算法可以進行自主學習和自動決策,使得算法技術的設計開發者、部署應用者和擁有者無法預測算法運行后果,個體無法對技術產生足夠的控制權,即個體與算法運行過錯結果之間存在“責任鴻溝”。

一是問責機制模糊。盡管《中華人民共和國個人信息保護法》《關于維護新就業形態勞動者勞動保障權益的指導意見》《互聯網信息服務算法推薦管理規定》等均規定平臺算法服務提供者承擔維護用戶合法權益、保護用戶數據信息安全、保證消費者公平交易等責任,但由于平臺始終躲在所謂“算法中立”的掩體之后,平臺通過算法的底層邏輯捕獲數據、吸引流量,算法為平臺充分實施交易市場規則以及各類市場主體之間的鏈接規則提供了技術支持,在平臺交易界面內,傳統的生產、消費、分配等過程中的中間環節被消解,這為平臺利用算法自動化決策逃脫監管的牢籠提供了可能。在算法自動化決策運行機制下,當自動化決策的結果占主導地位而削弱人的主導性時,“機器”而非“人”的過錯的論調甚囂塵上。此外,算法引發的危機可能不僅僅由平臺引發,而是由算法、數據、平臺相互聯結而產生的結果。因此,平臺主觀過錯認定機制模糊不清的問題在人工智能時代進一步加劇,平臺監管下問責機制的完善面臨著挑戰。

二是監管節點滯后。由于平臺運行過程中難以對其不同責任主體進行責任認定,針對平臺的監管往往會產生監管節點滯后的問題。監管機構只能從其決策結果導致的危害程度和危害范圍對平臺進行事后懲罰,平臺監管淪為“被動監管”“運動性執法”,以致不僅難以達到事前監管的預防效果,而且會因監管無效削弱監管機構的權威性。

三是監管機制粗淺。由于單純的平臺監管難以摸清平臺算法的運行機制,算法所特有的不透明性和隱蔽性導致社會公眾難以理解平臺運行的內部邏輯,平臺算法技術的高度隱蔽性以及算法技術知識的高度專業化導致社會用戶在面對平臺算法技術的各類歧視行為、算法霸權行為、算法壟斷行為時難以清晰觀察,尤其是在平臺個性化推薦與機器學習算法驅動下能夠實現社會用戶的三級價格歧視,且社會公眾由于知識距離以及信息不完全等造成社會治理失靈,甚至可能會產生其聚焦點與問題點的社會治理錯位、社會期望過分擴張、社會訴求超過平臺企業釋能邊界的治理過度問題。因此,在監管過程中可能會出現“一刀切”、野蠻式監管,即過度強化平臺的主體責任和社會責任,忽略算法運行的一般規則,人為拓寬平臺的責任邊界,以致監管過度,扼殺平臺經濟發展的活力,進而給平臺經濟發展帶來較大的負面影響。

總之,“責任鴻溝”的出現導致平臺監管存在問責機制模糊、監管節點滯后、監管機制粗淺三大問題。平臺監管難以實現對算法失當行為和責任缺失行為的有效監管,針對平臺運行的底層技術邏輯“平臺算法”的監管迫在眉睫。

(四)責任邏輯:底層技術的責任嵌入性

平臺企業控制著不可替代的核心算法,將平臺各個模塊嵌入由平臺企業制定規則與提供交易服務的平臺之上,平臺雙邊用戶成為算法邏輯下的具體參數且被全面數據化。從技術角度出發,平臺企業履行社會責任的過程本質上是以數字智能技術為底層技術支撐,通過大數據建構、算法創新以及平臺服務界面等實現商業運作與社會運作,形成算法、技術驅動的社會責任履責模式。

2021年9月,中國發布《新一代人工智能倫理規范》,將“增進人類福祉”列為人工智能的首要原則,提出了增進人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當、提升倫理素養六項基本倫理要求。《數據安全法》第二十八條規定:數據新技術研究開發,要“有利于促進經濟社會發展,增進人民福祉”。《互聯網信息服務算法推薦管理規定》提出,算法推薦服務提供者應當堅持主流價值導向,積極傳播正能量,促進算法應用向上向善。隨著人工智能的發展和機器學習的深化,人工智能算法深度應用的平臺企業逐步成為數智經濟時代下履行社會責任的主要經濟載體,在數據、算力和算法的加持下,互聯網平臺在國民經濟體系中的經濟重要主體地位、資源配置能力和社會責任履責能力愈發凸顯。

平臺企業在“算法管理”過程中,通過算法這一底層技術對平臺用戶所需的信息進行分類、篩選、組合,并根據平臺用戶和多維利益相關方的需求在平臺上對財力、人力等資源進行跨區域的分配與安排,這一算法管理行為就是使算法由抽象的數學概念走向具體實際應用的過程,其目的是實現資源、信息最優配置,創造社會福祉。但在平臺算法自動化決策過程中,可能會造成平臺用戶個人隱私泄露升級,因群體偏見、種族偏見而造成就業歧視加劇等算法歧視,還會使得平臺從業者因被算法支配而過度勞動、工作自主權受限。在算法的工具主義導向驅動下,平臺可能會偏離其社會責任使命,產生算法責任的缺失與異化問題。而算法黑箱的存在使得各利益相關方和監管機構被所謂“自主性”運行和決策欺騙,難以識別算法技術異化的內在機理和引發的社會責任問題。平臺算法作為平臺企業獲取用戶數據,與用戶、社區等多元利益相關方進行互動的“代理者”,需要將社會責任融入自身,構建負責任的平臺算法成為構建負責任的平臺企業的關鍵。為防止平臺企業社會責任異化,亟須對平臺算法本身及其設計開發、部署應用、決策過程,以及算法在平臺經濟領域的擴張進行監管,將算法責任納入企業社會責任認知、實踐與監管框架之內,保證平臺算法決策對社會負責任。

二、平臺算法監管的困境與挑戰

建立合意性的平臺算法監管模式,需要厘清目前平臺算法監管中存在的問題和面臨的困境,并予以針對性破解。在此,基于對平臺監管邏輯起點的討論,剖析現有平臺算法監管過程中存在的監管認知的非對稱性、監管對象的分散性以及監管重點的不確定性三類挑戰。

(一)監管認知的非對稱性

實現多方協同有效監管,需要建立清晰且一致的監管認知,而目前平臺監管過程中存在兩類認知非對稱性,分別是不同認知主體之間的監管認知非對稱性以及抽象的法律與清晰的算法之間的非對稱性,不同認知主體之間的非對稱性又包括不同監管主體之間的認知非對稱性和監管主體與平臺之間的認知非對稱性。

第一類是不同認知主體之間存在的非對稱性。目前,平臺監管主體主要可以劃分為政府機構、行業協會、社會公眾、用戶等利益相關者,不同監管主體的知識水平、政治站位、技術儲備存在差異,因而對于算法監管的認知也不盡相同。在監管過程中,外部技術專家關注算法技術本身的技術風險稽核,政府和行業協會等關注算法可能帶來的法律風險和社會風險,平臺用戶則關注自身福利等是否受到侵害。即使監管目標在經濟、社會、環境問題上達成一致,對算法的不同認知也會使得不同監管主體表現出不同的監管思路。多方之間自說自話,不同主體之間對于治理的理解和方式存在錯位,導致監管注意力和監管資源的不合理配置。此外,平臺與各監管主體之間也難以在算法監管上達成協同,這種矛盾主要來源于算法黑箱的存在。算法本身具有的高度技術復雜性和專業性,而出于商業機密保護或者逃脫監管制裁的考慮,算法技術沒有辦法達到完全透明,信息的不對稱使得平臺監管主體相較于平臺而言處于劣勢地位,難以對平臺算法運算步驟、技術原理和評價指標進行深入探究。因此,如何把不同監管主體放到同一交流框架之下,并產生一致的監管認知,成為目前平臺監管模式達成多方協同的重要前提。

第二類是抽象的法律與清晰的算法之間存在的非對稱性。算法顧名思義,即“計算方法”,盡管機器學習和深度學習使得算法運行邏輯陷入黑箱之中,但其本質上是一種固定的“輸入—輸出”機制。從價值導向來看,算法的設計者幾乎完全被“價值無涉”的保護傘所掩護,能夠在追求“算得更好、算得更快”的過程中探索、認知和運用計算規律,而法律則需要持續回應平臺自身、社會公眾以及其他利益相關方的價值訴求,反而體現出與計算方式幾乎無關的話語體系。具體而言,就是法律將具有濃厚價值意義的經濟、社會和環境效益視為目標立法,而算法可能在工具理性主義下將其視為盈利手段,目標與手段在監管過程中形成沖突和僵持,可能走向傷害平臺活力或者法律完全失效的極端。從計算方法來看,盡管法律也具有算法提高認知效率的特征,但法律難以像算法一樣將所有的社會問題轉化為計算問題,越是價值和行為難以進行客觀界定,法律的規定就越抽象,對具有明確計算方法論的算法的立法規制就越沒有針對性。算法開發和應用主體在這類法律規制下,可能無法對如何進行改善和自我管理產生清晰認知,也可能會在模糊的法律制度下產生為自己開脫于法律制裁的投機行為,以致算法監管難以落地。

(二)監管政策的滯后性

從監管過程來看,目前平臺監管陷入事前監管不足、算法追責困難的窘境。現有的平臺算法監管的設計思路始終遵循“主體—行為—責任”的監管思路,而忽略了平臺算法固有的技術邏輯,因而始終將平臺算法的規制對象定位于擁有和使用算法的平臺企業上。與之相反,由于計算機語言的不斷擴張和算法應用場景的極大豐富,算法的研發呈現來源更加分散、資源獲取更加便捷、風險形式更為多樣化的特征,僅僅對平臺的算法部署和決策結果進行事后懲罰已經難以滿足對日益發展變化的技術的規制。盡管目前關于算法備案制度、算法結果評估制度、算法監管科技的呼聲日漲,但算法安全風險監測、算法安全評估、科技倫理審查、算法備案管理等事前監管的具體措施仍處于模糊定義階段,政策導向下缺乏明確的行動指南,使得行政監管機構在實行事前監管時僅具有朦朧的方向感而無法落地,最終還是陷入“一刀切”式監管模式。

事前監管的缺失,難免會導致事后問責機制的缺陷。一方面,事前監管的缺失使得在事后懲罰面臨平臺企業“技術中立”“算法黑箱”的抗辯時而難以實施。從1984的“環球影業訴索尼案”到2016年的快播案,“平臺無罪,研究開發平臺的技術無罪”的論點備受平臺推崇。盡管目前關于技術中立的論斷幾乎已經消失于廣大群眾的道德倫理環境之中,但這并不影響平臺可以借此在法庭上以“技術不可恥”的論調為自己進行開脫。特別地,隨著算法的深入發展,技術的可解釋性難度越來越大,或許是由于歷史數據的偏差,也或許是由于技術的缺漏,算法本身就可能作出歧視性的、錯誤的自動化決策,在事前監管難以完善的監管環境下,以高級的自動化決策標榜自身的平臺算法會走向不透明、不解釋、難審查、難改正的囚籠之中,學者稱其為“算法暴政”。另一方面,毫無技術依據的平臺監管處罰結果會導致監管機構公信力下降,平臺企業可能會為此承擔本不應擔責的處罰,出現“政府監管軟弱、平臺受罰委屈、公眾盲目同情”的不良后果。平臺自身可能承擔更為沉重的對算法技術進行私人審查的義務,使其在數據運用和決策過程中畏首畏尾,為平臺經濟的發展增添負擔。因此,目前亟須完善平臺經濟發展的全過程監管模式,特別是要補足事前監管的漏洞,推進監管模式與算法技術的協同發展,防范監管落后于技術發展帶來的各類風險。

(三)監管重心的錯位性

數字經濟時代下,算法正以前所未有的深度和廣度涉入經濟社會生活,特別是大數據和人工智能的發展使得算法得以突破“波蘭尼悖論”,明確編碼的決策系統也不再存在功能限制,算法可以實現自我學習、自我更新、自我發展。由此,算法的大面積應用是不可避免的,平臺成為算法應用的重要主體,算法監管也在不同行業的平臺經濟中全面鋪開。在目前監管政策處于試水階段、監管資源有限的前提下,只有厘清監管重點和監管優先級,形成完整性、體系性的監管框架,才能避免“大而不細”“泛而不精”的監管誤區。目前,從我國平臺算法監管體系來看,仍然存在監管政策重點不明、監管目標模糊、監管措施難以落地等監管困境。

2021年9月,國家互聯網信息辦公室等九部門印發的《關于加強互聯網信息服務算法綜合治理的指導意見》從健全算法安全治理機制、構建算法安全監管體系、促進算法生態規范發展三個方面搭建了算法監管的整體框架,并規定了算法備案、算法監督檢查、算法風險監測、算法安全評估四項具體舉措。但是,自該文件出臺以來,實踐過程中的法律政策規制更多依賴于社會響應來確定監管對象和規制邊界。如2022年3月正式出臺的《互聯網信息服務算法推薦管理規定》以及為落實該項規定而開展的“清朗·2022年算法綜合治理”專項行動,雖在算法治理上具有前瞻性和探索性地位,對于平臺經濟業態的健康發展具有積極作用,但其治理效果在于打破精準推薦服務帶來的“信息繭房”“回聲室效應”,主要回應了社會上對“大數據監控”“數據資本化”不滿的呼聲。盡管其一定程度上填補了社會公眾獲取與分配數據信息失衡監管的法律空缺,但仍存在條文落實困難、制度設計模糊等問題,大大降低了《互聯網信息服務算法推薦管理規定》的可操作性。與此同時,目前的制度設計并未從極有可能產生重大政治經濟安全的領域和主體出發首先補足監管框架,平臺算法監管陷入輿論驅使下的“模塊化”監管誤區。從平臺算法所在行業領域來看,現有的算法監管未曾強調涉及人民生命健康和重大財產利益的重要行業,如涉及經濟安全的大型金融平臺、平臺經濟占主導地位的電子商務行業等;從平臺算法的特定設計和使用主體來看,目前平臺監管也尚未針對涉及國家重大安全問題以及具備市場支配地位的大型平臺出臺相應算法規制政策。盡管國家互聯網信息辦公室曾對滴滴等大型平臺進行了網絡安全審查,但針對平臺的算法分級分類管理辦法以及算法監督檢查、算法風險監測、算法安全評估等具體措施始終處于模糊狀態,針對某一特定平臺的直接懲罰也難以在行業內形成一致的算法設計應用準則和底線,監管認知難以建立,監管可信度難以提升。

三、平臺算法監管的核心要求

針對性突破平臺算法監管的挑戰,在保護平臺算法創新活力的同時規范其發展方向,促進行業生態可持續發展,需要在監管過程中遵循參與主體多元性、技術發展寬容性、監管過程透明性、監管政策場景化要求,并最終保證監管結果的公平性。

(一)參與主體多元性

平臺既是一個凝聚雙邊用戶并制定規則的商業生態系統,又是將不同類型主體凝聚在一起的社會生態系統。平臺作為整個生態的中心和規則制定者,通過資格審查、交易規則制定、聲譽機制設置等方式,為雙邊用戶構建信任、安全、共贏的平臺交易環境。2021年9月,《關于加強互聯網信息服務算法綜合治理的指導意見》印發,對促進算法生態規范發展作出了細化規定,明確表示應當樹立算法正確導向,推動企業借助算法加強正能量傳播,引導算法應用向上向善。如果平臺算法應用失范,會對平臺自身產生成長性挑戰,其帶來的負外部性也會通過生態圈網絡傳導至整個商業社會系統之中。

因此,將科技向善、算法向善的理念內化于心,就要在以平臺為中心的商業生態圈和社會生態圈中凝聚價值共識,建立良好的價值生態環境。而平臺的功能又是通過算法來實現的,因此,為保證平臺生態正確的價值導向,就要在算法監管過程中納入生態化理念,將多維利益相關方納入平臺算法監管框架之中。體現在平臺情境下,就應當是在算法設計和運行中納入社會規范與社會倫理因素,這就需要社會組織、輿論機構、社會公眾、社區等對平臺算法運行過程中可能產生的危害政治經濟安全和社會福利,影響公平競爭、市場秩序和行業可持續發展的行為進行監督和反饋,平臺為獲取社會合法性應主動響應社會呼聲,實現算法自治。相應地,平臺的開放性和網絡化特征也有助于在商業生態圈和社會生態圈內進行科技向善理念的傳播,引導生態圈內多元利益主體驅動算法開發設計、部署應用向上向善,實現平臺算法發展的良性循環。

(二)技術發展寬容性

自平臺經濟在我國蓬勃發展以來,數字平臺經歷了從包容審慎監管逐步走向強監管、細監管的過程。國務院總理李克強在2017年中央政府工作報告中明確提出,要加快培育壯大新興產業,本著鼓勵創新、包容審慎的原則,制定新興產業監管規則。2019年8月,國務院辦公廳發布的《關于促進平臺經濟規范健康發展的指導意見》明確指出,應創新監管理念和方式,落實和完善包容審慎的監管要求,打造適用于平臺經濟發展的監管機制。盡管在包容與審慎之間的認知和實踐之間的博弈也導致了一些平臺成長問題,但在這一原則之下,平臺經濟出現了體量的迅速增長和市場的快速壯大。隨著平臺野蠻增長和資本非理性涌入所引發的行業惡性競爭和企業可持續發展問題愈加突出,近些年來,監管機構更加傾向于將監管模式轉向不斷細化加強的“穿透式監管”。穿透式監管最初來自金融行業,是指嚴格遵循實質重于形式的功能性監管邏輯,侵入性地對平臺進行過程監管、要素監管與算法監管。其中,穿透平臺企業這一“外衣”,對平臺算法進行監管成為平臺“穿透式監管”的重要方式。以《互聯網信息服務算法推薦管理規定》為例,在規制對象分類及其信息服務規范(如信息安全、用戶標簽、頁面生態)等方面均進行了穿透式的規定。這些政策的出臺體現出未來平臺算法監管的趨勢將會進一步向精準化方向發展。

然而,強監管、細監管下的政策安排不僅對有限政府監管資源的利用配置提出了挑戰,而且對平臺經濟能否在穿透式算法監管下保持其發展活力形成了阻礙。算法是平臺經濟發展的技術支撐,如何在平臺算法監管的同時處理好秩序和活力的關系、自由和秩序的關系、安全和發展的關系,是監管過程中需要解決的問題。為此,在監管認知上,首先要明確強監管、細監管不等同于嚴監管,而是一種對技術發展保持包容、寬容理念的精準化的適度監管,監管過程中為平臺經濟下算法技術的成長和發展預留了生存空間。同時,以保護創新為基礎,在保證算法自身安全、算法安全可控、算法應用安全的基礎上,確保平臺算法技術在制度供給不斷強化的背景下仍可以對平臺經濟進行技術賦能。在監管操作形式上,可以根據平臺算法的全生命周期進行分階段的監管設計:算法設計階段對算法技術研發持支持包容態度,在促進技術向善的基礎上保證平臺經濟創新性的活力源泉;在算法應用前和算法運行過程中采取精準化監管,進行算法運行評估測試和密切監控,避免平臺算法的自動化決策結果引致的各類風險。

(三)監管過程透明性

監管過程透明性主要包括兩大部分,分別是平臺算法相對于監管部門和社會公眾的透明性,以及監管制度、監管過程相對于監管對象和社會公眾的透明性。

一方面,要建立平臺算法相對于監管部門的透明性。平臺算法不透明是平臺算法監管難以達成合意性的重要原因,透明性原則的落腳點是實現對算法自動化決策的規制,如果無法對算法產生清晰且正確的認知,就無法判斷算法的自動化決策是否可以達成社會公平與安全標準。2017年,美國計算機協會公布了算法治理七項原則,分別為知情原則、訪問與救濟原則、可問責原則、解釋原則、數據來源處理原則、可審計原則、檢驗與測試原則。以上七項原則闡明了算法透明在算法治理中的必要性,同時也表示“透明≠源代碼完全公開”。即在算法監管過程中,算法的所有者、設計者、操縱者和所有者都具有披露算法的義務,應當向監管機構和社會公眾解釋算法運行結果和產生該結果的程序,而非僅僅將代碼公之于眾。落實在平臺情景之下,平臺企業出于對隱私數據、商業機密的保護或為了避免算法披露后可能導致的惡性競爭與博弈,可進行選擇性披露。監管部門須對模型、數據、算法、決策過程和結果進行明確記錄,并采取有效方法進行模型檢驗和算法測試,必要時可采取第三方審計,保證事后問責機制有效。因此,平臺算法透明制原則是指,在不涉及商業機密泄露、衍生惡性后果的前提下,平臺作為算法的設計、開發、部署、應用、決策、擁有主體,具有披露和解釋算法的義務。算法透明可以賦予政府對于算法失當行為的可問責性,同時也賦予用戶和社會公眾的知情權、選擇權和監督權。

另一方面,要實現監管制度、監管過程相對于監管對象的透明性。應該明晰,算法透明只是通向算法可知的階梯,進一步避免算法黑箱帶來的監管障礙,需要監管制度的進一步完善和監管科技的進一步發展。近年來,政府出臺了一系列平臺監管、算法監管制度,但是缺乏對監管政策的解讀和落地式措施實施,導致政策出臺主體、政策實施主體、政策實施對象對政策的認知不同。平臺在不斷加強的政策供給下反而難以明晰自己的責任邊界,導致平臺發展無所適從,難以通過獨立的監管政策解讀進行自我整改糾偏。因此,監管政策也需要一定的透明度,即政策出臺者負有向監管主體和監管對象進行政策解讀的義務,使得各方主體樹立一致的監管認知和責任邊界認知。與此同時,針對不同平臺企業的算法監管調查過程和結果也應該及時進行披露,既保證監管過程受行業協會和社會公眾監督,又為同行業同類型平臺進行算法自治提供參考。

(四)監管方式場景化

勞倫斯·萊斯格曾提出“網絡需要各種類型的選擇”,應用于平臺算法監管情景,也需要同樣樹立權變思維,將監管方式場景化。2018年7月,中國人工智能開源軟件發展聯盟提出了《人工智能 深度學習算法評估規范》,確定了由7個一級指標和20個二級指標組成的算法可靠性評估指標體系。《互聯網信息服務算法推薦管理規定》也強調要重點關注生成合成類、個性化推送類、排序精選類、檢索過濾類、調度決策類五大類互聯網信息服務中廣泛使用的算法,以上政策規范與規定的出臺均作出了場景化治理的有益嘗試。究其原因,在平臺算法監管過程中,存在大量差異化、碎片化的場景生態模式,算法的技術差異性和生態的多元化使得在治理過程中需要對平臺監管的不同場景進行識別、追蹤、定位和分類,樹立場景化理念,構建具有不同算法應用場景之下的案例池與數據庫。

建立場景化的監管模式,需要樹立敏捷性思維。在2018年的世界經濟論壇上,首次提出要在有關第四次工業革命的政策制定中納入敏捷治理;2020年世界經濟論壇報告《第四次工業革命的敏捷監管:監管者的工具包》中對敏捷治理有了更加明確的界定,認為敏捷治理是一種具有參與廣泛性(包容性)和時間靈敏度(適應性)的治理方式。2021年9月25日,國家新一代人工智能治理專業委員會發布的《新一代人工智能倫理規范》吸納了“敏捷治理”概念,在管理規范部分明確提出“推動敏捷治理”,這為我國算法監管制度的完善進一步提供了指導。相較于傳統公共治理模式下嚴禁朝令夕改的監管模式,在數字經濟時代,由于技術快速更新迭代,監管環境持續變動甚至顛覆,平臺算法監管模式也要因時而變,采取更為敏捷的場景適應性方式予以監管響應。在治理節奏上,敏捷治理強調要快速回應和盡早介入,即要在事前監管方面下功夫,對各類應用場景下的平臺算法進行風險評估并做好風險預案。持續優化算法場景化、精細化監管模式,綜合考慮平臺算法應用場景的風險程度、平臺算法所處行業的重要程度、平臺算法監管對象的可規制性和作用形式,以及技術風險和應用風險在算法運行中所占的比重等因素,建立更為具體和更可操作的評估體系、分級分類標準,不斷完善平臺算法技術的備案制度。在治理規則上,不斷推進彈性原則與具體化、類型化規則有效結合,根據不同的碎片化場景直面平臺算法的高度動態性和風險不確定性并進行動態調整,建立相應案例池與數據庫作為調整依據。在治理方式上,采用力度輕、過程快的引導性治理,針對不同場景建立精準化的監管模式、監管邊界、監管手段,將場景化全面落實到平臺算法監管體系之中。

(五)監管目標公平性

平臺算法監管的直接原因是算法應用引致的各類負外部性,負外部性的具體體現是對社會公平、行業公平的損害。社會公平主要是指平臺利益相關方如買方用戶、平臺勞動者、投資者、社會公眾等在算法自動化決策過程中是否因處于技術劣勢和認知低谷的一方而遭受了權益侵害與算法歧視;行業公平主要是指平臺是否濫用算法權力導致不正當競爭,行業內企業是否擁有平等機會參與到公平競爭環境之中。平臺算法產生公平性問題的原因有三:一是抽樣原因,即采集的數據樣本本身產生了偏差;二是算法設計因素,即數據集中反映了現有的社會偏見;三是在算法自動化決策過程中,受平臺的經濟價值導向所驅使,嵌入了平臺的歧視性價值認知與取向。

國家新一代人工智能治理專業委員會于2019年6月發布的《新一代人工智能治理原則——發展負責任的人工智能》中提出人工智能發展應促進公平公正,保障利益相關者的權益,促進機會均等,通過持續提高技術水平、改善管理方式,在數據獲取、算法設計、技術開發、產品研發和應用過程中消除偏見和歧視。因此,平臺算法監管的重要目標就是保證監管結果公平、數據采集廣泛可信、算法設計公正無歧視、算法應用向上向善。目前,我國的算法監管所追求的公平更加關注“個體公平”和“結果公平”,將算法歧視和算法決策結果視為重要的規制對象。如《中華人民共和國個人信息保護法》《互聯網信息服務算法推薦管理規定》等均將個體與結果公平視為重要的監管目標。未來,仍需進一步充實并深化“監管目標公平”的內核,將過程公平、群組公平、權利公平等作為補充,不僅通過監管在平臺算法設計、部署、應用、決策過程中納入公平性思維,保障利益相關方的權利公平;而且要使個人能夠平等且有意義地參與到平臺算法監管活動全過程之中,彌補對特殊身份群體的保護空白,并致力于通過公民權利限制平臺算法權力,提高平臺算法監管在公平性保障中的包容性。

四、平臺算法監管的模式構建

近年來,國內外政府相繼出臺了各類算法監管法規和指導手冊,包括針對算法技術即代碼本身和算法應用過程中的各類監管模式。但是,目前的平臺算法監管制度供給較為分散,監管模式尚未形成體系,事前、事中、事后監管位勢下的監管主體及其使用的監管手段有較大差異,不同監管路徑之間難以達成協同,平臺算法監管的合意性閉環和良性循環面臨挑戰。為厘清不同監管模式下的監管主體、監管手段和監管客體,彌補原有監管模式體系性不足的缺陷,本文經過對平臺算法監管手段和監管對象的系統性梳理,認為應當從監管手段和監管對象兩個視角出發建立平臺算法的全面性監管模式。

就監管手段而言,許可認為我國算法治理應當基于算法風險水平和自主性、工具性程度將算法進行類型化,基于法律治理、規范治理和代碼治理的有機耦合塑造“模塊化”的分級分類算法治理體系。這一治理模式較為完整地歸納了算法監管的實現進路,但是其在研究中忽略了技術監管技術的可能性,僅僅將代碼視為被監管的對象,而忽視了技術本身可以作為一種手段對平臺算法進行監管。為彌補以上不足,本文認為,監管手段可以被劃分為法律監管、規范監管和技術監管,即通過法律供給手段、社會規范手段和技術手段對算法進行監管。

就監管對象而言,平臺特別是平臺巨頭在人工智能技術的加持下,為了有效鏈接雙邊市場,為廣泛的人工智能開發人士提供了人工智能開放平臺。在平臺算法資源被有效利用的同時,算法技術也因此而出現危機。一方面,龐大的算法技術開發者群體在接受平臺技術賦能的同時缺乏社會規范教育,平臺算法在開發過程中可能并未納入算法倫理思維和算法公平思維,算法技術本身存在算法脆弱性、算法黑箱、算法漏洞以及各類性能缺陷和結構性缺陷等技術風險,甚至專業人員也難以解釋這種內在風險和內在不透明性。另一方面,平臺作為算法的部署應用者和決策者,相對于算法開發人員來說,充當著算法安全“守門人”的角色,要防范算法在設計、開發、部署、應用、決策等過程中脫離人的掌控,在機器學習中實現不需要人的自主決定權的自動化決策結果。其不當利用過程可能會帶來算法歧視、算法霸權、算法合謀等危害行業生態與社會秩序的諸多政治、經濟、社會問題。因此,平臺監管的監管對象可劃分為算法技術本身以及算法應用過程。

基于此,本文建立了平臺算法監管的“監管手段—監管對象”監管模式圖(見圖1),即未來針對平臺算法的監管可以從“法律—技術”監管、“法律—應用過程”監管、“規范—技術”監管、“規范—應用過程”監管、“技術—技術”監管、“技術—應用過程”監管六大模式出發進行監管體系的系統性構建。

圖1 “手段—對象”監管模式

(一)法律監管

監管模式Ⅰ:“法律—技術”監管。第一類監管模式為通過法律手段對算法技術進行監管,其監管主體為政府等公共管理部門,監管對象為技術本身。1986年美國《電子記錄系統和個人隱私》評估報告已充分意識到對個人畫像技術進行監管的重要性。半個世紀以來,各國紛紛對算法技術的規制進行了立法和司法層面的探索。2020年,美國聯邦貿易委員會(FTC)發布了《人工智能和算法運用》,從算法透明、算法可解釋權、決策公平、技術穩健性和倫理問責五個方面對算法技術的設計作出了規定。美國立法者提出的《2022年算法責任法案》更明確要求自動化決策系統具有新的透明度和問責制。我國的《互聯網信息服務算法推薦管理規定》亦從算法分級分類管理的角度出發,有效識別出互聯網信息服務中的高風險類算法,重點關注生成合成類、個性化推送類、排序精選類、檢索過濾類、調度決策類互聯網信息服務中廣泛使用的算法,并強調通過算法備案制度明確算法的基本原理、目的意圖和主要運行機制,對算法技術和代碼運行規則進行監管。但是,“法律—技術”監管下的監管制度尚不完善,特別是目前呼聲最高的算法備案制度,其制度層面涵蓋的算法評估、算法運行監管以及算法審計等具體內容和規制邊界尚未得到司法和立法層面的落實,制度設立尚處于起步階段,同時算法的不透明性和算法解釋可能帶來的利益沖突使得法律規制技術這一監管模式在實踐層面出現事實約束力遠低于其立法力度的局面。為此,需要持續加強平臺算法技術監管的制度供給,完善法律對技術的約束體系。

監管模式Ⅱ:“法律—應用過程”監管。“法律—應用過程”監管的監管對象為平臺算法的部署應用過程。2017年12月18日,紐約市市長簽署通過了美國立法史上第一個對公用事業領域算法進行問責的法案,即《算法問責法》,用以規制算法決策。該法明確規定了規制對象包括基于算法自動化決策的情形以及算法輔助或者支持決策的情形,其適用主體是使用自動化決策系統的行政機構和慈善組織,其還對算法問責制的實施主體進行了界定,即自動化決策工作組。類似地,我國推出的《互聯網信息服務算法推薦管理規定》是對算法應用過程進行監管的典型,其明確了將算法推薦服務提供者作為規制對象,并對其信息服務規范以及服務提供過程中的用戶權益保護要求畫出了紅線。從以上法律法規中可以看出,目前關于算法應用過程的法律規制將主要的規制對象定位于算法應用主體,并在設定好算法可能帶來的危機和風險的前提下限制了應用主體利用算法進行決策的各種行為。“法律—應用過程”監管存在以下兩個問題:第一,制定規則的專家和在法律制定過程中可能具備了算法稽核的能力,但是在監管過程中無法保證所有的行政部門都具備算法監管的技術能力,“技術鴻溝”仍然是法律制定過程中難以逾越的問題。第二,在公共場景之下,針對算法應用過程的監管可能會存在其使用邊界,在技術難以完全透明、多方監管主體自說自話的情況下,針對應用過程的監管可能會存在失效風險。為彌補“法律—應用過程”監管可能出現的問題,有必要在政府和平臺之間建立有意義的技術接口并遵循透明性原則,彌補技術鴻溝。

(二)規范監管

監管模式Ⅲ:“規范—技術”監管。規范監管的主要監督主體是社會公眾和平臺用戶等平臺利益相關者,法律和政府等監管機構賦予了社會公眾和平臺用戶對平臺算法從開發設計到部署應用過程的監督權,從而對算法決策施加影響,進而對平臺算法進行監管。“規范—技術”監管是指社會公眾和用戶等對技術的開發過程進行監管,這一監管方式的實現完全建立在平臺主動進行算法披露和算法解釋的基礎上,受制于平臺自身意愿。因此,“規范—技術”監管其實是一種相對被動的監管方式。一方面,“算法黑箱”的存在使得普通用戶和社會公眾難以厘清算法內在的運行邏輯,即使平臺保持了完整的技術透明度,用戶與社會公眾也無法從復雜的代碼中了解平臺真正的意圖;另一方面,基于用戶難以對技術進行自我解讀,“規范—技術”監管依賴于平臺的技術解釋,然而,平臺的人工智能解釋激勵目前尚顯不足,且平臺在進行算法解釋時可以利用自己在智識上的優勢地位向有利于自己的方向進行算法技術解讀,蒙蔽、欺騙社會公眾的眼睛甚至引導其思維方式,掩蓋自己真正的算法失當行為。

監管模式Ⅳ:“規范—應用過程”監管。從用戶視角來看,2018年歐盟頒布的《通用數據保護條例》對識別分析和自動化決策作出了規定,限制了企業收集與處理用戶個人信息的權限,旨在將個人信息的最終控制權交還給用戶本人,即個體賦權路徑。個體賦權定位于尊重人(平臺用戶)的主體性,個人在了解算法自動化決策的基礎上限制或者放開平臺企業對個人數據的使用權限。但是個體賦權路徑在帶給用戶自由選擇權利的同時,也出現了用戶個體能力不足、個體權利絕對化、認知不對稱、解釋不完全等問題。從社會公眾視角來看,社會可以通過算法不當應用帶來的負面案例對平臺進行輿論監督。外賣騎手、網約車司機等被困在算法所搭建的系統之中,各類在平臺經濟形態下的新型就業者被“先進”的算法綁定,將平臺經濟形態下的運作模式打造成泰勒制的翻版。社會公眾在生活中逐步發現算法濫用帶來的各類社會責任議題,企業在合法性受到威脅的情況下不得不響應社會議題。“規范—應用過程”監管是一種行之有效的監管方式,因為其觸及平臺能否打開市場并且保持順利運行的核心利益,對算法向善具有很強的激勵效應。但是這一監管模式多屬于事后監管,在社會問題已經逐漸顯露甚至已經嚴重危害社會福利時,這一監管效應才會凸顯,因而需要同其他事前監管模式進行結合和協同,以實現事前事后的平臺算法全生命周期閉環監管。

(三)技術監管

監管模式Ⅴ:“技術—技術”監管。在數字時代之前,市場秩序通過自發秩序、監管秩序和法律秩序進行規范和再造,而數字技術為我們帶來了新的秩序,即技術秩序。技術是平臺運行的底層邏輯,其編碼構成了平臺特定的運行模式,形成了平臺的雙邊市場結構和獨特的非中性價格結構,塑造出平臺獨一無二的商業模式和盈利模式。但與此同時,技術也帶給了平臺進行自我治理的能力。一方面,平臺可以對多源異構的數據進行挖掘,獲得人與事件的潛在關聯,以控制更多不當行為出現,建立平臺內部的算法問責機制;另一方面,算法的自我學習機制可以使得算法在設計之初就納入社會規范原則,使其在深度學習階段進行及時的自我識別,并在可能造成社會問題的編碼方式上進行自我糾偏。但是與“規范—技術”監管模式相同,目前的“技術—技術”監管模式仍然高度依賴于平臺的自覺性,監管技術的開發主體仍然是平臺自身或者平臺雇用的外部開發人員,盡管各類從事人工智能應用開發的人員可以便利地使用平臺提供的算法、算力,但其社會規范教育的缺失以及底層技術細節的模糊性使其難以對技術作出有效反饋和修改。為避免平臺自我監管失范的情況發生,政府以及行業機構等面臨著開發監管技術的巨大壓力。

監管模式Ⅵ:“技術—應用過程”監管。“技術—應用過程”監管相較于“技術—技術”監管更容易實現。法律和算法在本質上具有同一性,二者均是為實現特定目的而構建出的一系列指令集,都具有降低認知負擔、提高認知效率的功能。因此,算法本身可以承擔法律的一些職能,即用“算法”來規制“算法”。利用技術進行市場監管的方式由來已久,“監管科技”一詞最早在金融行業發展起來,之后衍生為旨在使政府或行業方面的監管工作現代化的新型數字技術。在算法透明難以實現、算法解釋有失偏頗的情況下,通過技術監管手段對算法進行規制就是一個更加行之有效的方案。《互聯網信息服務算法推薦管理規定》指出,要建立健全用于識別違法和不良信息的特征庫,完善入庫標準、規則和程序。發現未作顯著標識的算法生成合成信息的,應當作出顯著標識后,方可繼續傳輸。這一規定界定了算法推薦提供者的技術要求,相應地,政府、行業協會等亦可以通過開發相應技術介入平臺算法決策過程,對算法應用進行行為監測和結果監測,通過大數據分析與計算來界定并監測算法失當行為,完善算法監管程序的技術漏洞。

五、深化平臺算法監管的具體舉措

平臺算法監管是平臺經濟背景下廣受關注的公共治理議題。欲實現法律監管、規范監管和技術監管的良好銜接,對算法技術自身和算法應用過程實現全面監管,最終實現經濟社會安全、行業可持續發展以及綜合價值的創造,還需要從制度供給、監管技術、監管網絡、監管位勢四方面持續深化平臺算法監管實踐。

(一)制度供給強化:構建“硬法”“軟法”相結合的合意監管體系

平臺經濟作為數字經濟的重要組成部分,已經充分涉入經濟生活中的電子商務、在線教育、金融科技、數字媒體、物流等行業。技術的發展帶來了生產方式和生活方式的變革,同時也需要監管制度為技術發展方向提供價值指引和適度規范。而平臺算法監管的制度供給明顯存在遲滯和落后,在監管重心和監管完整性上存在一定的制度缺位和錯位,因此,需要加強“硬法”的制度供給。制度供給層面,要將合規與合乎道德、穩健安全、功能合意、社會與環境福祉、透明開放和敏捷治理等負責任的算法六大構成要件納入制度框架之中,建立完整的事前備案、風險監測、事后問責的算法監管框架,進一步完善“法律—技術”監管和“法律—應用過程”監管。具體而言,法律規制的機制設計要盡可能清晰界定不同應用場景下的平臺算法風險及收益,對存在或者可能存在風險的算法進行算法解釋和測試,在目標清晰化的基礎上,為平臺、用戶、監管機構、行業協會等多方主體建立合適的行動策略結構,進行多種制度工具的完善和組合,最終為各方博弈的理想均衡狀態創造條件。

然而,算法黑箱和“適度”透明原則的存在使得算法風險的分散性和規制難度進一步上升,如果僅僅只依賴于原有的自上而下的制度設計,算法監管可能難以達成合意性的監管效果,不僅在政策出臺和監管機制設計上存在巨大壓力,而且可能因為內部利益關聯或政府的認知局限阻礙平臺經濟的健康可持續發展。單純的“硬法”規制在消除風險的同時可能產生潛在危險,即所謂“次階風險”。因此,在“硬法”自上而下的制度設計難以完全覆蓋全部監管對象或者全部監管領域時,不妨將目光轉向一些具備技術基礎、行業經驗和監管優勢的行業協會或者個人,即平臺算法的“軟法”規制。隨著現代社會關系逐漸變得復雜多樣,國際立法能力逐步出現認識的有限性和實踐的滯后性,在這一矛盾下“軟法”應運而生。體現在平臺算法規制情景上,對“硬法”的彌補可依賴于動態性、專業性的平臺算法行為準則,進行“技術標準”這一“軟法”的規范性探索,其由國家標準、行業標準、企業標準等構成,成為規制與自治之間的銜接點和緩沖區。通過算法的標準化,一方面,可以降低監管機構與算法系統進行溝通的信息成本,有助于社會公眾逐步脫離“技術文盲”的境地并形成一套理解算法的基本框架,對于構建良好的平臺算法生態具有重要意義;另一方面,技術標準這一“軟法”的建立可以囊括眾多的算法規制方式和工具,在適應算法技術發展狀況的同時建立算法規制的場景化、精細化治理方案。無論是“硬法”還是“軟法”,都應該對可能會產生重大政治經濟安全風險的行業和企業主體進行規制,圍繞高敏感、高風險算法建設專有監督網絡,避免監管資源的錯位配置和資源浪費。

“硬法”的強制性、保障性、規范性與“軟法”的靈活性、適應性、場景化相互補充,最終實現法律法規、技術規范與社會規范之間的良好銜接,打造合意性的“硬法”“軟法”相結合的監管體系。

(二)監管技術提升:建立技術監管技術的自動化監管模式

在平臺算法監管的法律監管、規范監管和技術監管三大手段之中,目前處于發展弱勢地位的是技術監管,技術監管需要依賴的技術主體就是“監管科技”。監管科技的原始概念為“Reg Tech”,最早由英國金融行為監管局于2015年提出,具體含義為“利用新技術促使達到監管合規要求”。目前,監管科技仍主要應用于金融風險管理和金融企業合規運營方面。在平臺算法監管領域,監管技術還處于萌芽階段,但以技術治理技術、以算法監管算法已經成為公認的必不可少的監管手段。

從算法設計視角來看,可通過價值嵌入的算法設計技術和價值偏離的算法矯正技術進行技術設計。價值嵌入的算法設計技術是將社會規范和平臺責任標準嵌入算法之中,使得平臺算法在深度學習中不斷加強社會倫理和責任標準的正反饋,最終產生對社會、經濟、環境負責任的自動化決策結果;價值偏離的算法矯正技術則是從算法的輸入端、算法本身和輸出端發現可能存在的價值偏離設計,對數據和程序進行自我治理,如通過技術手段來實現算法去偏見化。總的來說,無論是價值嵌入的算法設計技術,還是價值偏離的算法矯正技術,都更加依賴于平臺算法自設計視角,將社會規范嵌入算法的迭代升級中。

相應地,政府部門、行業機構也應開發相應的監管科技,從算法監督視角推動算法風險評估技術的落實,如算法監管沙箱的合理運用。在計算機安全領域中,沙箱可以作為一種為運行程序提供隔離環境的安全運行機制。與此相似,算法監管沙箱就是指將進行備案的算法在可觀察、可控制和相對封閉的環境中進行試運行,由此判斷算法技術的確定性、安全性、穩健性和決策結果的無偏性。在算法投入運行前對算法進行安全性、公平性監測并建立算法影響評估制度,無論是來自平臺自組織、政府機構監管還是第三方審計機構審計,監管科技的運用都能夠在較大程度上克服算法監管過程中的信息不對稱,這種“技術”監管“技術”的自動化監管模式使得監管機構、第三方審計機構和平臺自身均可在一定程度上突破信息不對稱、技術不透明的屏障,在“黑箱”存在的情況下仍可審查和評判現有算法中存在的社會風險,甚至可以監測、評估算法的社會后果。通過對算法目的、風險和控制能力的技術監測,既增強了算法監管機構的監管能力,又緩解了事中與事后問責的監管壓力。

(三)監管網絡完善:形成多主體共生演化的生態化監管網絡

《關于加強互聯網信息服務算法綜合治理的指導意見》在論述算法治理的主要目標時強調,要建立治理機制健全、監管體系完善、算法生態規范的算法安全綜合治理格局。其中,算法生態規范的具體內涵為:算法導向正確、正能量充沛,算法應用公平公正、公開透明,算法發展安全可控、自主創新,有效防范算法濫用帶來的風險隱患。相應地,建立良好的平臺算法生態,要從平臺商業生態圈與平臺社會商業圈入手,保障生態圈內多方利益主體參與到積極推動平臺算法向上向善發展的算法治理進程中來。

從監管機構內部來看,要打破不同部門之間的信息壁壘和數據壁壘,互相整合數據資源和技術資源,避免在不同監管部門之間產生“數據盲區”和“信息孤島”,建立以技術為支撐、多部門協同的網絡化監管模式。從政府與平臺的協同來看,平臺作為算法的設計者和使用者,對算法技術和算法決策程序擁有更為清晰的認知和更強的掌控力,平臺自身對數據和代碼的處理能力遠遠超越一個簡單的服務提供商所擁有的權限,因此,無論是從社會、經濟、環境價值創造出發,還是從平臺自身可持續成長出發,平臺都具有算法自治義務。與此同時,政府以及行業機構可以分別通過強制性的“硬法”和指南式的“軟法”對平臺算法進行規制。具體而言,在進行算法設計時,平臺需要根據技術標準對算法嵌入社會規范并設置安全干預機制,保證算法設計與算法矯正技術的發揮。在算法投入應用前,一方面,平臺自身要進行充分的算法測試,另一方面,要在監管機構和平臺內部進行充分備案,對算法進行評估和審計,確保投入市場的算法安全可控、無歧視。此時,需要平臺和政府之間建立良好通暢的技術接口,保證有意義的算法透明、算法解釋與技術公開,針對不同算法技術、應用情景和風險程度提出具有針對性的信息披露要求,形成分級分類的算法透明披露體系。在算法投入應用后,平臺自身須時刻進行算法監測,發揮算法矯正技術的功能,對有可能產生風險的算法進行及時糾偏。政府則應發揮事中約束的作用,防范算法應用過程中可能產生的算法合謀、算法歧視、算法霸權、行業壟斷等行為。算法應用危害結果發生后,平臺負有向監管機構進行解釋的義務,政府等監管機構則需要根據事前備案中設置的算法問責點以及平臺解釋進行事后問責與懲罰,以威懾性的終端責任懲罰機制防止算法技術濫用。

從平臺生態圈視角來看,主要是以“社會倫理”與“社群共識”為基礎的規范手段對平臺算法技術和算法應用過程進行治理。一方面,要加強用戶和利益相關方對平臺算法的治理。目前,歐盟的個體賦權路徑已經對用戶治理進行探索和嘗試,平臺和政府對平臺用戶提供涉及自動化決策邏輯的有意義的信息,用戶可對信息進行評估后選擇是否接受自動化決策結果或者對決策程序提出質疑,平臺負有向用戶解釋質疑和完善自身技術漏洞的義務。另一方面,要將算法治理的框架納入平臺企業社會責任治理框架之中,加強社會公眾的新聞媒體監督和社會組織監督。社會公眾的監管參與不僅可以促使平臺在進行算法設計時考慮社會響應和社會訴求,而且可以在算法運行過程中對其產生的社會問題進行及時的監控和反饋,發現平臺算法失當行為的同時還可以及時識別制度漏洞,促進監管制度的完善和監管技術的改善。平臺與政府機構、行業協會、平臺用戶、社會公眾等利益相關方共同構成平臺生態圈,算法作為平臺與各利益相關方進行交流互動的技術支撐,生態圈內多方主體協同參與、共生共演,形成全面、動態的生態化治理網絡。

(四)監管位勢全面:落實全流程覆蓋的動態化監管機制

彌補平臺算法監管過程缺位的問題,解決事后問責機制難以自圓其說的困境,應建立事前、事中、事后全流程覆蓋的動態化監管機制。平臺算法問責制度的構建基礎在于算法設計者、擁有者、應用者或者控制者負有對算法技術和算法系統設計進行解釋的義務,證明算法自動化決策合理性的義務,以及減輕算法濫用、算法失當行為可能帶來的潛在危害或者負面影響的義務,如算法設計者、擁有者、應用者或控制者未履行其義務,則應根據責任認定機制予以追責。

為建立完善的平臺算法問責機制,事前監管中應當建立算法備案制度。即在算法進行部署應用之前,由監管部門或者第三方審計機構對算法技術進行穩定性、安全性審查和審計認證。算法備案制度的完善具有如下意義:第一,確保算法在投入應用之前經過了算法技術標準的審核,用“硬法”保障技術標準這一“軟法”在事前監管中發揮重要作用,在數據、程序和代碼層面防范平臺算法可能產生的技術風險和應用風險。第二,算法備案制度的完善便于查明算法風險的來源,確定算法責任主體,在事后問責時確定問責點。為保證算法備案制度的順利實施,一方面,需要平臺生態的支持,與政府機構建立通暢的技術溝通渠道,主動進行理性的信息披露和算法解釋;另一方面,也需要監管沙箱等算法監管科技的合理利用,進行算法模擬和預演,建立算法影響評估制度,在提升算法透明性、保障個人正當程序權利和強化公眾審查方面進行補充加強。

事中則需要加強對算法運營的審查和算法正當程序的監督。以算法歧視為例,若算法的初始輸入數據存在偏見和歧視,那么隨著計算過程的循環和計算結果的深化,算法在機器學習中會加強對這種歧視的固化,最終構成惡性的“反饋循環”。而平臺自身則很難或者沒有意愿去改變這種數據“輸入—輸出”方式,這就需要監管機構或者行業組織在事中對算法程序的正當性進行監督,并督促算法應用者和控制者在算法應用過程中保障算法作用個體(用戶)的知情權和自由選擇權利,這種權利一般由平臺的信息披露來實現。

事后監管則需要建立追責和補救機制。一旦發生危害政治經濟安全、個人隱私保護和社會福利的行為,就需要依據事前監管的備案制度及時進行內容審查,確定追責點,落實被追責主體的法律責任,作出客觀公正的判斷。事后監管作為最為穩妥的傳統規制手段,在平臺算法的全流程監管中最具威懾力和權威性。Reform

主站蜘蛛池模板: 国产精品人莉莉成在线播放| 国产小视频a在线观看| 91亚洲视频下载| 国产SUV精品一区二区| 国产黄网永久免费| 色综合天天娱乐综合网| 亚洲第一精品福利| 波多野衣结在线精品二区| 国产午夜福利片在线观看| 久久香蕉国产线| 九色最新网址| 国产白丝av| 中文字幕欧美日韩高清| 久久精品一品道久久精品| 亚洲午夜福利精品无码不卡 | 在线观看91精品国产剧情免费| 大香伊人久久| 国产成人综合亚洲网址| 成人亚洲天堂| 久久综合丝袜长腿丝袜| 网友自拍视频精品区| 亚洲日本一本dvd高清| 亚洲黄色激情网站| 最新国产午夜精品视频成人| 在线一级毛片| 国产欧美中文字幕| 91精品人妻互换| 欧美精品黑人粗大| 亚洲天堂网在线观看视频| 国产精品视频3p| 成年人国产网站| 91青青草视频在线观看的| 日韩高清欧美| 亚洲中文无码av永久伊人| 日韩人妻精品一区| 国产高清在线观看91精品| 久久精品一品道久久精品| 中文字幕免费播放| 亚洲丝袜中文字幕| 亚洲第一成年人网站| 91久久偷偷做嫩草影院电| 欧美亚洲香蕉| 亚洲高清日韩heyzo| 伊人91视频| 国内精品自在欧美一区| 亚洲男人天堂2018| 99精品视频九九精品| 亚洲成a人片77777在线播放 | 亚洲永久视频| 制服丝袜一区| 国产精品99r8在线观看| 婷婷六月天激情| 国产精品成人AⅤ在线一二三四 | 91视频日本| 999福利激情视频| 无码国产伊人| 午夜日韩久久影院| 日本亚洲国产一区二区三区| 久一在线视频| 永久免费精品视频| 午夜福利免费视频| 波多野结衣无码视频在线观看| 色精品视频| a在线亚洲男人的天堂试看| 国产麻豆91网在线看| 丝袜无码一区二区三区| 99爱视频精品免视看| 茄子视频毛片免费观看| 亚洲精品不卡午夜精品| 欧美人与牲动交a欧美精品| 毛片在线看网站| 国产91精选在线观看| 国产精品白浆在线播放| 国产真实乱人视频| 四虎影视永久在线精品| 国产精品第一区| 四虎在线观看视频高清无码| 又猛又黄又爽无遮挡的视频网站| 亚洲欧洲日产国码无码av喷潮| AV不卡国产在线观看| 亚洲永久精品ww47国产| 一边摸一边做爽的视频17国产|