

摘 要:以傳統的法律規范來規制算法,尤其以概念來限定算法存在一個根本性問題:規范與算法之間缺乏直接的對應性與流暢的溝通性。因為規范規定的是人類行為,而算法是一種機器決策,規范作為基于人類語言的文字表達,難以限定另一種基于機器語言的數字化表達。因此,算法規制的進深展開會遭遇文字之于數字的匹配與溝通難題的不斷強化,這使得算法規制在算法的一般性與特殊性的橫向維度上及現象層與隱藏層的縱向層級上呈現出不同效能。建構算法規制的分層結構,將有利于我們對算法及其規制保持更為清醒的認知判斷,發現算法規制的力量及其限度。只有將基于合法性判斷的規范規制轉變為致力于算法可信的分層規制,才能實現對算法的有效規制。
關鍵詞:算法;算法規制;規范規制;分層規制
中圖分類號:D920.0 文獻標志碼:A
當前法學界對算法①的規制研究,主要集中于規制規范性的技術剖析層面,尚未升級到法理體系化層面,故無法從整體上對算法社會的規制困境進行反思并提出宏觀的規制方案。②在技術層面,算法決策被視作一種人類行為的類行為,在完成“(類)人性”判斷之后,
劉艷紅:《人工智能法學研究的反智化批判》,載《東方法學》2019年第5期,第120頁。逐漸被納入法律規范調整的一般對象來對待。這實際上是對算法這一人工智能核心表達方式的人為處理。這種規制手段容易忽視人工智能與人類智能的根本差異,進而遮蔽規制算法的底層邏輯,使規制本身缺少活力。要想激活法律規范對算法的規制效能,首先得揭示算法規制的法理本質,回到評判算法的認知原點,構造科學理性的規制框架,實現從規范規制到分層規制的轉換,進而為規制算法提供可資推進的認知論工具,使規范在算法世界的更廣闊空間中發揮作用。
一、算法的規范規制
現代法學運行于“規范—行為”的基本框架之中,它的邏輯起點在于以規范解釋行為、以規范引導行為、以規范調整行為、以規范限定行為,進而將人的行為框定在規范體系內。
規范是指引與調整人的行為的標準,它是一組關于“命令什么”“允許什么”“禁止什么”的應然命題,其中規范主體是指被要求以某種方式行動的人,規范內容是指規范所命令、禁止或許可的特定的人的行為。參見徐顯明主編:《法理學原理》,中國政法大學出版社2009年版,第73-75頁。這一認知邏輯的前提著眼于區分出規范世界與生活世界,建立兩者的二元結構,使行為可以被規范所涵攝。法律,其根本用意在于規制生活世界中的人類行為,并通過這種規制技術建立起秩序。
這一方式在規范世界與生活世界之間的互動中十分奏效,規范體系中每一個概念欲意表達的內容都可以在生活世界中的行為或事實中找到對應。因為規范體系的載體是人類語言,而語言本身就產自于人類社會,故語言可以與生活世界一一對應,通過一定的話語形式與符號表達,規范的意義可以流暢地傳遞給生活世界。
參見\卡爾·拉倫茨:《法學方法論》,黃家鎮譯,商務印書館2020年版,第253-263頁。與此同時,人類現實生活的意義也同樣可以回流并映射到規范世界之中。這種話語形式與符號表達,在法理上被稱之為概念。
這里的概念主要是指法律中的概念,有廣義與狹義之分。狹義上的概念指為法律和法學所獨有并具有特定之法律意義的概念,如“無因管理”“緊急避險”;廣義的概念指一切具有法律意義的概念,它既包括以上狹義的法律概念,也包括其他可能起源于日常生活但具有法律意義的概念,如“婚姻”“財產”。概念組成了法律規范的最小構成單元,由概念可以形成法律規則和法律原則,進而組成法律上的規范體系。參見舒國瀅、王夏昊、雷磊:《法學方法論前沿問題研究》,中國政法大學出版社2020年版,第58-73頁。法律是一種“概念式”的思考,
參見\丹尼斯·羅伊德:《法律的理念》,張茂柏譯,上海譯文出版社2014年版,第222頁。正是概念的概括能力和表意功能打通了性質迥異的規范與行為之間的交互通道。概念成為規范與行為之間的中介,它提煉出諸規范之中的理性,并將這種規范理性傳導到行為之中;同時,將諸行為中的事實與價值、理性與非理性反饋到規范坐標之中加以評判。
當然,我們不僅僅有單個的概念。人們可以在概念的基礎上注入更多智慧,發現概念與概念間的相關性,提純相近行為與現象間的關系,聚成類型化的表達,還可以在類型的基礎上凝練更為自洽與融貫的概念排列與類型方陣,集成一個周延的體系。概念—類型—體系,在規范與行為之間搭建認知廣度、強度與精度更高的表意話語形式。法律人把現代法學構筑成一個獨特而有效的知識空間,它很好地完成了從規范到行為的投射。
采用這種方法,規范對人類行為的規制一直“所向披靡”。站在規范主義的立場,一切法律行為都是被規制的對象,都可以被法律概念所表達并被法律概念及其展開的規范類型、規范體系所涵蓋。
參見雷磊:《法教義學的基本立場》,載《中外法學》2015年第1期,第198-223頁。在機器學習
機器學習(Machine Learning)是人工智能的一種方法,指AI系統具備自己獲取知識的能力,即從原始數據中提取模式。引入機器學習使計算機能夠解決涉及現實世界知識的問題,并能作出主觀的決策。參見\伊恩·古德費洛、[加]約書亞·本吉奧、[加]亞倫·庫維爾:《深度學習》,趙申劍等譯,人民郵電出版社2017年版,第2頁。機器學習關注的問題是使用正確的特征來構建正確的模型,以完成既定的任務。參見\弗拉赫:《機器學習》,段菲譯,人民郵電出版社2016年版,第8頁。本文論及的算法即指基于機器學習的自主性算法,該算法被廣泛運用于諸多場景下的數據處理,包括且不限于本文提及的隱私計算技術、算法解釋技術、無人駕駛汽車的核心決策、金融風險評估、人工智能生成內容、平臺內容推薦、外賣平臺算法等領域。崛起之后,算法參與到人類生產生活實踐中,逐步成為決策系統的一部分甚至全部,算法也逐漸成為了規范規制的對象,如同人類行為一樣,按照人類行為的邏輯予以同等適用。正是因為采用這一“無往不勝”的統一方式,現代法學在人工智能時代的算法世界中遭遇了一道難題。
這場危機的癥候集中表現在規范與算法之間缺乏直接的對應性與流暢的溝通性。一方面,規范是基于生活世界而提煉出的抽象思維的文字表達,它的基本構成方式是語言文字。規范的意義是通過話語表達和語詞解釋被理解的。理解規范依賴于對語言文字的直接體悟,適用規范依賴于對語言文字的文義解釋,這是一套以文字作為符碼的闡釋應用系統。它之所以能被應用于行為,是因為人類行為的表達也是運用同樣的語言文字系統,表達度量衡上的統一確保了規范與行為的對應性,使得對行為進行規范解釋毫無障礙。但算法卻截然不同,算法的底層符碼不是文字而是數字。它的組構方式是計算,以一組數字狀態位或一種數字矩陣的排列形態來完成計算表達。文字與數字全然是兩套符號體系。另一方面,規范的邏輯展開依賴于常識與共識的因果律,這源于人類實踐的經驗總結與智慧累積,而算法的因果是一種函數表達,是源于數學公理與公式的組合疊加。兩者運行的邏輯大相徑庭,是兩種不同智能的理性呈現。
規范與算法之間所缺乏的直接對應性與流暢溝通性帶來了算法規制上的難題:用規范如何規制算法?比如,當我們用透明性原則去要求一種算法時,我們究竟在要求什么?當算法的數學復雜性遠遠超出常人的認知時,因復雜性所產生的難以理解是否算作一種不透明?
See Paula J. Bruening & Mary J. Culnan, Through a Glass Darkly: From Privacy Notices to Effective Transparency, 17 North Carolina Journal of Law and Technology, p.515-563 (2016).當所有的算法設計與架構都是明確的,只因海量數據所推動的運算輸出的結果不為人所預料能否算作一種不透明?當算法本身的智能是通過隱藏層的計算才得以表達時,能否算作另一種不透明(比如,深度學習的基本原理就是依靠卷積隱藏層的計算)?
See Ananny M.& Crawford, Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability, New Media & Society,20(3),973(2018).算法被改造成怎樣的面目,才能被規范視為透明?而當算法自身內在的數學原理與公式邏輯不允許它被強制改造時,該算法是否就要被遺棄?這些表明,規范已經在算法面前顯露出它脆弱和淺薄的一面。
參見蔡星月:《以算法規制算法》,載《華中科技大學學報(社會科學版)》2023年第4期,第111-117頁。“問題在于,法律如何介入算法的規制。若從內部規制的角度觀察,法律似乎不能亦不應調整算法,就像法律不能調整自然人的內在意思一樣。”
參見 \凱倫·楊、馬丁·洛奇編:《馴服算法:數字歧視與算法規制》,林少偉、唐林垚譯,上海人民出版社2020年版,第5頁。
二、算法規制的橫向維度:一般性與特殊性
(一)算法的一般性
規范在算法上所遭遇的危機使得其對算法的規制起步于概念,也止步于概念。如前所述,通過概念,規范與規范對象建立起二元結構。正是把規范對象統攝為高度概括的一個概念后,規范之于規范對象之間的關系就被平移為規范之于概念之間的關系。通過這種操作,規范獲得了主體性(支配地位)的優勢,可以經由這個概念去規制對象;與此同時,這個概念逐步被解釋,進而替代了被規范對象本身,成為了被規制的客體(被支配地位),接受來自規范主體的審視與評價。由此,“上—下”“主—從”“中心—邊緣”“第一性—第二性”的勢能差距便不斷被強化,規范的慣用技法與普適操作進而長驅直入被規范對象之中,由此規制得以完成。
一直以來,算法就遭遇了這樣的“套路”。當算法作為“算法”二字所組合出的一個概念文義時,“算法”這一概念就替代了人工智能領域諸多豐富而多樣的程序設計、數學表達、代碼架構等等智能形態,而成為一個可被規制的集合概念。也正是采用這一概念,規制算法的前提——對算法的集成表達得以滿足,規范得以應用于算法,發揮出它一貫的規制功能。
規范對算法的規制,沿襲了以規范為中心的結構化認識論立場,主張把算法作為規范分析框架中的一個對象概念、一種生活事實,通過這樣的界定,算法就以事實形態的概念物,從規范體系之中被解釋出來,再通過涵攝等方法重建規范與算法之間的規制關系。
參見雷磊:《法教義學的基本立場》,載《中外法學》2015年第1期,第198-223頁。這是一種訴諸純粹形式的認識論框架,在這一框架中,規范與算法分野明顯。規范訴諸于一種純粹形式的應然性,視為基于抽象純粹理性的思維表達,體現出法律價值的集成作用,
參見\卡爾·拉倫茨:《法學方法論》,黃家鎮譯,商務印書館2020年版,第253-263頁。它凌駕于算法之上,作為一種解釋工具與改造工具,為算法提供智識功能,展示“應當”的應然邏輯空間;而算法則被視作人工智能這一現象的集體表達,人工智能的豐富性被吸收到這一與之相對應的概念之中,由此建立起一致的“這一算法決策屬于何種概念”的實然世界,為規范的統一適用創設出了一般性的法則與場景。由此,形成了應然與實然、價值與事實、主體與客體截然二分的認識論架構。正是在此架構中,規范展示了它對規制對象一貫的概念作用力,將算法不加區分地整體納入法秩序調整范疇。
基于上述認識論立場,規范對算法的規制方式主要是通過涵攝的方法將規范的標準解釋對應到作為事實的算法上,以標準化適用支撐算法規制的理性。它解決了算法一般性上的規制問題,但也客觀上造成了算法規制脆弱性的一面,規范不可避免地忽視了算法因技術復雜性而帶來的特殊性。一方面,每一種算法都代表著一種邏輯,算法的概念聚合并不能代表算法的聚合,尚未有統攝各算法的一致表達。另一方面,算法作為一種數學思維的數字化呈現,始終在不斷進化,White Paper on Artificial Intelligence - A European Approach to Excellence and Trust,
European Commission(Feb.19,2020), https://commission.europa.eu/system/files/2020-02/commission-white-paper-artificial-intelligence-feb2020_en.pdf.它展示出數學思維方式的豐富多樣性,一直保持著理性的進階狀態,卻不拘泥于理性的固定態。從某種程度上說,諸算法所蘊含的復雜智能的理性化程度遠遠高于生活世界中的一般事實水平,用規范所營造出的理念世界中的單一概念去籠統地涵攝龐大復雜的算法世界,統合所有算法的規制路徑,只能說是應對高度復雜的技術思維的一種妥協。這只能算作規制算法的第一步。
這一步的優點在于,通過概念建構,規范成功把握住了算法的一般性,將諸算法具有內在一致性的諸原則、諸方式、諸路徑加以統一規制,規范立足在諸算法的一般性之上。它從諸算法中抽離出某些標準化內容,視作人工智能的“擬行為”,以規制人類行為的同樣手段規制人工智能的這些“擬行為”,由此確立了規范的支配地位,使算法仍在既有法律框架內得以“解釋—改造”,仍處于傳統的法解釋的射程內。
參見\布萊恩·比克斯:《法理學:理論與語境》(第4版),邱昭繼譯,法律出版社2008年版,第107-118頁。這一步的缺點在于,規范以概念涵攝的方式對算法的規制會停留于表面,不能穿透算法所搭建的深度復雜的數理邏輯的縱深之處,規范理性會遭遇算法理性的回懟,甚至被算法理性所瓦解。對算法一般性的高度抽象的概念化規制化解不開各種算法在現實應用中的種種具象問題,對算法規制的展開必須從算法的一般性走向算法的特殊性。
(二)算法的特殊性
在算法一般性上的規制僅僅將算法預先設定在一個法意義貧乏的認知框架內,從而過濾了其豐富內涵與巨大潛能。提升算法規制的效能,需要走出這個框架,立足于在算法各特殊性的層面上展開對話,借此打開算法規制的深層結構,并為其找到一個更加穩固的規制“奇點”。從算法一般性到算法特殊性,不是斷裂性的范式轉向,而是其邏輯延展的必然方向。對算法的真正治理必須深入到算法各特殊性的內部,在更為立體的框架上建構起規范與算法的互動關系。
算法的特殊性表現在由于算法技術的多樣性與復雜性,不同算法的應用會呈現出不同的決策特征。算法的特殊性建立在兩個基本維度上:場景空間與遠近時間。一方面,數字場景的豐富性催生了算法多樣性生態,算法總是具化為特定數字場景中的解決方案,其本質為一套特定的思維策略。不同算法通過其在不同場景中的策略及其應用來表達出自身的特殊性。正是數字場景的“具體性”決定了算法設計與應用的“特殊性”。
參見丁曉東:《論算法的法律規制》,載《中國社會科學》2020年第12期,第150頁。由于我國數字實踐日益豐滿,數字場景愈發豐富,隨之由場景實踐所規定的算法便表現出多樣化的特殊性特征。
參見曲縱翔、叢杉:《論算法驅動下的數字界面及其場景化》,載《學習論壇》2022年第5期,第50-60頁。另一方面,以技術為動力的算法始終在迭代,算法所呈現出的數據結構與技術路線會持續滾動更新。White Paper on Artificial Intelligence - A European Approach to Excellence and Trust,
European Commission(Feb.19,2020), https://commission.europa.eu/system/files/2020-02/commission-white-paper-artificial-intelligence-feb2020_en.pdf.這使得算法并非一成不變,它不是固定化的自身,而應視為在時間演進的長時段尺度上累積出的自身歷史的集成態。換句話說,每一種算法都是過去式與現在式的合成體,它們從未停止在時間維度上的延展。
與之相對應,對算法的規制也必然需要融入這兩個維度中,即在時間與空間中呈現規制的可能性。這意味著,算法規制不局限于一般性的視野,需要在一個完全不同于概念式規制的新框架之中去設計。需要把某種具體規則溶解于算法之中,成為算法運行中的一部分,作為算法這一思維策略中的一種“考慮因素”,也就是使算法產生“規范意識”。
參見武先云:《個體行動與現代生活的意義——馬克斯·韋伯“規范意識”概念的當代解讀》,載《當代中國價值觀研究》2020年第2期,第26-38頁。具體而言,就是在具體場景中針對算法的違法風險設計某種具體規則,把這種規則轉化為數字表達,植入到算法設計程序之中,并確保在算法的更新迭代中被同步更新迭代,在時間與空間中使“規范—算法”兩者融為一體,而不僅僅對算法作外部規制。這種規制方式會有效解決法律概念對算法一般性規制的表面化與軟弱性問題,使算法規制邁向第二層級。它針對具體情境中的算法諸特殊性展開,超越一般概念的抽象性形式,考察規范與算法兩者間的對應與溝通關系,并通過將文字符號轉寫為數字符號進入到算法特殊性的內部,以此增加算法內在架構中的規范性配比,進而完成對算法的規制。可以說,在算法特殊性上展開規制,是算法規制的一次重大轉向,實現了從生產規范以規制算法一般性到規范在算法特殊性中的再生產,顛覆算法規制的傳統邏輯,賦予了算法世界新的規范性意義。
對算法的規制必須找到一種更具有法意義的定位,必須在算法更為寬廣的橫斷面上展開規制的框架結構,顧及算法的特殊性,
See Joshua A. Kroll, Barocas S, et al., Accountable Algorithms, University of Pennsylvania Law Review, Vol.165,p.633-640(2017).唯有如此,規范才能真正在基于數理邏輯的算法領域發揮與在人類生活領域同樣的功能與效力。進入算法的特殊性領域,算法規制才能跳出單純依賴概念或規制的“規制—算法”二元結構的窠臼,擺脫僅停留于一般性規制上的無力狀態。
三、算法規制的縱向維度:現象層與隱藏層
算法不僅呈現出上述一般性與特殊性的特性差異,還具有深淺不同的縱深上的不同層級。特別是深度學習算法,
深度學習是近年新興的機器學習研究領域,其方法是具有多個表示層的表示學習方法,通過組合簡單但非線性的模塊獲得,每個模塊將一個級別的表示(從原始輸入開始)轉換為更高、稍微更抽象級別的表示。通過足夠多的此類變換的組合,可以學習非常復雜的函數。See LeCun, Y., Bengio, Y. et al., Deep Learning, Nature 521, p.436-444(2015).深度學習是計算機從經驗中學習,并根據層次化的概念體系來理解世界,而每個概念則通過與某些相對簡單的概念之間的關系來定義。讓計算機從經驗獲取知識,可以避免由人類來給計算機形式化地指定它需要的所有知識。參見\伊恩·古德費洛、[加]約書亞·本吉奧、[加]亞倫·庫維爾:《深度學習》,趙申劍等譯,人民郵電出版社2017年版,第1頁。對它的認識需要從多維度展開。目前,機器學習算法,尤其是深度學習技術已經被廣泛用于生產和生活實踐的諸多場景,如正被理論與實務界熱議的、以ChatGPT
ChatGPT是美國人工智能研究實驗室OpenAI推出的一種全新生成式人工智能模型,本質上是一種“生成型預訓練語言轉換器”。它基于大量數據訓練,可以學習和理解人類的語言,并進行交流對話,甚至能完成撰寫郵件、制作視頻腳本、創作文案、翻譯、編寫代碼等任務,具有極強的“內容創作”和“思考”能力。See Van Dis, et al., ChatGPT:Five Priorities for Research,Nature 614(7947), p.224-226(2023).為代表的生成式人工智能(Generative AI)
生成式人工智能不再局限于按照事先指定的程序來決策,而是能實現自主性內容創造。參見中國通信研究院、京東探索研究院:《人工智能生成內容(AIGC)白皮書》,
漯河市行政審批和政務信息管理局官方網站2022年11月2日,https://dsj.luohe.gov.cn/lhmenhu/85010cd6-6e4f-4247-af97-17793df992b9/77921362-c87c-4a5a-be89-860f97fdb698/P020220913580752910299.pdf。隨著深度學習技術的不斷發展,大量生成式AI內容涌現,工業界率先引入AIGC這一術語來描述生成式AI產出的數字資源,并將其與專業生產內容(PGC)和用戶生成內容(UGC)加以區分。See White R, Cheung M., Communication of Fantasy Sports: A Comparative Study of User Generated Content by Professional and Amateur Writers, IEEE Transactions on Professional Communication,Vol.58:2,p.192-207(2015).和無人駕駛汽車的核心決策系統使用的都是深度學習算法。基于人類探知的深度差異,可以把這一類算法區分為現象層與隱藏層。算法的現象層表示的是為人類可知可見的算法的基本形態,主要指算法設計與架構等方面。這是建立算法的初階形態,也是人類運用數理邏輯所編程出的計算思路。由于它屬于算法的原理呈現,且以人工設計編排為主,故它必然為人類所理解。可以說,算法的現象層就是人類智能與人工智能有效交互的界面,是兩種智能的交集域。算法的隱藏層表示的是算法展開深度運算的內核層級,主要指基于算法思路設計后經由大數據的洗滌過濾的隱藏計算層面。
參見\杰瑞·卡普蘭:《人工智能時代:人機共生下財富、工作與思維的大未來》,李盼譯,浙江人民出版社2016年版,第24頁。比如,深度學習中的隱藏層,這是算法實現人工智能的核心部分,也是人工智能區別于人的智能、不被人所掌握的區域。由于它是因大容量運算與復雜計算所不斷累積沉淀下來的算法的深層,
參見俞士汶、朱學鋒、耿立波:《自然語言處理技術與語言深度計算》,載《中國社會科學》2015年第3期,第134頁。是區別于人類智能的標志區域,故它難以被人類所認知。
就人類智能而言,人類認知涉足于算法的現象層,止步于隱藏層;就人工智能而言,現象層是一種由人類設定的先驗,而隱藏層則是機器具備所謂“自主意志”之后由其自主展開計算的后驗。
參見楊延超:《機器人法:構建人類未來新秩序》,法律出版社2019年版,第8-12頁。
對算法現象層與隱藏層的區分,并非刻意的人為劃分,而是在深刻認知人工智能技術原理基礎上的自然區分。當人類智能與人工智能兩種不同構成方式的智能體彼此交互時,既存在相互間的交集,又保有專屬各自的區域。從人類視角看,人類智能向人工智能的探知方向存在一個從可知到不可知的梯度變化:現象層就是其中的可知區間,這是人機交互的溝通界面。在這一層級,人類正是通過編程機器運行的規則賦予了人工智能一種人工的構造性力量,使算法得以誕生。所以,現象層為人工智能奠基,成為算法思維的建筑術。借助于現象層的可知性與交互性,人機保持了彼此作用、相互助力的可能。
但僅僅具有現象層,人工智能并不能被稱為智能。智能本身要求必須具備智慧的自主性與智力的獨立性,當一種智能僅限于人工時,那就只能是人的智能的表現形式而已。人工智能的本質要求是在人工基礎上表達出超越人類智能的新智能。所以,在現象層所搭建的算法架構與運算程序僅僅是人工智能的起源,其智能的內容仍舊是空乏的,需要算法通過自身的自主運算不斷被填充,這就過渡到隱藏層。隱藏層沉積的是算法的深度運算,通過一種非可視計算,孕育出人工智能的獨有智慧。隱藏層正是人工智能存在的基礎,算法由此產生不同于人思考的智能表達。隱藏層的最大特征在于它的不透明性。我們難以得知人工智能如何做出決策,這才是人工智能存在的意義。它的不透明性帶來了它作為智能的獨立性,這是它區別于人類智能的根本之所在。現象層與隱藏層是算法固有特性的自然呈現,兩者共同構成算法的智能的層級結構。
對算法予以規制就必須理解并尊重算法的天然縱深線。規制是一個法律意義賦予的過程,作為人類智能的一種輸出形式,規范也必須接受算法在層級結構上的即存事實。以概念形態表示的規范意義很難進入到算法的隱藏層,不可能對算法深層產生實質性的規制作用力,所以它的著力點應落腳于算法的現象層。但是,就目前來看,規范之于算法的規制仍停留于以概念的直觀樸素應對算法的繁復多變。我們做出一個規范判斷卻并未驗證其對算法的適用效果,它們不知不覺成為了單純的規制意愿,我們以為算法就是如此這般“聽話”,但卻并未證實算法運行后是否如我們所想象的那樣聽話。由于它沒有回歸到算法的內部技術約束上,必然止步于規制的外部想象。由于算法是一種基于數理思維的智能決策,所以為了使其“聽話”,作為以人類語言來表達文字思維的規范欲有效規制以機器語言來表達數字思維的算法,就必須通過與算法內在的匹配與溝通而被“充實”。一旦算法內部被填充進規制規則,那么規制算法就不再是一個意向物,而是一種作為落地的約束,在算法中“創生出更有效率的治理技術”,
參見王奇才:《元宇宙治理法治化的理論定位與基本框架》,載《中國法學》2022年第6期,第161頁。從而有效限定了算法。更為重要的是,算法執行現象層所設定的規制規則時,必須自主地將約束帶入到算法的隱藏層,使隱藏層在運行中仍然保持規制的效率,由此將規制從人為轉變為機器的自主。
為了實現這一點,算法規制必須實現規制的數字化,即用計算機語言重寫規制的核心要點,以數字化的機器語言輸入算法系統,使某種我們意欲實現的規范轉變成計算機程序設計中的某個代碼,從算法架構之初就使其具備某種被規制的基因,以此真正實現算法的深度規制。尤其是在當下的數字社會中,數據的可計算性決定了以其為基礎的法律活動幾乎都是可計算的,規范便可轉變為以數據呈現的機器語言。
參見彭誠信:4c230480ede19914512abbf3373163e9607d7c39ef638ca9fb3f55732cb58dae《數字法學的前提性命題與核心范式》,載《中國法學》2023年第1期,第88頁。把規范以機器語言的復寫方式植入到算法的現象層,通過算法在現象層的運算逐步帶入到隱藏層,從內部發揮出規制的約束力,進而達成實質意義上的算法規制,這便是算法規制的應然邏輯和科學方案。
需要指出的是,現象層與隱藏層并非涇渭分明,兩者共同表達了計算不斷深化過程中的自然分層,現象層與隱藏層之間存在相互交匯的過渡地帶,且兩者之間的占比也因算法的不同而不同。這是描述算法復雜性的一種方式,借助這種方式,我們可以進一步探索基于不同層級特點的、有針對性的規制方案。正是對算法技術復雜性的深刻理解,才使得對算法的規制保持一種謹慎的理性,使得一種在現象層的剛性約束與在隱藏層上的柔性約束相融合的規制策略得以可能。
四、算法的分層規制
面對規范與算法之間的鴻溝,我們需要丈量兩者之間的距離,鋪設相互銜接的步驟,調適不同層級的規范規制程度,以此確保算法規制的有效性與合理性。這一點自然能夠推導出對算法及其規制進行區分與結構化處理的意義。我們須在規范與算法之間的空間尺度上劃分出若干層級,并針對各層的算法情形作出規制可能性上的系列判斷,建立算法的分層規制框架。唯有如此,才能真正重新奠定算法規制的基礎,這是構建算法規制體系的首要任務。
上文分析表明,算法具有一種“經緯結構”。一方面,算法的一般性與特殊性,作為算法橫向上的區分工具,表示算法共同性與個體性的不同尺度。另一方面,算法的現象層與隱藏層,
作為算法縱向上的延展表征了算法智能深淺的差異層級與縱深空間。這些共同構成了算法的二維結構,兩個維度上的四種元素的交叉產生四種組合的算法位:現象層中的一般性、現象層中的特殊性、隱藏層中的一般性、隱藏層中的特殊性。這四種算法位就是算法集合展開的排列矩陣。相應地,規范針對不同點位上的算法表現出不同的規制效能。如表1所示:
算法位能夠表征規范與算法之間的距離。它表明,規制不是作用于算法的一成不變的靜態約束,而是一種不斷延展與收縮的動態力量,它依據不同的算法位和在該算法位上的算法特征而調整變化。這樣,對算法的規制可以理解為規范在算法的經緯框架之中以某種滑動標尺的方式移動,隨滑動到的算法位的不同而不同,并在算法分布的統一體中保持規制上的連續體。算法是一個集合概念,它反映出一群具化計算形態的策略機制的集體表達。
參見王前:《人工智能發展對認識論研究的若干啟示》,載《長沙理工大學學報(社會科學版)》2022年第2期, 第30-36頁。作為一種集合體,算法自然持有其獨特的分布狀態,呈現出特定的延展結構。
參見[美]克里斯托弗·斯坦納:《算法帝國》,李筱瑩譯,人民郵電出版社2014年版,第41-61頁。這意味著規制算法首先需要認清它的分布格局,進入這一多維的延展格局之中,在更為精細的層級上處理規范與算法的關系。
1.現象層一般性的原則規制
現象層的一般性領域是算法最透明的部分,也是最易于接受規制的部分。這一算法位提取了算法中的表層一般性,表現出高度的抽象性,極為適合以概念為工具的規范規制。基于現象層的一般性上的規制實際上是一種法律原則性規制。這并非是僅應用法律的原則來規制,而是說,無論是法律原則還是法律規則,在這一層面都只能是原則性的,因為規制的對象是在算法可知的現象層提煉出的一般性內容,是算法最通用的、最普適的部分。越通用、越普適,抽象化程度就越高,以概念這一抽象物來加以規制就越容易,但規制的作用力就越弱。規制的便利程度與規制力度成反比。因此,在這一算法位上的規制易于理解、可以通用,但效能卻有限。比如,致力于網絡餐飲平臺送餐員權利保護的“算法取中”原則,
參見市場監管總局等七部門聯合印發《關于落實網絡餐飲平臺責任切實維護外賣送餐員權益的指導意見》(2021年7月印發)第2款:“不得將‘最嚴算法’作為考核要求,通過‘算法取中’等方式,合理確定訂單數量、準時率、在線率等考核要素,適當放寬配送時限。” 它要求在對餐飲人員進行考核時,不得將“最嚴算法”作為考核要求,要合理確定訂單數量、準時率、在線率等考核要素,適當放寬配送時限,這是針對算法現象層的一般性規定。但在具體適用時,多少的訂單量和怎樣的準時率屬于“合理”,多久的時限能算作“放寬”等都缺乏具體的判斷標準,影響著該原則的效能實現。
在算法應用領域,原則規制穩定地引導與協調著參與各方的合法合規行為。比如,《個人信息保護法》第6條規定的目的限制原則,作為個人信息保護法律原則體系的“帝王條款”,它要求運用算法技術進行數據收集和處理之時要以謙抑和自我約束的態度,做到處理目的明確、處理行為與目的直接相關,處理結果對個人影響最小。
參見《中華人民共和國個人信息保護法》第6條:“收集個人信息應當限于實現處理目的的最小范圍,不得過度收集個人信息。這條規定旨在保護個人信息安全,防止個人信息被過度收集和濫用。”該條款即是針對算法現象層一般性的原則規定,體現在數據治理實踐中,參與各方需要建立一個“共識處理架構”,在這一架構下共享數據處理目的,并將數據處理目的凝聚成特定的“共識”,確保數據流轉后被固定化在特定范圍之內,避免參與各方在“共識之外”將數據用于其他目的。
參見抖音集團數據及隱私法務:《隱私計算法律適用規則報告》,載上海市法學會編:《上海法學研究》2022年第20卷上海人民出版社2022年版,第23-24頁。再比如,在網絡安全與算法言論的治理框架下,原則上要對網絡安全進行分等級保護,其中應將明確損害國家安全的信息內容和若遭到破壞、喪失功能或者數據泄露可能會危害國家安全的信息列為最高保護等級予以重點保護。
參見《中華人民共和國網絡安全法》第12條、公安部《網絡安全等級保護條例(征求意見稿)》第15條。將這一原則用以規制人工智能生成內容,是在算法現象層上對生成內容予以總體控制,要求平臺對算法生產的信息內容進行過濾審查,而具體的過濾審查,則需要通過針對算法的特殊性進行分場景的細化規則規制來實現。
2.現象層特殊性的規則規制
現象層的特殊性只作為各種算法設計架構中的獨有部分,即每一種算法的不同編程方式,或者應用于特定的數字場景或基于特定數據集,或者采用新型機器語言表達等等。
See Mireille Hildebrandt, Law as Computation in the Era of Artificial Legal Intelligence: Speaking Law to the Power of Statistics, University of Toronto Law Journal,
Vol.68:Supplement 1,p.12-35(2018).它既代表現有算法上的多樣性,也代表探索算法的創新性。這一算法位是可知的算法的具化表達,它仍是透明的,但它的透明性需要在具體場景中捕獲。
See Robert Brauneis & Ellen P. Goodman, Algorithmic Transparency for the Smart City, Yale Journal of Law and Technology, Vol.20, p.103-176 (2018).
因此,在這一算法位上的規制要求規范從原則層面再向前邁進一步,進入到算法之中,在其中建立規范。由于這種規范必須是與特定場景中的具化算法相配套的,所以不是法律原則規范,而必然是法律規則規范。也就是說,規則不一定具有適用于其他算法的普遍性,但卻能夠很好地約束“這一款”算法。這意味著在此算法位,規范與算法是深度融合的,且這種融合具有專屬特性。這是算法規制精細化的必由之路,規制算法的路徑需在這一空間展開。
具體而言,針對此層級的規則規制需要置于具體的算法應用場景中,因為場景不同,算法的性質便會不同。
參見丁曉東:《論算法的法律規制》,載《中國社會科學》2020年第12期,第150頁。比如,在上文所述個人數據處理的目的限制原則之下,存在針對具體場景的諸多規則,其中隱私計算的“共識處理架構”規則包括了計算參與方共同設定明確的計算目標、共同約定計算邏輯、隱私計算對原始數據的處理專為實現計算目標而特別“定制”、接受特定技術方案約束等子規則。
參見抖音集團數據及隱私法務:《隱私計算法律適用規則報告》,載上海市法學會編:《上海法學研究》2022年第20卷上海人民出版社2022年版,第24頁。這些規則是目的限制原則在隱私計算場景中的具體展開,是對原則中“處理目的明確、處理行為與目的直接相關、處理結果對個人影響最小”三項總體要求的細化規定,需要落實到各種特殊應用場景的算法現象層中。再比如,在上文提及的網絡安全分等級保護原則,在生成式人工智能虛假有害信息的治理實踐中被轉化為以下規則:一是建立覆蓋模型搭建、訓練和運行的統一信息內容審查過濾標準;二是將明確損害國家、社會安全利益的信息內容列為“最高敏感級”,在訓練初期,應從數據庫中予以標記和剔除;三是在數據策劃、數據提示和數據微調階段設立定期巡查機制,對相關內容予以及時清洗和過濾。
參見朱嘉珺:《生成式人工智能虛假有害信息規制的挑戰與應對——以ChatGPT的應用為引》,載《比較法研究》2023年第5期,第50-51頁。這些規則要求對算法現象層的特殊性予以分段處理,體現出規則規制的確定性與針對性。
3.隱藏層一般性的技術規制
隱藏層的一般性指算法在深度運算中所生成的一般特征,是不同算法在各自隱藏計算后浮現出的共性的表示,是人類智能探知人工智能的邊界。在這一算法位,雖然不能全然知曉各算法特征的來源與理由,但通過對一般性的歸納與總結,我們尚能感知到算法計算的趨向與路線。這些涌現出的一般性成為人類智能理解人工智能的某種線索,也是算法哪些方面在未來需要被規制的某種提醒。所以,它只能是待規范規制的領域,雖表示出未來有可能需要被規制的方面,但尚不確定該如何規制。也就是說,它表達了規范規制的潛在性,具有上升到現象層的某種潛質,需要對各種算法共性的不斷累積來增加其上升的速率,當它累積足夠成熟后,便會進入現象層,成為規范明確作用的對象。伴隨著新技術的進步與人類對算法認知掌控的加強,隱藏層的一般性會被更多地開發出來,會從隱含的狀態逐步攀升到現象層。因此,它是算法層級躍遷的過渡渠道。鑒于它始終處于發展位,規范對其的規制力量和效果相當有限,需要尋找其他的替代性規制方法。
經典架構理論將代碼作為法律,挖掘了代碼替代法律在網絡空間發揮規范作用的可能性,
參見\勞倫斯·萊斯格:《代碼2.0:網絡空間中的法律》(修訂版),李旭、沈偉偉譯,清華大學出版社2018年版,第1頁。現今如果把代碼換成算法,在邏輯上也能成立,
參見胡凌:《數字架構與法律:互聯網的控制與生產機制》,北京大學出版社2024年版,第191頁。即算法作為一種技術,也可起到規制算法的作用。實際上,我們無需將技術類比為法律,也無需把規則看作算法。技術本身就具備規制的功能,它無需做形式的轉換即可對算法產生影響。尤其是在算法的隱藏層,技術制衡技術將成為人對算法進行間接控制的重要方式。
參見季衛東:《數據、隱私以及人工智能時代的憲法創新》,載《南大法學》2020年第1期,第1頁。我們無法通過摸清算法運算的深層邏輯而起草新的法律對其予以規制。此時,單憑法律規范已無法全然維系算法世界的秩序,故算法規制路徑應從依賴原則和規則的規范規制轉向技術規制,從而在基于規則的秩序之下,建立一種基于技術的秩序。
以隱私計算技術為例,在數據處理的目的限制原則之下,假設在金融風險監測場景中,我們通過“共識處理架構”規則明確了企業A和銀行B聯合建模的計算目的(為了建立企業A金融風險評分模型以實現對其貸后風險的動態監測)與計算邏輯(企業A的貸款數據、經營數據、在某金融政務數據庫中的不動產抵押數據等三類數據與企業A貸后風險評分的函數關系)。
參見抖音集團數據及隱私法務:《隱私計算法律適用規則報告》,載上海市法學會編:《上海法學研究》2022年第20卷上海人民出版社2022年版,第25頁。由于涉及到多方主體,為保證各參與方持有的數據不會發生泄露與直接交換,需要借助聯邦學習
隱私保護技術之一,它是一種隱私保護的去中心化方法,將原始數據保留在本地設備上,在消除數據通信額外成本的同時進行本地機器學習訓練,進而在中央服務器上對學習和共享的模型進行聯合,以聚合和共享參與者之間的知識。See AbdulRahman S, Tout H, Ould-Slimane H, et al., A survey on federated learning: The journey from centralized to distributed on-site learning and beyond. IEEE Internet of Things Journal,Vol. 8∶7,p.5476-5497(2020).通過聯邦學習,可以在一定程度上實現“原始數據不出域“和”數據可用不可見”。技術深入到算法的隱藏層,將各方數據交互限定在鎖定了某個特定處理目的的模型梯度數據層面,防止將數據用于其他場景,參見抖音集團數據及隱私法務:《隱私計算法律適用規則報告》,載上海市法學會編:《上海法學研究》2022年第20卷上海人民出版社2022年版,第25頁。并在本地設備上完成數據模型的訓練。
參見包曉麗:《可信數據空間:技術與制度二元共治》,載《浙江學刊》2024年第1期,第92頁。此時,隱私計算作為一種規制方法最大限度防止了數據濫用,實現了數據處理目的限制原則意欲表達的規制目標,符合“共識處理架構”規則的規制要求,以算法完成了對算法的規制。這是僅僅依靠法律規范無以達到的規制效果。
4.隱藏層特殊性的無法規制
隱藏層的特殊性指算法在深度運算中的自我智能表達,這是人工智能的最本質的標志區。
See Preparing for the Future of Artificial Intelligence, White House(May.3,2016), https://obamawhitehouse.archives.gov/blog/2016/05/03/preparing-future-artificial-intelligence.人工智能的智能化就是通過算法自身的內在計算來實現的,如果沒有這一算法位,那人工智能就不再是人工智能,最多稱之為人工操作的智能。
參見成素梅、張帆等:《人工智能的哲學問題》,上海人民出版社2020年版,第66頁。一種智能區別于另一種智能,就在于它是不依附于其他智能而能夠獨立完成的智能。這一算法位就是使人工智能得以存在并變得有價值的關鍵區域。當然,這會給人類帶來恐懼以及由恐懼所催生的強烈的規制欲望。但是,這卻是不可規制的領地。規制的前提是對象明確,明確的對象才能使規范的發力獲得有效的作用點。但在復雜深層計算的隱藏層,難以確定究竟要規制什么。因此,這一算法位是排除規制的。在此,我們必須承認規制算法的限度,規制難以無限伸展,當碰到算法精髓部分時,算法本身所蘊含的高度復雜且內在的計算硬度為規制設置了屏障。
See Joshua A. Kroll, Barocas S, et al., Accountable Algorithms, University of Pennsylvania Law Review,Vol.165,p.633-640(2017).在某種程度上說,這是人類無以適從的地方,也必然是難以規制的“荒地”。比如,生成式人工智能的對話模型在技術系統內部的運作過程處于“黑箱”狀態,雖然近年來可解釋人工智能快速發展,產生了“反事實解釋”與“以用戶為中心的透明”等解釋算法的算法,
參見安晉城:《算法透明層次論》,載《法學研究》2023年第2期,第58-60頁。為打開“算法黑箱”的某些部分提供了基本方法,但目前尚無完整技術方案可做到對生成式人工智能算法的全面解釋。
參見楊俊蕾:《ChatGPT:生成式AI對弈“蘇格拉底之問”》,載《上海師范大學學報(哲學社會科學版)》2023年第2期,第122-123頁。承認無論是基于法律規范的規制還是基于算法技術的規制皆有難以抵達的空白地帶,并不意味著規制在算法面前的妥協與潰敗,而是激發我們轉變規制理念、進行規制方向與重點的因應調整。
五、算法規制的轉向:從合法到可信
為了更好地完成算法分層規制這一任務,我們需要回歸算法規制的認識論原點,重新審視算法規制的法哲學觀,
參見成素梅、張帆等:《人工智能的哲學問題》,上海人民出版社2020年版,第20頁。調整評價規范與算法之間關系的法理論立場,重塑更為客觀理性的人工智能法理論。應當指出,傳統法觀念一直沿襲著“規范主義”的潛在立場,
參見陳曦:《法律概念與法律規范的關系》,載《蘇州大學學報(法學版)》2022年第2期,第55-59頁。當一旦使用“規范”這一概念時,人們往往自覺或不自覺地賦予它某種無往不勝的威力。無論是作為社會規范本身所具有的道德譴責力,還是它背后被賦予的國家強制力,都使得“規范”被抬高到統攝行為的視角上,建立起與被規制對象的勢能差,并以勢能上的優勢從上而下地輻射到被規制對象身上,隨時隨地對其進行合法與否的判斷。這可能是法律學人的潛在學科邏輯,帶有一種不言自明的學科基因。規范是可以引導、警示、懲罰或獎勵行為的教義,在適用于現實生活中的人類行為時屢試不爽。在適用規范的過程中,一切行為都試圖被放置于合法與否判準的法概念金字塔中。
但遺憾的是,算法不是人類行為。在算法領域,規制失去了它的優勢地位,合法性判斷已不再是必須,甚至已經無能為力。如果一輛無人駕駛汽車
我國的汽車駕駛自動化分為6個等級:0-2級為駕駛輔助,自動化系統輔助人類執行動態駕駛任務,駕駛主體仍為人類駕駛員;3-5級為“無人駕駛”,算法系統在設計運行條件下代替人類執行動態駕駛任務,替代人類成為駕駛主體。其中3級系統(有條件自動駕駛,Conditionally Automated Driving)在其設計運行條件下持續地執行全部動態駕駛任務;4級系統(高度自動駕駛,Highly Automated Driving)在其設計運行條件下持續地執行全部動態駕駛任務并自動執行最小風險策略;5級系統(完全自動駕駛,Fully Automated Driving)在任何可行駛條件下持續地執行全部動態駕駛任務并自動執行最小風險策略。參見國家標準《汽車駕駛自動化分級》(GB/T 40429—2021)。由于本文主要針對自主性算法,所以涉及的“無人駕駛汽車”主要限定為3級以上以自主性算法為技術基礎的自動駕駛汽車。撞了人,我們究竟在規制什么?如果是人駕駛的汽車撞了人,規制的是人的駕駛行為,判斷的是人的駕駛行為的合法與否,而不是汽車。在此,這一駕駛行為是作為一個整體被規制的,它僅區分出主觀(故意或過失)與客觀(駕駛行為),強調行為與損害結果(撞人)之間的因果關系。我們不必對客觀駕駛行為再做細分,究竟是駕駛者將剎車踩成了油門還是打錯了方向盤抑或是其他。因為這些行為統統可以被歸入“交通違法行為”這一概念之下,只有通過這一具有歸納與概括性質的解釋方法,才能將事實涵攝進“交通違法行為”相關規制規范之下。無論哪一種錯誤駕駛行為,都歸納并停留在關于人類行為合法性評判的概念層面即可,既不需要向上收斂也不需要向下細化,就足以支撐起規范對汽車撞人這一行為的規制。因為,懲罰是作用于行為人的,無論是金錢性罰款還是對人身自由的限制,行為人(駕駛者)都是作為一個自然人的實體而成為完整獨立且實體邊界清晰的規范對象的。同時,對行為人(駕駛者)的懲罰,對于被害人(被撞的人)而言,是可以感同身受并能理解其規制意義的,因為被害人也是作為一個個體的人的存在。所以,對人類行為的規范規制效果,在人與人之間是互通的、普適的且存在對應關系的,基于行為之上的規范能夠成為人類行為合法性判斷的關鍵性評價,構成人類社會秩序的來源之一。
但這一點在無人駕駛汽車上卻難以實現。無人駕駛車輛所產生的交通事故責任的認定存在規制對象的不確定問題。責任認定的基本要件之一是主觀過錯,而由算法所操作的駕駛程序是否存在主觀過錯可能是一個棘手的問題。如果不存在主觀過錯的基礎,那么傳統責任認定的規制邏輯就會被打破,這就需要考慮是否應建立基于算法的新的責任認定規制體系。如果存在主觀過錯,那么這種對主觀過錯的認定,應當是將算法視為一種擬人化的“駕駛員”而追責于算法自動決策本身,還是將其歸咎于算法的設計者?無論選擇哪一種都存在更深層次問題。就前者而言,歸責于算法本身,不會產生懲罰的作用力。算法不具有自身利益,沒有對切身利益的剝奪,就失去了懲罰的功效。對算法的唯一處理方法就是對算法的禁用,即使如此,也很難解釋為對算法的懲罰。就后者而言,對算法的歸責與對算法設計者的追責是兩種意義上的認定。對算法的歸責基于對交通駕駛事故本身的過錯認定,而對算法設計者的追責基于其設計算法是否盡到了足夠的注意義務。足夠的注意義務主要指是否對未來可能出現的各種交通應用場景的風險做出充分的預判與防范。但這并不意味著要求實現對全部應用場景的風險作出無遺漏的防范。應用場景是多元開放的,可能的風險也是難以窮盡的,而算法的設計者能“教會”無人駕駛汽車的部分終究是有限的。所以,我們當然可以且應當追究算法設計者的過錯與責任,但這并非真正意義上的規制,它只是尋找了一個關聯對象,以對算法設計者的追責替代了對算法的歸責。
上述分析表明,傳統的法律規范規制的合法性進路難以有效規制算法。這使我們不得不反思一貫的“規范主義”以及“法律中心主義”的立場在算法規制領域立足的可行性與可能性。
參見王聰:《無“法”生活?——法律中心主義的一個反思》,載《中國圖書評論》2012年第7期,第42-47頁。但僅僅意識到問題所在還不夠,還需追問:我們對算法規制的目的是什么?我們欲意達到何種效果?我們需要重新審視這一先入為主的理念,批判性認識單一合法性判斷作為傳統規范控制的有效性,而分層規制正是為了彌補這樣的不足。一旦拋棄了規范主義,承認規范(無論是法律原則還是法律規則)在算法隱藏層規制(無論是針對算法的一般性還是針對算法的特殊性)的力有未逮,搭建起分層規制的總體認知框架,我們就會發現,以規范來涵攝事實的合法性判斷不再是唯一的路徑,我們需要轉向尋找一種對此框架更具解釋力的規制邏輯。
以算法透明度的規制為例,建立分層規制框架意味著:首先,在對算法現象層一般性的規制層級,以算法解釋權的確立為基本原則,一是要求個人信息處理者“利用個人信息進行自動化決策,應當保證決策的透明度”
參見《中華人民共和國個人信息保護法》第24條第1款。“處理個人信息應當遵循公開、透明原則,公開個人信息處理規則,明示處理的目的、方式和范圍”參見《中華人民共和國個人信息保護法》第7條。;二是規定當算法自動化決策有可能對個人權益產生重大影響之時,數據主體有權要求決策者對相關情況予以說明。以上算法解釋權雖在現象層做出了要求算法透明的一般性規定,但由于原則中概念的不確定性與適用范圍的寬泛性,還需要在不同場景中以規則的方式予以具體落實,于是,規制走到了算法現象層的特殊性層級。
在這一層級上,規則針對算法特殊性采取不同的規制方案。一方面,對不同場景下算法透明做出相應規定,如《人工智能算法金融應用信息披露指南》對金融算法應用所涉及的數據、算力、場景等多種要素予以考慮,并對信息披露的條件、方式、維度和內容做了詳細規定,以提高人工智能算法在金融領域的可解釋性和透明度;
參見中國人民銀行《人工智能算法金融應用信息披露指南》(中華人民共和國金融行業標準JR/T 0287—2023)。《關于落實網絡餐飲平臺責任切實維護外賣送餐員權益的指導意見》要求平臺向外賣員公開訂單分配、工作時間和休息等與勞動者基本權益直接相關的算法規則,
參見市場監管總局等七部門聯合印發《關于落實網絡餐飲平臺責任切實維護外賣送餐員權益的指導意見》(2021年7月印發)第5條。以保障送餐員權益不被算法默默侵蝕。另一方面,法律規則對同一場景下算法的不同透明度也做了細分,如《算法推薦管理規定》要求算法推薦服務提供者應當“優化檢索、排序、選擇、推送、展示等規則的透明度和可解釋性”,以避免對用戶產生不良影響;
參見國家互聯網信息辦公室《互聯網信息服務算法推薦管理規定》(2022年3月)第12條。應當“以顯著方式”告知用戶其提供算法推薦服務的情況,并以“適當方式”公示算法推薦服務的目的意圖和主要運行機制等。
參見國家互聯網信息辦公室《互聯網信息服務算法推薦管理規定》(2022年3月)第16條。
當規制下沉到算法隱藏層的一般性層級,基于規范的規制不再奏效,基于技術的規制開始發揮作用。比如,隱層分析算法(hidden layer analysis)利用可視化技術分析神經網絡模型中潛藏層的局部特征,實現了對神經網絡預測過程的解釋。
See Dosovitskiy A, Brox T.,
Inverting Visual Representations with Convolutional Networks,
https://doi.org/10.48550/arXiv.1506.02753,last visited on Jun. 9, 2024.這種方法屬于對黑箱模型預測結果與決策過程的解釋。
參見陳彩華、佘程熙、王慶陽:《可信機器學習綜述》,載《工業工程》2024年第2期,第19頁。它作用于算法隱藏層中,針對普遍存在的算法黑箱問題,力求以算法來解釋算法。再比如,有實證研究表明,由系統直接生成的可視化熱力圖比文字解釋更好地起到了算法解釋促進決策對象理解的效果。
參見周翔:《算法規制如何場景化》,載《東方法學》2024年第2期,第141頁。
最后,在算法隱藏層的特殊性層級,即法律與技術都無法抵達的地帶,我們不再追求算法的透明,而是承認算法在這一層級的不可解釋,進而把規制轉向算法的可信:在無法透明也無法解釋的無法規制區域,算法的可知、可視與可理解與否對于我們已不再重要,重要的是對我們而言,算法是否可信。信任比透明能更好地促進各方的理解與交往。以信任原則重構算法解釋權,在算法透明度規制實踐中尤為重要,這需要我們建構一種基于信任而非基于同意的關系。
參見丁曉東:《基于信任的自動化決策:算法解釋權的原理反思與制度重構》,載《中國法學》2022年第1期,第113頁。對可信的追求意味著對算法透明度的規制不再以合法為中心,而旨在建立某種促進“人機協同”、算法參與各方互惠的信任機制,并在這一機制下促成可信算法的應用。這一目標實現的前提是消除個人對算法系統的疑慮與防范,為此,規制路徑不再完全依賴于透明與解釋,因為完全透明可能會帶來信息冗余,導致感知麻木;而無限度的解釋對于無法理解算法運行原理的普通人而言,反而降低了其對算法系統的信任。
參見周翔:《算法規制如何場景化》,載《東方法學》2024年第2期,第142頁。算法透明的規制路徑轉向依賴于溝通信任機制的建立。
仍以算法解釋權為例,在分層規制框架下,算法透明度也是分層遞減的。在算法的現象層,我們進行普遍的信息披露和特定的算法解釋,力求實現盡可能多的透明和盡可能充分的解釋;在算法的隱藏層這一規范失靈的地帶,我們發揮技術規制技術、算法解釋算法的技術規制作用,在無法獲得更多透明與更多解釋的層級,力求將復雜技術以可視化形式呈現,以獲得對算法更多的理解。于是,對于算法透明度的規制,自上而下,從揭開黑箱的算法解釋權一般原則,到實現一定透明度的具體規則,再到獲得更多理解的算法解釋技術,以靈活的透明度管理替代了單一的信息披露。而在這一框架的最底層,技術和規范都失效的完全黑箱地帶,透明度工具全然無效,我們有必要探尋構建算法信任的更為特殊的機制原理,
參見周翔:《算法規制如何場景化》,載《東方法學》2024年第2期,第142頁。努力增加可以促進信任與溝通的決策過程參與感,從而實現算法的可信。(見表2)
信賴是提高社會接受度的重要途徑,是科技得以投諸市場、獲得應用的前提。只有建立可信賴的算法決策系統,在使用算法決策時遵守道德規范與法律原則,才能提高技術應用的社會接受度,才能真正實現智能時代經濟與社會的可持續發展,實現對個人尊嚴與基本權利的尊重與保護。算法可信是一種狀態,即算法基于可溝通性、可靠性和可控性而能夠獲得人們的信任。
參見袁康:《可信算法的法律控制》,載《東方法學》2021年第3期,第13頁。可信算法意味著該算法的決策技術安全可靠、決策程序合法合規、決策結果公正不偏倚。故而,可信算法并不僅是算法透明度這一特定領域算法規制的方向,也是整個算法規制框架的方向。與此同時,算法透明度規制框架的示例并非是算法分層規制框架適用的個例,關于算法中立性、可責性、可靠性、算法風險預防、數據分類分級處理等算法規制方案皆可搭建在這一由“原則統攝規則—規則指引技術—技術規制技術”的分層規制框架之中,其目的終究是為了建立可信算法,以促進人機協同下算法信任與溝通機制的更好運行。
綜上所述,在基于算法信任的算法分層規制框架內(見表1),四個算法位集體表征了算法規制的內在結構。借助于對這一二維軸線上的不同算法位的分解與評判,我們獲得了對算法及其規制的深度認知。與此同時,算法透明度分層規制的框架(見表2)也清晰展示了規范與算法之間的匹配與溝通關系,隨著分層規制替代了規范規制,動態的可信度考量也替代了靜態的合法性審查。我們的追問從“這一對我們的福利與利益進行分配與影響的算法決策是否合法”變為“當我們把這一切教給算法時,它們究竟是否值得信任”。
參見袁康:《可信算法的法律控制》,載《東方法學》2021年第3期,第5頁。一旦我們不再以單一規范的適用來追求合法與否的判準,我們就不需要再糾結于哪一個算法行為是否會落入某一概念、規范的涵攝范圍之內,而是更多地考慮這一分層規制方案是否能夠切實促進算法決策者與相對人之間信任溝通的增進。因此,我們不需要對所有場景和每一次算法運算都建立相應的規范,我們承認規范體系會有諸多的不足和空白,但仍然可以通過不同層級、不同規制方法的搭配運用而實現既定的規制目標。由此,算法規制從結果主義往前邁向了預防主義。因為對合法與否的判斷是結果主義式的,而技術對技術的監控、可信空間的搭建則具有預防的性質,算法的可信立足于“預防主義”的角度,從而在源頭上避免了算法風險的發生。
參見袁康:《可信算法的法律控制》,載《東方法學》2021年第3期,第13頁。
信任如何建立,是一個相對復雜的系統工程。
參見袁康:《可信算法的法律控制》,載《東方法學》2021年第3期,第8頁。本文僅是站在法理學的角度,對算法分層規制理論做總體性論述,還有更多的工作留待進一步細化分析。概言之,算法不能作為“一塊鋼板”被規范籠統規制,規范必須沿著算法展開的技術脈絡往縱深處推進。只有做出層級區分與結構化處理,延展出這一分層規制的框架,并以可信為基準,深入這一結構系譜之中,規制之于算法才能彰顯出規訓的力量。否則,規制算法就僅僅是學術想象上的概念狂歡。
結 語
規范對于行為而言,具有一種瞬時的規制自足性。無論何種人類行為,不管此種行為的情境怎樣變化,它們都可以被解釋,進而被涵攝到一定的概念之下。算法卻容易從法概念與法規范之下“逃逸”出去,難以被傳統規制方法所全然“捕獲”。這就要求我們不得不剔除法律規范可以天然適用于算法的信念設定,開始去反思一貫的“規范主義”以及“法律中心主義”的立場在算法規制領域立足的可行性與可能性。
參見王聰:《無“法”生活?——法律中心主義的一個反思》,載《中國圖書評論》2012年第7期,第42-47頁。以算法為中心的可信人工智能應用為以規范為中心的合法性規制路徑提供了一些有益啟示。我們必須意識到,規范規制的路徑在算法的隱藏層中很難走通,傳統規制的整體效能也會在算法面前大打折扣。因此,規范因其自身組構方式——語言文字的特殊性,而不得不在自身限度的邊界上止步,它的更進一步只能是轉化符碼形式,切換到數字模式下,以此進入算法的內部,以算法規制算法的思路與技術協同配合、實現對復雜算法的內在治理。這對法學而言,是極其艱難的一步,這意味著我們需要擺脫規范的傳統管轄區域,跳出概念涵攝的射程,以學界所不熟悉的、新的認知框架與算法展開博弈。這是理論法學面對一種不斷進化的人工智能技術的理論迭代。這條路雖然艱巨,但也是通往可信人工智能治理的必由之路。唯有理解算法分層規制的法理意義及結構邏輯,實現從合法到可信的規制轉型,人類智能在面對人工智能時,才能繼續保持既有優勢,法治也才仍然是法治,而非淪為算法之治。