本照清
(鄭州大學 法學院,河南 鄭州 450001)
2022年我國數字經濟規模達到50.2萬億元,作為數字經濟的核心技術,算法對人類的生存、生產和生活方式產生了全方位的深遠影響。飛速發展的算法技術在便利生活的同時也帶來新的社會問題,如算法黑箱、信息繭房等。為解決算法引發的新型規制難題,國內外學者圍繞算法治理積極開展研究,提出新型權利算法解釋權來規制算法自動化決策的。盡管算法解釋權存在爭論,但算法解釋權在破解算法黑箱,抑制算法權利上有著重要意義。通過深入剖析算法解釋權的適用邏輯和適用機制,平衡效率與公平,讓算法解釋權在算法治理中發揮其應有的功能。
隨著第四次科技革命的開啟,受益于機器學習和大數據技術等數字技術的飛速進步,算法已經深入社會各個領域,如自動化交易系統、醫療診斷工具、個性化預測分析等。算法從輔助決策逐步發展為主導決策。與人工決策相比,算法決策的穩定性、準確性、效率性十分突出,其“絕對客觀”,即便是以專業、客觀、公平為內核的司法決策也難以企及。然而隨著自動化決策算法的廣泛應用,其弊端逐步顯露,算法歧視、大數據殺熟等現象對其標榜的客觀性和公正性造成沖擊。
自動化決策算法是以數據作為驅動的,它需要依靠龐大的數據集來學習數據模型并根據數據做出預測。無監督的機器學習算法廣泛應用于用戶細分、推薦服務等場景。機器學習的獨特之處在于它使用任意的黑盒函數來作出決策。這些黑盒函數可能極其復雜,并且具有由數百萬個相互依賴的值組成的內部狀態。關鍵的是,操作人員不需要理解算法產生的決策規則的基本原理[1]。在算法的輸入端和輸出端中間,存在外界既無法觀測又無法理解的隱層,也就是算法黑箱。算法會存在錯誤代碼,這些錯誤代碼或是技術原因導致,或是科學原因導致,或是法律原因導致。算法無法被觀測、理解,算法決策無法被追蹤,算法決策合法與否無法被確定,就會導致新的安全風險和責任空白。算法黑箱造成的不透明性成為自動化決策算法治理面臨的關鍵性挑戰之一。
如果算法成為企業經營的核心技術,會具有嚴格的保密性,可能會限制對其內部的訪問。以定價算法的使用為例,企業運用自動化決策算法,在對“高價值”消費群體進行高定價的同時對價格敏感消費群體保持低定價,以實現企業整體利潤的提升。對經營者來說,實行定價算法的成本極低,但是帶來的收益卻極高,定價算法就會成為企業攫取利潤的強力工具。雖然算法提高了企業的整體利潤,但是消費者的合法權益受到了危害,而且這也對分配公平造成隱患。不僅如此,算法所具有的隱蔽性為經營者提供壟斷合謀提供了便利,經營者甚至不需要公開商討壟斷協議,只需要使用算法進行價格共謀就可以實現限制競爭的目的。算法的不透明性成為經營者攫取巨額壟斷利潤的一堵保護墻,人為增強算法的不透明性,固化算法黑箱。
算法歧視下的差別待遇。行為畫像是從廣告業發展而來,一開始它只是為了精準定位潛在客戶,然而隨著機器學習算法的進步,這種對人類行為相關數據分析并進行定制化的算法開始滲透進社會生活的方方面面。互聯網消費中定價算法造成的“大數據殺熟”現象逐漸為人們所關注。2021年北京消費者協會進行了互聯網消費“大數據殺熟”問題調查,在對16個平臺進行的32個模擬消費體驗樣本中,有14個樣本新老賬戶的價格不一致[2]。經營者收集消費者的特征信息數據,并借助自動化決策算法分析每個消費者的消費習慣。當算法認定該用戶“高價值”后,算法控制者把更高價格的商品或服務推薦給用戶,用戶在不知情的狀態下被動承擔額外成本。相比傳統商業實踐中的價格歧視現象,算法決策分析技術極大地加強了價格歧視的隱蔽性。以電子商務領域為例:首先每位用戶在購買商品或服務時處于相對獨立的狀態,用戶間的溝通受限,算法導致的價格差別難以被發現;其次算法價格歧視是面對整個平臺的所有用戶,任何用戶只要滿足算法要求的行為參數,就會自動觸發系統運行實現精準定價。而絕大多數的普通用戶難以感知到算法的運行邏輯,并對產品的價格構成和浮動狀況也不了解,只能被動地支付更高的價格。
算法推薦加劇社會極化。《網絡共和國》開篇就提到“個人日報”現象,其本質就是一種信息選擇行為。自動化決策算法應用到信息推送服務領域后,這種信息選擇無時無刻不在發生。在互聯網上,用戶甚至不需要主動去搜索,網絡平臺僅僅根據用戶過往的習慣就可以推測出用戶的興趣點,然后增加對這些內容的推送力度,以達到增強客戶黏性的目的。這種長時間的主動和被動的信息選擇,為用戶構建出了一個信息繭房[3]。以網絡社交平臺中的兩性問題為例,網絡上流傳一則視頻,內容是一名男性發現,在一則男女吵架的抖音視頻評論區,其妻子和其本人所看到的評論內容截然相反。該視頻清楚明白地展現了當下的信息繭房。自動化決策算法根據用戶既往數據推測出用戶可能會希望看到的信息,用戶可能會支持的立場,或者可以激發用戶討論興趣的熱點話題,再通過算法個性化推薦給用戶,以此達到取悅用戶、增加用戶使用時間的目的。然而長期的信息繭房使得偏見成為“真理”,人們的思想愈發極端,對營造良好的網絡空間氛圍形成障礙,甚至會影響到現實生活空間的社會安定。
為應對算法時代人類面對的諸多社會新型風險,學者開始積極研究算法治理問題,主要集中在三方面:第一,以數據安全角度切入,通過保證數據安全降低算法依賴的方式進行算法治理;第二,從算法倫理角度進行算法治理;第三,從技術角度,打開黑箱的外殼,實現有意義的算法透明度。為解決算法黑箱效應帶來的難題,“算法透明”成為提高算法的可問責性的重要工具[4]。但是透明概念存在局限性,其可能會導致系統進行策略博弈[5]。為彌補這種局限性,有學者提出向受到算法決策重大影響的人們提供解釋說明,以降低算法黑箱的負面效應,也就是算法解釋權的起源。從學理上的“權利”到法定權利,算法解釋權的落地歷經爭論。支持者和反對者都提出了有力的論證。雙方爭議的焦點主要在于算法是否具有可解釋性和算法解釋權與商業秘密保護的沖突。
算法可以被解釋是算法解釋權成立的前提條件。算法的可解釋性,是算法治理理論中的一個技術概念。反對者認為能夠被解釋的只有簡單初級的算法,而復雜的機器學習算法,尤其是深度學習算法,其模型輸出結果產生的原因是很難被解釋的[6]。自動化決策算法是在進化計算、模糊邏輯、神經網絡發展成熟的基礎之上,融合發展而來的方法,經歷市場的迭代和技術人員的不斷優化后,包含著復雜多層的網絡結構[7],即使是算法的開發者也很難清楚地解釋。因此反對者堅持認為:因為技術門檻,即使公開算法,也并非所有人都能理解。相反,持肯定態度的學者則認為絕大多數算法具有可解釋性[8]。算法鴻溝的存在值得重視,但是如果僅用專業性過高作為無法解釋的理由,難免有些牽強。
萊斯格曾做出“代碼即法律”的夸張表達,甚至有學者認為算法會對法律進行一定程度上的替代。雖然算法和法律屬于不同范疇,但二者存在相似之處。對法律進行解釋是法學理論研究的重要內容。算法解釋也存在演變成一門專業技術的可能。目前計算機領域已經有規則提取技術的研究了[9]。如以實例、可視化的圖標,簡單明了的語言向一般人講解,或者通過改變輸入數據,展示對輸出結果的影響程度讓大眾理解輸入數據和輸出結果間的關聯關系。張志銘教授曾指出,法律解釋就是對法律文本意思的理解和說明,其中“理解”是解釋者對法律文本意思的內心把握,“說明”是對理解的外在展示,是對法律解釋的結果要用某種恰當的方式、正當的方式表現出來[10]。對算法規則進行解釋,實際上也是對算法決策過程理解和說明。
算法規則的背后是商業利益。算法解釋權要求算法使用者對算法的決策邏輯進行可理解的解釋說明,這種要求是否會侵犯到企業的商業秘密,是爭議的焦點之一。
否定者認為,算法解釋權的行使會侵犯使用者的商業秘密[7]。算法解釋權的行使必然會導致商業秘密的泄露,這將影響企業的核心競爭力。甚至有學者主張全然廢除算法解釋制度。算法解釋權的立法目的在于保證一定程度上的算法透明度,這與有嚴格保密需求的商業秘密保護制度存在天然的價值沖突。在這樣的沖突面前,非此即彼的取舍是不理性的,法官的自由裁量和利益衡量或許能夠提供一些幫助,但是核心在于法律能否通過對算法解釋規則的解釋與修正實現沖突的消解。
贊成者則主張,通過對算法解釋權的適用范圍及啟動條件的界定,可以使得算法解釋與商業秘密間的沖突得到協調。算法解釋權并不要求算法使用者公布算法的源代碼,僅僅是追求合理的透明度,因此可以通過控制算法解釋權的適用范圍等手段來規避算法解釋權對商業秘密造成侵害的可能。例如在“陳某訴杭州某軟件服務公司網絡服務合同糾紛案”[9]中,雖然軟件服務公司算法過濾系統已經被法院認定是商業秘密,但法院仍然采用中立專家小組對其審核,并對平臺提出解釋要求:就算法過濾系統的一般性原理及具體操作,給原告做出合理的解釋。算法確實可能成為商業秘密的保護對象,但商業秘密也會受到法律的限制。
在上述焦點爭議的不斷探討中,算法解釋權在學理上的可行性得以顯現。探索規制算法亂象的路徑有許多,基于算法本身的復雜性、多樣性以及算法應用的廣泛性,設置算法解釋權是制約算法權力的破局之法,也是我國法律面對此種問題的積極應對。
在數字社會中,算法成為法律,代碼成為規則,代碼為人的行為提供指引并設定限制[11]。然而算法借助技術中立的掩蓋,從技術規則異化為社會權力,在既存的法律規制體系中逃逸。算法權力就是某個主體以算法為工具,對他人或社會實施的影響力和控制力[12]。刑不可知,則威不可測。算法權力借助算法黑箱特性悄然發展,決策者和被決策者之間存在著巨大的信息差異,雙方地位嚴重失衡。算法權力依靠強大的數據資源和自身技術優勢,間接指引或直接代替人做出決策,以達到對社會進行控制的目的。它的出現,某種程度上打破了原有的個人權利與國家權力二元結構基礎上的理論范式。
因此,算法解釋權的設立不僅僅是對自動化決策算法這一技術的規制,同時也是對算法權力的規制。首先,它作為算法基礎權利,以權利制約權力的方式對算法權力進行規制;其次,它以分配給算法主體責任的制度性安排進行算法規制;最后,它要求算法具有可解釋性,是從算法設計源頭對算法進行規制[13]。
我國法律在自動化決策算法的治理中不斷探索。《電子商務法》以“尊重和平等保護消費者合法權益”作為個性化推薦算法的底線。國家標準《信息安全技術個人信息安全規范》以要求“個人信息控制者應向個人信息主體提供針對自動決策結果的投訴渠道,并支持對自動決策結果人工復核”來保證個人權益。《數據安全管理辦法》(征求意見稿)要求互聯網平臺運營者建立算法策略披露制度,同時也明確了互聯網平臺經營者在使用定價算法和個性化推薦算法時需要遵守的法律規定。
我國2021年11月1日生效的《中華人民共和國個人信息保護法》(簡稱為《個保法》)第24條是關于利用個人信息自動化決策的規制的規定,該條第1款確定了自動化決策應當遵循透明公平公正的原則;第2款要求個人信息處理者“應當提供不針對其個人特征的選項,或者向個人提供便捷的拒絕方式”,賦予個人在自動化決策下的個性化營銷的選擇權;第3款闡明了如果自動化決策做出對個人權益有重大影響的決定,個人可以要求個人信息處理者對自動化決策作出說明,可以拒絕個人信息處理者僅通過自動化決策的方式做出決定,明確了個人權利。
《個保法》第24條第3款從實質上規定個人的算法解釋權,對打破“算法黑箱”實現算法透明具有明顯的積極意義。但是權利雖然得到明確,但是權利的構成要件仍較為模糊,這可能會引發法律適用的障礙。《互聯網信息服務算法推薦管理規定》(征求意見稿)對算法解釋權進行細化。但是最終版本相對于征求意見稿有較大幅度的修改。這也表明了算法解釋權規范設計的復雜性以及落地的困難。故而對算法解釋權的適用機制進行充分討論十分必要。
目前各國雖已引入了對自動化決策規制的相關條款,但相關的法律規定較為概括抽象,存在解讀的空間。為使算法解釋權能夠更加順暢運行,需要明確規范算法解釋權的適用范圍和啟動條件。在此將主要依據《通用數據保護條例》(General Data Protection Regulation,GDPR)和《個保法》為基礎對算法解釋權進行分析闡述(如表1所示)。

表1 GDPR與《個保法》關于算法解釋權的條文梳理
在分析算法解釋權的適用機制前,首先需要明確算法解釋權是請求權。
GDPR在一開始就強調“本條例旨在保護自然人的基本權利和自由”,明確“個人數據:是指與已識別或可識別的自然人相關的任何數據”;《個保法》第2條也強調保護對象是自然人的個人信息權益。雖然法人在法律上被擬制,但從數據主體的角度來看,二者在權利保護制度上有所區別。結合現行的法律法規,可以得出權利主體是自然人,不包括法人。權利主體不僅是自然人,還是自動化決策算法應用的相對人。算法解釋權和算法公開不同,其對算法黑箱的探索符合“掀開最小縫隙”理論[14]。算法只對受它不利影響的人打開大門,因此算法解釋權的權利主體須是算法應用的相對人。權利主體還是通過自動化決策方式個人權益受到重大影響的自然人,我國《個保法》第24條明確“通過自動化決策方式個人權益受到重大影響”是算法解釋權的前置條件,而且只要求決定是由自動決策方式做出,并未要求排除不存在人工干預,這與GDPR第22條要求的決策必須“僅”由算法做出不同。首先關于自動化決策的含義,《個保法》第73條第2款中給出了明確規定。GDPR中也有規定:“自動化決策是指,包括識別分析在內的,在沒有人為直接參與的情況下自動作出決策的模型。”其次關于重大影響的具體標準,《個保法》并沒有給出詳細的解釋。GDPR第22條中有與此類似的描述“legal effects concerning him or her or similarly significantly affects him or her”。在理解此處時,可以參考歐盟第29條工作組發布的《關于自動化個人決策目的和識別分析目的準則》(下文簡稱為《準則》),《準則》點明法律影響是法律權利受到影響,如法律地位或者是合同下的權利受到影響;并且列舉了自動化決策算法在信貸和廣告領域應用的例子闡明何為近似重大的影響,最后提到這種近似重大的影響既可能是積極的,也可能是消極的。
《個保法》第24條規定,有解釋義務的是“通過自動化決策方式作出對個人權益有重大影響的決定”的個人信息處理者;GDPR第2條點明其調整對象是個人信息處理行為,第22條明確算法解釋權僅適用于通過自動方式處理數據的情形。因此算法解釋權的義務主體是通過自動化決策方式處理個人數據的個人信息處理者。義務主體既包括法人,也包括自然人。結合社會實踐分析,自然人實際參與算法自動化決策多是職務行為,個人很難單獨通過算法進行自動化決策,因此自然人很難成為義務主體。但是這并不意味著將自然人從算法解釋權的義務主體中剔除,自然人仍然存在成為算法解釋權義務主體的可能。誠如前文所述,自動化決策算法的商業化應用十分廣泛,已經形成相對完善的產業鏈,在這條產業鏈上,存在單純的數據擁有者,算法開發設計者和算法使用者等身份,這些身份或相互獨立,或相互重合。雖然《個保法》第4條第2款規定“個人信息的處理包括個人信息的收集、存儲……”,但單純的收集和儲存行為很難滿足“通過自動化決策方式作出對個人權益有重大影響的決定”這一條件,因此單純的數據擁有者不能成為算法解釋權的義務主體。當算法決策的使用者與算法的開發者身份相重合時,自動化決策算法的使用者身份便是普通數據控制者、處理者和算法開發者的限縮。但是存在算法決策的使用者與自動化決策算法的開發者身份相互獨立的情況,若自動化決策算法的直接使用者沒有能力對算法進行解釋,此時算法的開發設計者就應當與算法決策的使用者共同承擔算法解釋義務,以保證算法解釋權條款的正常運行。
《個保法》第24條僅僅給出了“個人有權要求個人信息處理者予以說明”的要求,對需要說明的具體內容并沒有明確規定,此處便存在對解釋內容明確的必要性。自動化決策算法本身是計算機指令系統的形式存在的,對于絕大多數非專業的權利主體來說,算法的數學模型和技術知識是難以理解的也是不需要理解的,權利主體真正需要了解的是“決策”。因此算法解釋權要求解釋的內容不是算法本身,而是做出決策的邏輯,也就是算法運行的邏輯路徑。從《個保法》第24條第3款的法律文本可見,個人信息處理者要說明的是“決定”。結合《個保法》第24條第1款的規定可知,立法者強調的是決策的透明度而不是算法本身的透明度。因此義務主體應找到合適的方式將算法運行的邏輯或決策邏輯告訴權利主體,而無需總是嘗試解釋其使用的復雜算法或者披露出全部算法。
算法解釋權要求義務主體解釋的內容是運用算法作出的決定,但是理解算法決策過程需要解釋算法的技術幫助。首先,算法決策所適用的數據集、輸入和輸出的特征參數和個案預測的結果等方面可以描述決策算法相對靜止的狀態;其次決策算法開發過程中有算法模型的關鍵信息,如模型開發的初始需求和任務、數據標簽的體系和模型優化記錄等;最后面對不同的解釋對象,需要準備不同的解釋工具。采用自然語言、可視化圖標、規則型解釋器、示例等工具對決策過程進行解釋,有助于缺乏技術背景的用戶理解算法決策邏輯。而對于有一定技術基礎,具備一定專業知識的用戶來說,給出模型的算法公式、深度學習的優化方法和注意力機制、模型判斷的依據權重等可能更有效果。除去在解釋技術上的優化,也可參考《個保法》第17條第1款第2項、第23條的規定要求處理者告知“個人信息的處理目的、處理方式,處理的個人信息種類、保存期限”,第56條的“個人信息的處理目的、處理方式等是否合法、正當、必要”規定,算法解釋權的解釋也可以決策目的、決策邏輯、決策后果為詳細內容。
對于算法解釋權適用的時間要求,《個保法》和GDPR都沒有給出明確詳實的規定。因為在不同的解釋時間,解釋的內容標準存在差異,解釋的目的也存在差別,所以算法解釋權的適用時間需要明確。以自動化決策的發生時間為界限,可將算法解釋分為事前解釋和事后解釋兩種情況。
《個保法》第17條第1款第2項“在處理個人信息前”的規定,第55條“事前”的規定,《算法推薦管理規定》的第16條規定,GDPR第13條“at the time when personal data are obtained”,第13、14、15條中的“the envisaged consequence”,第35條的“prior to”的規定,均可以被解讀為,個人信息處理者在準備通過自動化決策方式處理個人數據時,要對可能受到算法決策效果影響的相對人進行事前解釋,以保障自動化決策算法運行的透明度。事前解釋發生在自動化決策算法開始運行前,所以此時所做出的說明僅僅是系統性的說明。此時需要解釋的內容包括“自動化決策系統的邏輯、意義、預期后果和一般功能”[15]。
《個保法》第24條的規定更偏重決策結果的公平公正,并且根據法律條文的具體文義可以分析出“個人有權要求說明”是發生在“作出對個人權益有重大影響的決定”之后的;GDPR序言第71段中的“the decision reached after such assesment”和GDPR第22條關于拒絕自動化處理的權利規定,均可以被解讀為,個人信息處理者在通過自動化決策方式處理個人數據后,要對遭受算法決策的不利影響的相對人進行事后解釋,以保障自動化決策算法運行的結果公正。另外在《準則》對GDPR第22條的解釋中明確提到,個體擁有“對決定提出質疑的權利”。《準則》雖沒有法律效力,但在一定程度上代表歐盟對于GDPR的官方立場[16]。事后解釋的起點在于自動化決策算法做出了對個人權益有重大影響的決定,因此事后決策聚焦在對“具體決策”進行解釋,這種情況下解釋的內容包括算法模型的基本原理和個體情況,如在制定出決策時所考慮的主要特征、依據的信息的來源和相關性等。
作為自動化決策算法發展應用的伴生產物,黑箱效應引發的法律風險始終被重點關注。算法解釋權作為一種算法新型權利,肩負著增強算法透明度和算法可理解性的重擔。算法解釋權從學理創設到步入法律文本,其內涵也越發清晰。算法解釋權在提高算法透明度和增強算法可責性上可大有作為。《個保法》中第24條和48條已經對算法解釋權的啟動條件和權利主體做出了初步的制度畫像,但算法解釋權的解釋內容、解釋時間依舊模糊。對算法解釋權的主體、內容和時間標準進行探討,對算法解釋權的適用具有重要價值。