——基于商業秘密保護的視角"/>
999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

算法透明的法律實現與限定
——基于商業秘密保護的視角

2024-01-12 04:20:14楊瑩瑩
電子知識產權 2023年11期

文 / 楊瑩瑩

一、問題的提出

伴隨大數據和人工智能技術的發展,以大數據為基礎的算法跨越網絡和物理空間、跨越公共和私人領域,給社會治理和個人生活帶來深刻而復雜的影響。算法在廣泛運用于諸多場景的同時,其兩面性也逐漸凸顯:在積極層面,算法因其理性、客觀性、精準性優勢為商業領域和公共領域帶來了效率。在消極層面,算法因其不透明性、價值非中立性特征使得個人自治價值不斷被消解、社會原有秩序價值逐漸偏移和異化。在算法自動化決策背景下,普通個人處于無從知曉、無力掌握的失控局面,自由和尊嚴無法得到保障。如基于個體偏好預測并迎合的個性化推送使得個體不知不覺中被困于“信息繭房”,單一偏狹的信息攝入阻礙了個體自由的實現;基于效益最大化導向的算法目標設定與康德所言的“人是目的,不是手段”相背離,使得人性尊嚴的價值內核也逐漸偏離。此外,算法決策以更為隱蔽的方式給社會秩序價值帶來了負面效應。其中,以“算法歧視”問題尤為突出。反壟斷語境下,算法歧視(如價格歧視)可能造成排除、限制競爭的損害后果,擾亂市場競爭秩序,攫取更多的消費者剩余;平等權語境下,算法歧視屢屢在就業1. See Allan G.King&Marko J.Mrkonich, Big Data and the Risk of Employment Discrimination, Oklahoma Law Review,Vol.68:555, pp.555-584(2016).、金融信貸2. See Danielle Keats Citron&Frank Pasquale, The Scored Society:Due Process for Automated Predictions, Washington Law Review, Vol.89:1, pp.1-33 (2014).等領域中恣意表達性別、身份偏好,在ChatGPT 等生成式人工智能領域中甚至可能會被進一步延續或放大3. David Mhlanga, Open AI in Education, the Responsible and Ethical Use of ChatGPT Towards Lifelong Learning,at https://ssrn.com/abstract=4354422(Last visited on May 21, 2023).。面對深深嵌入生活各個方面的算法自動化決策,社會公眾在失去控制權、選擇權的狀態下,對于技術失范威脅社會公平正義的憂慮也集中指向了算法自動化決策的“不透明”和“缺乏監督”。

既有的算法規制理論體系包含了算法的風險、工具和目標三大部分。4. 周翔:《算法可解釋性:一個技術概念的規范研究價值》,載《比較法研究》2023年第3 期,第188 頁。如前所述,算法自動化決策可能帶來的一系列風險備受關注,對風險進行防范成為算法規制理論建構的共識。對此,不少國家和地區從算法規制目標層面提出了算法透明的要求。在國際層面,以美國和歐盟為代表的國家和地區紛紛探尋算法治理之道,并作出了有益嘗試。5. 例如,2018年5月,歐盟《通用數據保護條例》正式生效,第5 條引入了關于個人數據處理應遵循合法、公正和透明性等一般原則,第12 條至第22 條賦予了數據主體新型權利、更為嚴格地規定了數據控制者和處理者的責任,并針對算法自動決策設置了相關條款。又如,2021年5月,美國《算法公正與在線平臺透明度法案》從用戶、監管部門和公眾三個維度提出算法透明的要求;2022年2月,美國民主黨參議員提出《2022年算法責任法案》,該法案提出了酌情報告或披露算法等信息的一系列要求,是美國關于算法治理專門立法的一次重要探索。在國內層面,我國2021年11月施行的《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)回應社會關切,就個人信息處理公開、透明作出了原則性規定。2022年3月施行的《互聯網信息服務算法推薦管理規定》(以下簡稱《算法推薦管理規定》)鼓勵優化算法規則的透明度和可解釋性。上述法律法規的出臺表明了我國規制算法、堅持算法透明的立法態度。盡管算法“應當透明”的問題已在立法中得到體現,但連接“風險”和“目標”的算法透明“工具”,如算法披露和公開、個體賦權等,與商業秘密保護之間的沖突十分引人注目。倘若算法或其部分信息受到商業秘密的保護,這將使得實現算法透明與保護商業秘密二者之間的取舍成為難題。我國現有關于算法透明的規范缺乏系統性構造,與商業秘密保護制度的銜接缺乏協調性,這在一定程度上阻礙了算法透明目標的有效實現。算法透明與商業秘密保護之間的協調,實質上是考量如何在鼓勵投資、鼓勵創新的背景下,以尊重知識產權、保護私權為前提,引導算法自動化決策透明,同時對行權進行一定限制的利益平衡問題。為了適應對數字經濟常態化監管的要求,需要對算法透明工具的整體框架及其限度作出正面回應,就商業秘密保護限制制度進行完善,在現行法基礎之上助力算法透明的實現與商業秘密的保護,促進算法生態規范發展。

二、現行法視野下算法透明的展開

算法時代,社會逐漸形成了“資源由算法支配,而算法技術的運用實際上賦予了算法主體權力屬性”的結構形態,導致普通個人在算法社會中處于最弱的一角,6. 參見張愛軍:《算法政治“三角”關系的構建:穩定性邏輯與可能性建構——以抖音算法為例》,載《天津行政學院學報》2023年第2 期,第45-46 頁。在傳統治理框架下難以尋求救濟。而算法透明是法律回應算法妨害的各種路徑中最直接、有效和恰當的方式。7. 汪慶華:《算法透明的多重維度和算法問責》,載《比較法研究》2020年第6 期,第165 頁。算法透明不僅具有輔助算法問責和改進算法設計的工具價值,更具有增進算法社會交往、理性與信任,監督算法權力的內生價值,8. 參見安晉城:《算法透明層次論》,載《法學研究》2023年第2 期,第53-57 頁。逐漸成為各國和地區算法規制的重要目標。為達至算法透明這一目標,需要一個能使受算法決策影響的個人和社會公眾充分了解、理解算法信息的途徑,即應披露算法信息。然而,在實務中算法往往被當作商業秘密進行保護,這也致使涉及代碼、公式、參數權重層面的算法披露均難以繞開商業秘密的保護區。9. 參見林洹民:《個人對抗商業自動決策算法的私權設計》,《清華法學》2020年第4 期,第130-132 頁。如何妥善處理算法透明與商業秘密保護之間的緊張關系成為當下不容忽視的問題。

(一)算法透明目標的現實需求

近年來,從歐盟《通用數據保護條例》《算法問責及透明度監管框架》、美國聯邦政府層面的《過濾泡沫透明度法案》《算法公正與在線平臺透明度法案》《2022年算法責任法案》、英國《算法透明度標準》等,到我國《個人信息保護法》《關于加強互聯網信息服務算法綜合治理的指導意見》《算法推薦管理規定》等法律文件中,“算法透明”成為了各國和地區規制算法的重要目標,這既反映了國際算法治理立法趨勢,也體現了算法透明化的現實需求。

1.算法透明是“算法生態”規范發展的重要前提

將算法透明作為算法治理的目標,其直接原因是算法的復雜性和不可知性為掩蓋算法妨害提供了天然保護屏障,而算法透明旨在為審查或檢驗是否存在算法妨害提供助力。當算法設計者或使用者刻意為算法披上“不可知”的外衣,因果關系的隱藏或復雜化隔絕了社會公眾的感知,極易導致算法相對人合法權益受損以及作為法治基石的問責機制失靈。10. 參見衣俊霖:《數字孿生時代的法律與問責——通過技術標準透視算法黑箱》,載《東方法學》2021年第4 期,第82 頁。正如阿里爾·扎拉奇和莫里斯·斯圖克所言,普通個人在面臨算法自動化決策時就好比“楚門的世界”中一樣,處于被人為操控并精心設計好的舞臺中卻不自知,而最大的受益者是親手打造并編制這個虛擬世界的制作人。11. 參見【英】阿里爾·扎拉奇、【美】莫里斯·E·斯圖克:《算法的陷阱:超級平臺、算法壟斷與場景欺騙》,余瀟譯,中信出版集團 2018年版,第40 頁。提高算法透明度能夠讓社會公眾或算法監管機構了解算法是如何工作的,是否存在算法妨害風險,進而保護算法相對人的合法權益和社會公共利益。例如,當算法的不當利用帶來了對消費者、市場競爭秩序的潛在損害,算法透明有助于識別算法歧視、算法共謀,為執法機關在反壟斷案件中獲得證據。因此,為規范算法權力的正當行使,算法透明成為重要前提。

2.算法透明是“信任生態”系統構筑的核心樞紐

信任是社會交往和理性發展中不可或缺的基石,算法透明度的缺乏會削弱個體對算法技術、數字市場的信任。算法透明與算法信任是正向關系,尤其對于社會個體而言,實現算法透明是維系算法信任的核心樞紐。以大數據為基礎的算法自動化決策并非一個全然與價值無涉的中立過程,而是蘊含著特定的價值判斷。數據、算法設計和結果均有可能對算法自動決策結果產生錯誤或歪曲的影響。12. SeeSolon Barocas & Andrew D Selbst, 'Big Data's Disparate Impact, California Law Review, Vol.104:671, p.680(2016);James Grimmelmann & Daniel Westreich, Incomprehensible Discrimination, California Law Review Online, Vol.7:164, pp.164-177(2017).“算法歧視”“算法合謀”“信息繭房”等問題層出不窮,在引發人們對算法黑箱問題擔憂的同時,也逐漸使人們產生了“算法厭惡”(algorithm aversion),這會導致人們在信任受損后主觀上更加抗拒算法自動化決策,最終不利于算法經濟的長期發展。因此,提升算法透明度使受算法影響的個人有機會知曉個人數據自動處理的邏輯,有助于提升其對算法自動決策的掌控感,彌合算法主體與普通個體之間的“數字鴻溝”,進而維系算法信任、間接預防算法設計目標偏離。

3.算法透明是既有路徑的有益補充

面對算法妨害,不論是個人還是社會整體,在現有法律框架下均難以尋求救濟。

從受算法影響的個體來看,既有民商法制度框架下的合同效力制度不能對實體不公平本身提供救濟;違約請求權無力回應自動化決策相對人知曉具體算法決策理由的訴求,即便是不利的自動化決策,在受到侵權責任的過錯、因果關系等構成要件的多重限制的情況下,也難以滿足侵權責任之構成要件;13. 張凌寒:《商業自動化決策的算法解釋權研究》,載《法律科學(西北政法大學學報)》2018年第3 期,第 66-68 頁。在消費者權益保護制度下,我國《消費者權益保護法》并未明確將“算法歧視”納入規制范圍,消費者可依據的僅有該法第8 條“知情權”、第9 條“自由選擇權”以及第10 條“公平交易權”。然而,基于算法的法律定位仍為企業的工具而非商品,消費者知情權無法提供真正的算法解釋。14. 張凌寒:《商業自動化決策的算法解釋權研究》,載《法律科學(西北政法大學學報)》2018年第3 期,第 66-68 頁。此外,由于算法社會算法主體與消費者信息占有不對稱,加之頭部互聯網企業對消費者的鎖定效應,消費者的自由選擇權在客觀上表現為一種轉向困難下的主觀不能。

從受算法影響的社會整體來看,盡管我國《反壟斷法》第9 條明確規定經營者不得利用數據和算法、技術、資本優勢以及平臺規則等從事本法禁止的壟斷行為,但適用反壟斷法規制個性化定價算法的濫用需要證明具有市場支配地位的經營者利用數據和算法向不同消費者收取了歧視性的價格,同時該行為對于市場還存在反競爭的損害效果。15. 參見周圍:《人工智能時代個性化定價算法的反壟斷法規制》,載《武漢大學學報(哲學社會科學版)》2021年第1期,第118 頁。而個性化定價在競爭損害上又具有復雜性和模糊性,無論是執法部門,抑或是受到歧視性對待的最終消費者,在實際案件中都將承擔較高的舉證難度。

簡言之,由于算法決策負面效應的核心根源離不開“算法黑箱”問題,而現有法律框架在應對算法妨害時具有局限性。因此,面對算法黑箱滋生出的算法權力,亟需算法透明緩解信息不對稱、規范算法應用實施,促進個人自治、社會公平正義價值的實現。

(二)算法透明工具的核心構造

如何設計算法透明工具以化解算法自動化決策風險、實現算法透明的目標,是既有算法規制理論中爭議最大也是最困難的部分。對此,學界已有部分研究成果,并就算法透明工具作了初步梳理。16. 如有學者提出算法透明是算法事前規制的代表,指的是“要求算法主體(設計者或使用者)打開算法黑箱,將與算法運作原理、算法決策過程有關的信息或公之于眾,或報送主管部門?!眳⒁娎畎玻骸端惴ㄍ该髋c商業秘密的沖突及協調》,載《電子知識產權》2021年第4 期,第26 頁;有學者進一步概括了算法透明包含的內容,“算法透明具體包含著從告知義務、向主管部門報備參數、向社會公開參數、存檔數據和公開源代碼等不同形式,算法解釋權也可以看成是算法透明原則的具體化體現?!眳⒁娡魬c華:《算法透明的多重維度和算法問責》,載《比較法研究》2020年第6 期,第166 頁。既有關于算法透明工具的研究雖各有側重,但總體而言可以歸納為以下兩類:一是限權型工具,主要從算法權力范圍、正當程序、問責機制等方面進行制度設計,以制約算法權力、防止算法權力異化。例如,限制算法的應用條件與范圍、建立算法標準化、實行算法參數備案、進行算法影響評估、開展算法合規審計等。二是賦權型工具,即從私法的角度賦予用戶一定的民事權利以實現與算法主體之間的平衡,主要包括賦予數據主體算法解釋權(也有學者從義務角度出發,指出我國現行法實際規定了相關主體的算法解釋義務17. 參見呂炳斌:《論個人信息處理者的算法說明義務》,載《現代法學》2021年第4 期,第90-92 頁。)、知情權以及理解權等。在實現算法透明的工具設計中,不論是限權型工具還是賦權型工具,都將可能涉及一定算法信息的公開披露。尤其是其中被視為算法治理制度核心的“算法解釋權”,18. 參見張欣:《算法解釋權與算法治理路徑研究》,載《中外法學》2019年第6 期,第1426 頁。與商業秘密之間的矛盾最為尖銳。以下將主要圍繞算法解釋權的基本構造展開。

學界有關算法解釋權的研究幾乎都以歐盟《通用數據保護條例》(GDPR)為基礎樣本,其中第22 條以及背景序言第71 條更是被多數學者視為“算法解釋權”的經典條款。在某種程度上,GDPR 首次為個人引入了解釋權,以便在面對算法自動化決策時獲得“對相關邏輯的有意義的解釋”。19. See Riccardo Guidotti, et al., A Survey of Methods for Explaining Black Box Models, ACM Computing Surveys (CSUR),Vol. 51:1, p.2(2018).雖然GDPR 并未明確提出“算法解釋權”概念,但有學者結合第22 條和序言第71 條,將算法解釋權總結為“當自動化決策的具體決定對相對人有法律上或者經濟上的顯著影響時,相對人向算法使用人提出異議,要求提供具體決策解釋,并要求更新數據或更正錯誤的權利。”20. 張凌寒:《商業自動化決策的算法解釋權研究》,載《法律科學(西北政法大學學報)》2018年第3 期,第68 頁。與之相似的是,我國《個人信息保護法》第24 條同樣采用了賦予數據主體權利對抗算法自動化決策的立法范式。針對個人信息處理者利用個人信息進行自動化決策的情形,《個人信息保護法》第24 條強調決策的透明度和結果公平、公正,并且規定了“對個人權益有重大影響”下的解釋說明義務。實際上,這也是對《民法典》第1035 條要求個人信息處理者必須滿足“公開處理信息的規則”和“明示處理信息的目的、方式和范圍”這兩項前提條件的重申。此外,《算法推薦管理規定》針對信息服務提供者推薦算法的使用場景,為算法推薦服務提供者設置了算法解釋義務,該規定第15 條第3 款設置了用戶的算法解釋請求權及其他相關請求權,其中的“說明”可以被理解為算法解釋。21. 蘇宇:《優化算法可解釋性及透明度義務之詮釋與展開》,載《法律科學(西北政法大學學報)》2022年第1 期,第140 頁。在算法推薦場景下,此處為算法推薦服務提供者設置解釋義務還包含了對“運行機制”的解釋,已然超越了一般告知義務,即僅就“處理目的、方式和范圍”進行告知的要求,體現了在算法應用場景下更高的解釋義務要求??傮w而言,鑒于我國個人信息處理者和算法使用者往往與平臺企業高度重合的實際情形,我國將算法透明目標內嵌于平臺治理框架之中,通過在平臺應用場景中為個人信息處理者、算法使用者設置解釋說明的義務以保護用戶知情權、實現算法自動化決策的透明化,形成了圍繞個人信息保護對算法自動化決策進行規制的法律框架。

結合現行法和既有研究,算法解釋權主要有以下幾方面特征:其一,就算法解釋權的性質來看,應當屬于請求權的范疇。22. 解正山:《算法決策規制——以“算法解釋權”為中心》,載《現代法學》2020年第1 期,第180-181 頁。實質上,算法解釋權可以理解為一種工具性權利,同時也具有目的性權利的特征。前者是指該權利更多情況下是算法相對人保障自身權益的一種手段,算法相對人通過算法解釋權獲取信息是為了采取進一步的法律行動,如當人格尊嚴、人身財產安全等利益受到侵害時,以及時對算法主體提起訴訟等;后者是指算法相對人知情權的行使僅僅是為了可主動明晰個人信息如何被處理、使用,是個人隱私權的自然延伸,即數據主體對數據處分、控制的權利。23. 參見王聰:《“共同善”維度下的算法規制》,載《法學》2019年第12 期,第76 頁。其二,就算法解釋的具體內容來看,學界探討的算法解釋內容包括決策系統的邏輯、意義、設想后果和一般功能以及具體決策的基本原理、理由和個體情況;或者包括決策過程中所使用的數據、代碼、決策目標、結果、合規情況、利益沖突情況、數據使用方法等信息。24. 胡小偉:《人工智能時代算法風險的法律規制論綱》,載《湖北大學學報(哲學社會科學版)》2021年第2 期,第124 頁。其三,就算法解釋的標準來看,大體分為形式性標準和實質性標準。對于形式性標準,學界大體無爭議,即應當以“易見、易懂、易讀”的方式提供;對于實質性標準,學界尚未達成共識。有觀點認為,應以相關性和相對人的可理解性作為算法解釋的標準。25. 張凌寒:《商業自動化決策的算法解釋權研究》,載《法律科學(西北政法大學學報)》2018年第3 期,第72 頁。其四,從算法解釋的啟動時機和前提來看,多數觀點認為算法解釋權應在事后啟動,前提應當限定在對用戶個人有重大影響的情況。

算法解釋權是個人數據保護理論下的自然延伸,是算法經濟下信息不對稱的典型“糾正”手段,為個人防御算法侵害提供了權利武器,對于從源頭端防治算法錯誤、算法歧視、算法標簽等算法侵害無疑具有重要意義。

(三)算法透明實現的法律阻礙

為達至算法透明這一目的,需要一個能讓受算法決策影響者和社會公眾充分了解、理解算法信息的途徑,即披露算法信息。然而,由于涉及代碼、公式、參數權重層面的算法披露均難以繞開商業秘密的保護區,26. 參見林洹民:《個人對抗商業自動決策算法的私權設計》,載《清華法學》2020年第4 期,第130-132 頁。故而,商業秘密保護制度也成為了具體場景下阻斷算法透明化的法律障礙。

在實踐層面,算法主體往往選擇將算法及其源代碼等作為商業秘密進行保護,27. See Sonia K. Katyal, Private Accountability in the Age of Artificial Intelligence, UCLA Law Review, Vol.66:54, p.125 (2019).以維系其在市場中的競爭優勢。從對算法保護的現實需求來看,由于專利須以公開技術方案換取保護,故而“商業秘密是專利權常用的替代制度”。28. 參見【美】理查德·A·波斯納:《法律的經濟分析》,蔣兆康譯,法律出版社2012年版,第54 頁。從市場競爭的角度來看,算法的經濟價值取決于其保密性,算法開發者也具有內在動力去保持算法的復雜性和晦澀性,從而避免公開帶來利益受損的風險。商業秘密制度作為技術保護的重要私法制度,將算法作為商業秘密進行保護有利于防止其他競爭者的搭便車行為。29. 參見孫建麗:《試論算法的法律保護模式》,載《電子知識產權》2019年第6 期,第43 頁。

在法理層面,從勞動價值理論來看,算法是算法主體的私有財產,算法研發、運用過程所匯聚的大量人財物力投入需要相應的權利(益)保護。提升算法透明度的同時需要對合法的私有財產予以充分尊重。若法律強制對算法開發者或使用者施加充分公開和完全透明的解釋義務,這不僅與勞動價值理論相悖,也可能會阻礙算法技術的研發,抑制算法應用的創新和發展。從商業秘密的構成要件來看,商業秘密是一種無形的信息財產,具有秘密性、價值性和保密性三個要素。而商業秘密的“秘密性”在權利存續期間應當是一種持續狀態,并由權利人的“保密性”措施來維系,30. 參見吳漢東:《試論“實質性相似+接觸”的侵權認定規則》,載《法學》2015年第8 期,第69 頁。若完全的算法透明必然會破壞商業秘密的“秘密性”從而損害權利人的合法利益。因此,基于商業秘密的特性,算法及其所涉數據等信息的商業秘密保護將對算法披露和說明構成實質性的限制。

在立法層面,我國也已明確將算法作為信息技術納入商業秘密保護的范疇,31. 參見《最高人民法院關于審理侵犯商業秘密民事案件適用法律若干問題的規定》第一條。并強調保護算法知識產權的重要性。2021年,國家互聯網信息辦公室、中央宣傳部等機關聯合發布的《關于加強互聯網信息服務算法綜合治理的指導意見》中也明確指出,“引導算法應用公平公正、透明可釋”同時“保護算法知識產權”,反映了算法透明與知識產權保護的重要地位,即算法透明應以尊重算法知識產權保護為前提。

在司法層面,法院在案件審判過程中也傾向于因商業秘密保護而拒絕公開算法的請求。例如,在日本“Tabelog 算法濫用案”32. 《日本大眾點評敗訴!因點評系統算法不公平》,https://jp.hjenglish.com/new/p1377640/,最后訪問日期:2023年6月23日。中,餐飲店“韓流村”認為Tabelog 平臺(與我國的“大眾點評網”平臺功能類似)下調連鎖店評分的算法機制變更屬于優勢地位的濫用,要求Tabelog平臺公開點數計算的算法,但法院以算法為商業秘密為由駁回了公開算法的請求。在“Viacom 訴YouTube 案”33. Mark MacCarthy,Standards of fairness for disparate impact assessment of big data algorithms, Cumb. L. Rev, Vol.48:67(2017).中,盡管審查計算機源代碼是判斷YouTube 搜索功能算法是否存在提升排名等不正當行為的唯一解決方案,但是法院仍以保護商業秘密為由拒絕了原告強制披露被告計算機源代碼的請求。在事關個人自由的刑事司法背景下,算法的商業秘密保護障礙尤為顯著。在“美國威斯康星州訴Loomis 案”34. See State of Wisconsinv. Eric L.Loomis, 881 N.W.2d749 (2016).中,Loomis 質疑由COMPAS(犯罪累犯風險預測模型)所計算刑期的合法合理性,認為該模型含有強烈的種族偏見,并請求公開解釋算法,但法官將COMPAS 算法視為商業秘密,駁回了對算法進行解釋的請求??v觀我國現階段涉及算法披露訴求的案例,我國法院也將算法認定為商業秘密進行保護。例如,在“億桐公司與百度公司服務合同糾紛案”35. 參見北京市第一中級人民法院(2023)京01 民終2697 號民事判決書。與“陳魚與阿里媽媽公司服務合同糾紛案”36. 參見杭州鐵路運輸法院(2017) 浙 8601 民初 3306 號民事判決書。中,法院均以保護算法商業秘密為由拒絕披露具體算法的請求。以上類似情形,不勝枚舉。

綜上所言,算法透明成為規制算法的重要目標具有其客觀現實需求,但算法透明,特別是其核心工具——算法解釋權,與商業秘密保護形成強烈對抗。如何解決沖突雙方均主張各自權利的對峙局面成為當下不容忽視的重要命題。

三、“調和論”視角下算法透明與商業秘密的利益平衡

西方傳統思想認為,所有善可以相互包容并且共存,但英國哲學家以賽亞·柏林提出,“善”與“善”之間不可相容、不可公度。37. 參見梁上上:《異質利益衡量的公度性難題及其求解——以法律適用為場域展開》,載《政法論壇》2014年第4 期,第3 頁。算法透明與商業秘密保護之間即存在難以避免的沖突,具體體現為法律利益之間的沖突,其解決之道在于衡量二者之間的沖突利益并尋求利益的平衡。依照傳統思路,充分的利益解構是利益衡量的必要前提,而利益衡量則是利益解構后的必然延續。利益位階法下,衡量是否能夠阻卻商業秘密保護實現算法透明化,實際上就是尋找算法透明背后是否具有更高位階的利益予以優先保護。本文基于橫向解構與縱向衡量后認為,算法透明與算法商業秘密保護之間并不存在普適性的理由使前者凌駕于后者之上。因此,算法透明的實現需要轉向“調和”視角,即彼此讓渡一定非核心利益以達至整體利益最大化。

(一)利益的橫向解構與縱向衡量

按照不同的分類標準,利益可以呈現為多元多層次的樣態,既存在同質利益之間的衡量,也存在異質利益之間的衡量。大體而言,可以將利益衡量分為橫向和縱向兩個維度。橫向維度基于事實進路展開,需要對所涉利益結構進行充分的解構分析;縱向維度基于規范進路展開,需要對所涉利益進行價值判斷、衡量利益重要性差異。

1.沖突利益的橫向解構

從橫向衡量的維度來看,將算法透明與算法商業秘密所涉利益按照主體進行橫向劃分,可以分為個人利益以及公共利益。其中,個人利益又分為算法主體個人利益和算法相對人個人利益。

算法主體個人利益與算法相對人個人利益之間的沖突,集中表現為商業秘密保護與算法解釋權的沖突。圖1 所示為算法主體個人利益與算法相對人個人利益的沖突關系,總體呈現為一個平面的利益結構圖。在這個基礎的利益格局中,二者之間的利益沖突落在了以算法的完全公開以及算法的完全保密為兩端極點的橫軸之間,體現了不同個體之間在利益上此增彼減的關系。算法相對人主張算法透明,即通過算法解釋權獲得算法相關信息以維護自身合法權益;而反對披露算法相關信息的算法主體則基于商業秘密保護的目的希望算法“不透明”。商業秘密在這層沖突關系中成為了算法主體的“利益放大器”,而利益“放大”導致的沖突后果極易導致算法相對人個人利益的“縮水”。

圖1 算法主體個人利益與算法相對人個人利益的沖突關系

算法主體個人利益與公共利益之間同樣會發生利益沖突。邁入數字時代,算法已然成為對社會生活產生整體性影響的關鍵資源。過度的商業秘密法律保護將間接對社會公眾獲取重要信息造成一定阻礙,影響社會監督算法決策的合法性,難免招致公共安全風險,損害公共利益。圖2 所示為算法主體個人利益與算法相對人個人、社會公共利益的沖突關系。在圖1的基礎上加上了公共利益之后,可以看到,算法透明背后蘊含著民主、自由等深層價值,從總體上看,這與算法主體利益——保護商業秘密以維持競爭優勢,構成一個二維平面的利益結構圖。而在算法公開還是不公開的博弈中,公共利益衡量成為了改變基礎利益關系的重要砝碼,當公共利益向公開的方向傾斜時,成為影響算法公開的最主要的因素。

圖2 算法主體個人利益與算法相對人個人、社會公共利益的沖突關系

2.沖突利益的縱向衡量

根據通常的思維慣性,當利益之間發生沖突時會將所涉利益性質進行對比,分析是否存在某種利益應當被優先考慮,即確定利益位階。在權利的體系中,權利位階的存在基本上是一個不爭的事實。但是,從權利位階視角出發,在此區域內算法主體與算法相對人、社會公眾之間沖突關系的衡量難以直接得出普適性結論。

從表面上看,較之于知識產權保護,保護個人的隱私與數據權益似乎更為重要,因為它們關乎個人的自主及尊嚴。38. 解正山:《算法決策規制——以“算法解釋權”為中心》,載《現代法學》2020年第1 期,第191 頁。但更進一步來看,當算法上存在商業秘密時,基于一般道德理由或法律理由的算法解釋權能否構成對商業秘密的一種強制衡,還有賴于在具體場景中的論證。受算法所影響的法益可能包括關乎人的尊嚴和自由等較高位階的人格利益,但這并不意味著在所有具體場景下可以在商業秘密這一財產利益面前占據絕對優勢,因為對算法的保護和自由利用也可以促進這些利益的保護。因此,當兩種權利(益)形成實質對峙時,算法解釋權并非當然能夠形成制約商業秘密的優勢理由。

公共利益也同樣難以成為公開算法商業秘密的絕對理由。有學者認為,在特定情形下公共利益的分量可以否定算法的商業秘密保護,39. 陳景輝:《算法的法律性質: 言論、商業秘密還是正當程序?》,載《比較法研究》2020年第2 期,第127 頁。商業秘密應讓位于代表公共利益的算法解釋規則。40. See David S. Levine, Secrecy and Unaccountability: Trade Secrets in Our Public Infrastructure, Florida Law Review,Vol.59:135, pp.135-163(2022).誠然,公共利益作為法治社會的基本理念,是整個社會和諧發展的根本價值,可以構成對民事權益的限制。但是,緣于公共利益本身的復雜性和高度抽象性,在對民事權益進行限制的時候應當謹慎適用。另外,公共利益具有普遍性和形式多樣性,算法商業秘密可能出現公開還是不公開其背后都涉及公共利益的情形??梢园l現,雖然算法所涉及的利益主體既包括個人也包括社會公眾,但同時,算法主體的個人利益同樣也會與公共利益之間形成緊密關聯。由于算法廣泛內嵌到社會的各個領域,算法商業秘密保護背后也蘊含著相應的深層制度價值——鼓勵企業技術研發和創新、提升社會整體創新能力、維護公平競爭的商業秩序、促進數字市場經濟的健康發展、構建更高水平的對外開放格局等。如果算法規制負擔過重,將可能導致商業秘密權利人創新熱情的積極性嚴重減退,同時造成數字產業發展上的不利局面。因此,算法透明與算法商業秘密保護的對局轉化為了不同公共利益之間的衡量。在這種情況下,僅僅依靠公共利益優先原則顯然無法解決問題。

(二)“調和論”的引入與展開

利益之所以“衡量”,并非因不同利益之間存在位階權重差異而需要對其“排序”,這種“排序”不是“衡量”,是確定利益的優先性,屬于“沖突論”的解決思路?!昂饬俊敝蛟谟谛枰跓o法比較權重位階的情形下,考慮如何采取“衡平”的方式使利益得到恰當保障。41. 蔡琳:《論“利益”的解析與“衡量”的展開》,載《法制與社會發展》2015 第1 期,第146 頁。這種衡平觀就是“調和論”的體現。換言之,作為調和論解決方案的“衡量”,并非是權衡利益的相互排除,而是以“利益保障的最大化”為目標。42. 蔡琳:《論“利益”的解析與“衡量”的展開》,載《法制與社會發展》2015 第1 期,第147 頁?!罢{和”有利于將價值沖突引向一種相互協作、助益下達成的實質正義。

以“調和”方式平衡算法透明與算法商業秘密之間的利益具有必要性。若僅通過利益位階的縱向衡量去解決利益沖突,其效用是有限的。因為利益位階的判斷本質上是價值判斷,往往難以具備完整的客觀可能性。如上所述,算法透明與算法商業秘密保護之間的利益結構實際上并不是單純的平面利益格局,而是存在多重對立關系的復合式立體格局。從這一立體結構關系來看(如圖3 所示),算法透明與商業秘密保護均承載著社會公共利益。因此,二者之間的利益“衡量”并不再是可見的物質利益之間的比較,而是原則、價值、或是“理想利益”之間的“衡量”,43. 蔡琳:《論“利益”的解析與“衡量”的展開》,載《法制與社會發展》2015 第1 期,第148 頁。即實質上是兩種不同制度內生性利益之間的衡量,并外化為具有沖突關系的兩個層級的對立利益:第一個層次,算法決策正義和法的安定性。公開算法,有利于提高對算法的監督,有益于保障算法決策正義。但是算法公開必然涉及法的安定性利益,如果過度公開,就會挫傷算法主體的創新積極性、損害公平競爭的市場經濟秩序。第二個層次,在促進算法決策正義這一根本目標下,“公開”和“不公開”之間仍然需要進行考量。公開算法是為了個人能夠維護個人權益、避免遭受算法歧視;不公開算法則是為了避免公開而引起個人隱私泄露、算法算計。故而,需要分別在兩個雙層對立關系中找到有利于實現算法透明與算法商業秘密保護利益平衡與總體最大化的“中間值”,將利益衡量視為指引性的價值原則,轉向更加合理的“調和”思路。

圖3 算法透明涉及的利益關系

以“調和”方式平衡算法透明與算法商業秘密之間的利益具有合理性。算法系統運作具有技術封閉性,其技術細節封裝于黑箱之中又具有天然的秘密性。算法透明固然要以保護商業秘密這一私權為前提,但若是以商業秘密保護之由全然拒絕算法解釋,無疑會造成規則隔音進而產生一定的負面效應,導致事后問責無從談起。首先,商業秘密保護缺乏明確的邊界,也不像權利化的著作權、專利權那樣存在法定的限制和例外,從而缺乏明確的權利保護的平衡機制,需要在個案中進行利益衡量。其次,商業秘密缺乏也不可能具有公示制度,故而號稱受到商業秘密保護的算法到底能否構成商業秘密,旁人無從得知。再次,算法的商業秘密保護實際上為算法主體提供了強力抗辯理由,可能會對企業形成過度保護,以致縱容懷有不良動機的使用者利用算法侵害社會公眾和其他競爭者的合法權益。44. 參見孫建麗:《試論算法的法律保護模式》,載《電子知識產權》2019年第6 期,第39-47 頁。因此,需要在“調和論”的指導下,使“二者在某一程度上必須各自讓步”。45. 【德】卡爾·拉倫茨:《法學方法論》,陳愛娥譯,商務印書館2003年版,第279 頁。

以“調和”的方式平衡算法透明與算法商業秘密之間的利益具有可行性。雖然算法主體與算法相對人、社會公眾實現利益的方式存在矛盾甚至對立,但這種“對立”也并非絕對的不可調和。算法透明與商業秘密保護在數字經濟背景下具有共同的根本目標,即二者的內核均在于促進算法經濟的高質量發展,這為達成利益的衡平具有相當的可行性,是達至平衡狀態的內在根基。市場經濟的繁榮離不開經營者的創新和發展;反之,經營者利益的保障也離不開透明、公平、公正的市場經濟環境。因此,在“調和論”視角下,算法透明與算法商業秘密之間的利益協調應以實現算法透明與算法經濟高質量發展為根本目標,讓渡非核心利益作為他方實現其核心利益的條件和基礎。一方面,為保障有效的算法監管和問責,應在盡可能減少對算法主體商業秘密利益損害的基礎上實現算法透明;另一方面,為維護市場競爭秩序以及提供創新激勵,應在盡可能減少對算法相對人和社會公共利益負面影響的基礎上保護算法商業秘密。

四、邁向利益平衡的算法透明化路徑構思:適當的透明

算法透明最終能否合理落地,能否與商業秘密保護之間保持動態平衡,與算法解釋的范圍和程度具有直接關聯。算法解釋所涉算法技術內容各異,“一刀切”式過度“透明”或“保密”極易導致算法透明與商業秘密保護之間動態博弈的結果失衡,難以實現算法正義。為平衡算法透明與商業秘密保護,需要從方法論角度對算法解釋框架進行重構。算法解釋可以遵循分類分級的整體布局以及比例原則下的個案認定,構筑算法解釋的差序規制格局,進而實現總體的解釋效率和個案的解釋正義。與此同時,進一步建立健全多元算法監督機制,實現適當的透明。

(一)算法解釋的體系化構建

算法分類分級旨在對不同性質的算法決策可能引發的風險進行程度區分,并設置與之相適應的算法解釋義務。分類分級所具有的多層次結構區隔了不同性質和不同風險程度的算法決策,有利于合理劃分解釋范圍和精準匹配監管資源,是平衡“透明”與“保密”的有力工具。然而,分類分級僅能就算法決策的共性作出初步指引,具有一定的靜態性和模糊性。算法正義最終需要在個案中實現,在個案認定中遵循比例原則具有動態性和靈活性,從而可以避免算法主體的解釋義務超出合理范圍,保障算法解釋權有效實現的同時防止對商業秘密造成侵害。

1.整體解釋框架:算法解釋分類分級

分級分類監管、精準精細施策的立法思路已經在國內外立法中廣泛呈現。例如,歐盟GDPR 較早提出基于算法應用風險的治理路徑,同時還對算法決策類型進行了劃分,即分為完全基于自動化和非完全自動化類型。隨后,歐盟在《人工智能法案》中基于不同等級的風險提出了分級分類治理框架。46. 《人工智能法案》以對健康、安全和權益的影響程度為劃分標準,將人工智能系統評估后劃分為最小風險、有限風險、高風險和不可接受風險四個等級,并對各等級施以差異化監管。就我國立法而言,2021年9月發布的《關于加強互聯網信息服務算法綜合治理的指導意見》首次提出了“算法分級分類安全管理”的概念。隨后,我國《算法推薦管理規定》也明確指出建立算法分級分類安全管理制度,第2 條第2 款將算法推薦技術從橫向分為五大類,47. 《互聯網信息服務算法推薦管理規定》第2 條第2 款規定,“前款所稱應用算法推薦技術,是指利用生成合成類、個性化推送類、排序精選類、檢索過濾類、調度決策類等算法技術向用戶提供信息?!钡?4條、27條區分出了“具有輿論屬性或者社會動員能力”的算法推薦服務提供者。此外,該規定還結合算法推薦技術處理的數據重要程度、用戶規模和對用戶行為的干預程度等進行了制度設計。綜觀上述規范,算法分類分級監管思路在確保算法經濟效率、精準匹配監管資源以及引導算法透明上具有重要意義。但在強化算法透明背景下存在以下不足:一是分類分級標準過于單一、范圍過窄,如《算法推薦管理規定》僅在“算法推薦”的應用場景之下對算法推薦服務提供者加以分類分級,而非針對具體的算法應用,由此可能導致難以實現算法監管的根本目標。二是缺乏制度銜接,該規定所列舉的“具有輿論屬性或者社會動員能力”的算法推薦服務提供者,僅就事前安全評估、備案等程序上與其他算法推薦服務提供者的義務有所區分。換言之,在事后的算法解釋義務上,所有的算法推薦服務提供者并實質無差別。不加區分的規范設計將不利于與商業秘密保護制度相銜接。

本文認為算法解釋框架的構筑可以延續算法分類分級的規制思路,并在此基礎上進行細化設計。一方面,可依據算法的性質進行橫向分類,如圖4“橫軸”所示,算法由最左端的輔助性工具逐漸發展為完全獨立的決策者。另一方面,可以風險層級為基準進行縱向分級。如圖4“縱軸”所示,算法決策的風險層級由最下端的“極低風險”不斷往最上端的“極高風險”升高。在判斷某一特定場景下的算法應用是否可能帶來高外部風險時,可結合算法應用的行業、預期風險系數及其對公共安全、公民基本權利和消費者利益的影響程度進行考量。48. 林洹民:《自動決策算法的風險識別與區分規制》,載《比較法研究》2022年第2 期,第199 頁。例如,超級平臺較之中小平臺具有更大的用戶規模、經濟體量、業務種類,更強的限制能力,算法決策的不當利用更容易對公民基本權利和消費者權益造成更大規模侵害,因而應視為算法應用存在高風險。質言之,橫軸代表“分類”,縱軸代表“分級”,橫縱交錯的兩個維度共同將算法解釋框架劃分為四個象限。

圖4 算法解釋框架

算法解釋背后實質上是不同場景下的價值衡量。是故,需要在“調和論”視角下處理透明價值與商業秘密之間的沖突。在算法決策的潛在外部風險遠小于其帶來的收益時(象限Ⅲ和象限IV),算法解釋權需要作出更多讓步,選擇替代性方案;而當處于個人權益受到重大影響和社會公共利益受到威脅的高風險領域(象限Ⅰ和象限II)時,算法解釋權則不應過多讓步。

象限Ⅲ中,算法可能引致的外部風險層級低且在決策中具有較強的輔助性工具價值。在這一區域中算法決策并不直接涉及個人權益,或可能僅在一定程度上影響算法相對人的個人選擇。在此情形下,若強制要求對算法進行解釋反而會導致算法主體承擔過重義務,甚至侵害商業秘密。因此,算法透明的實現可在既有法律體系內進行,無須法律或規范針對算法解釋作出專門規定。

象限IV 中,算法可能引致的外部風險層級低但在決策中獨立性強。在這一區域中,具有高自主性的算法決策蘊含著復雜的社會互動,“硬法”的局限性和政府監督的有限性無法快速根本預防并解決現有及未來算法黑箱帶來的科技倫理問題。因而這一區域的算法透明,一方面,應主要依托“軟法”約束,輔以“硬法”加以強化。通過公開披露技術標準這一“軟法”透視算法黑箱,提升算法透明度,以緩解用戶與算法生產者、使用者之間的信息不對稱。另一方面,應充分利用社會監督,使之與監管部門形成合力,提高執法效率。例如鼓勵用戶社群參與算法治理,通過技術社群的力量識別算法的潛在危害和倫理等問題。

象限II 中,算法可能引致的外部風險層級高但在決策中具有較強的輔助性工具價值。在這一層級中算法自動化決策獨立性較弱,外部風險的成因既可能因算法作為侵權工具,也可能基于算法自身。對于前者而言,算法多數情形下是作為平臺的工具,平臺對算法的運行具有充分的控制能力,對算法自動化決策的結果也有充分的預測能力,因而宜采取“結果導向”“事后追責”的傳統監管思路,以避免立法者和司法者過多介入算法運行的內部結構,對商業秘密造成侵害。49. 張凌寒:《風險防范下算法的監管路徑研究》,載《交大法學》2018年第5 期,第53 頁。對于后者而言,因算法自身導致“對個人權益有重大影響”的算法自動化決策需以“算法解釋權”為主要抓手。在該區域內,算法解釋權的基本設置以我國現行法的規定配置足矣,即當個人權益受到重大影響時,僅由個人在事后提起解釋。但以《個人信息保護法》為法律基礎的算法解釋權設置過于籠統,尚需出臺相關規范予以細化。算法解釋權的細化應當以算法解釋權的核心目標為起點,以利益平衡理論為導向,明晰算法解釋權的權利半徑。就此而言,有以下關鍵問題尚待明晰,一是“對個人權益有重大影響”這一要件的標準為何?首先,需要明確的是,對個人權益是否有重大影響的判斷標準應該從嚴。若行權門檻過低,必然會造成資源的大量浪費、降低經濟效率。其次,解釋的效用必須與產生解釋的成本相平衡,在衡量解釋價值時,應當圍繞算法解釋權的核心指向,不宜過于寬泛。二是算法解釋的方式、內容為何?按照學界主流觀點以及GDPR 第12 條第1 款要求,算法主體應以“簡潔、透明、易懂和易獲取的形式”向數據主體提供必要解釋。就解釋內容而言,盡管對技術的解釋是十分重要的,但這不足以實現法律規制的目標,因為實踐中多數情況下的解釋目的不是為了解釋技術本身,而是為了確保有一種途徑可以評估算法決策的基礎是根據反歧視或正當程序等規范進行的。50. See Andrew Selbst & Solon Barocas,The Intuitive Appeal of Explainable Machines, Fordham Law Review ,Vol.87:1085,p.1105(2018).因此,總體而言,算法主體可以通過反事實解釋的方法予以答復,51. See Sandra Wachter,Brent Mittelstadt & Chris Russell,Counterfactual Explanations without Opening the Black Box:Automated Decisions and the GDPR, Harvard Journal of Law&Technology, Vol. 31:841, pp.841-861 (2018).內容原則上應限定為與個人權益緊密相關的算法主體信息和算法的影響等外部信息而不側重于向用戶詳細講解系統的運作細節或整體邏輯。主要包括算法決策所需數據及其類別、權重、相關性解釋,以及個人“畫像”如何建立、它與決策過程相關性的說明以及是如何被用于涉及個人的算法決策等能夠使算法相對人充分理解的信息。52. 解正山:《算法決策規制——以“算法解釋權”為中心》,載《現代法學》2020年第1 期,第187-188 頁。

象限Ⅰ中,算法風險高且獨立性強,旨在實現算法透明內生價值的制度設計更應堅持人的主體性,同時賦予更強的約束力。僅憑借現行單一的算法解釋權或政府監管均難以應對。尤其是當市場上的算法與競爭相結合,以及實施默示算法共謀等新型壟斷行為時,著眼于自動化決策相對方事后救濟的算法解釋權構造幾乎難以發揮效用,53. 參見劉輝:《雙向驅動型算法解釋工具:以默示算法共謀為場景的探索》,載《現代法學》2022年第6 期,第59 頁。傳統反壟斷監管對此也顯得力有所不逮。因此,需要就現行法下的算法解釋權進行擴充改造,但并非僅就算法解釋范圍的簡單擴充,因為這種盲目擴大解釋權邊界的方式只會使算法透明與商業秘密保護之間的矛盾更加尖銳,卻依舊無法得到有效的算法解釋。對算法解釋權的重構應以多元主體為主導,將解釋與審查相結合。具言之,一是,仍然與現行算法解釋權相同,當算法決策相對人認為個人權益受到重大不利影響之時,可依法啟動算法解釋工具。此外,當受算法決策侵害的是大規模群體時,也可考慮參考歐盟GDPR 第80 條第1 款、第2 款規定,由第三方機構代替個人行使救濟權利。二是,將啟動主體由單一主體擴充為多元主體,即除了算法決策相對人之外,還包含公權力機關。作為算法規制主體的算法監管部門以及司法機關,在日常算法監管執法或者算法司法活動中發現不利的算法決策,可主動啟動算法解釋工具。三是,根據不同主體調整算法解釋要求。面向算法決策相對人,算法解釋與象限II 中要求基本一致,即解釋的側重點在于算法決策形成的邏輯以及對算法相對人可能產生的不利影響等局部信息;面向專業人員,解釋算法的內容需要深入到模型設計、訓練方式以及運行邏輯的具體細節,以便其對算法決策可能帶來的風險有更科學的預期和判斷。面向政策制定者,解釋的側重點應當更加全面,使其能夠從全局進行把握,充分了解數據選取、算法設計運行的邏輯和影響。

總體而言,算法解釋的內容應當隨著算法決策風險的加強而不斷趨于嚴格。隨著算法在決策過程中的主導性不斷加強,算法主體的解釋義務應當逐步加強,與之相應的算法解釋目標不斷趨嚴,算法透明度也應逐步提升。

2.個案認定原則:堅持比例原則

確定在何種程度上針對算法所作出的解釋具有法律意義,是關系算法透明與商業秘密保護之間利益平衡的重要砝碼。算法透明的程度需在個案中根據比例原則進行判斷。可以說,比例原則是“調和論”下的具體體現,其要義在于所采取之手段與所欲達成之目的之間應有適切的關系,54. 【德】卡爾·拉倫茨:《法學方法論》,陳愛娥譯,商務印書館 2003年版,第282 頁。即禁止過度的透明或過度的保密。立足比例原則,狹義比例原則要求算法解釋權以最緩和的手段來實現算法解釋的目的,以減少和避免對商業秘密的侵害。55. 呂炳斌:《論個人信息處理者的算法說明義務》,載《現代法學》2021年第 4 期,第97 頁。通過算法解釋權提高算法透明度以保護個人權益和社會公共利益,應當符合適當性的要求,即算法解釋的程度應當與算法所可能產生的外部風險正相關。同時,還需要將算法解釋對算法商業秘密保護造成的負面影響范圍控制在最小,應當符合必要性的要求,即算法解釋的方式方法應當盡可能保護算法商業秘密。

(二)建立健全多元算法監督機制

鑒于算法應用廣泛、形態多樣,單一算法解釋難以實現算法透明。因此,在對算法解釋進行體系化構建的同時,還需要輔以更多元的算法自動化決策規制手段實現算法透明化,將算法解釋和算法監管相結合,在不同利益主體、不同制度價值之間尋求平衡。

一是優化經由設計的透明柔性規范。我國《算法推薦管理規定》第12 條提出要求優化可解釋性,并列舉了優化的對象。但該規定過于籠統,導致對“可解釋性”的重視不足。從概念上來看,“解釋”在詞典中的含義為,賦予概念或者以可理解的術語解釋和呈現某些概念。在數據挖掘和機器學習中,可解釋性則可被定義為以可理解的術語向人類解釋或提供說明的能力。56. Finale Doshi-Velez & Been Kim, Towards a Rigorous Science of Interpretable Machine Learning, at https://doi.org/10.48550/arXiv.1702.08608, last visited on June 24, 2023.故本質上而言,“可解釋性”是連接人類和(機器)決策者之間的“接口”(interface)。57. Riccardo Guidotti, et al., A Survey of Methods for Explaining Black Box Models, ACM Computer Surveys, Vol.51:5, p5(2018).算法可解釋性攸關模型透明度,對于評估模型決策行為、驗證決策結果可靠性和安全性具有重要意義。58. 紀守領、李進峰等:《機器學習模型可解釋性方法、應用與安全研究綜述》,載《計算機研究與發展》2019年第10期,第 2088 頁。就目前的算法解釋技術來看,模型預測的可靠性與自動化決策過程、結果的全面留痕之間存在反向關系,即越是具有可解釋性的算法模型,則該算法模型的性能則越差。因此,優化算法可解釋性的柔性規范應當區分不同場景、不同功能,對于具有高風險、需要重點監管的場景(如司法、醫療、金融等領域),即使犧牲部分模型性能也需要配置更高算法可解釋性的規范義務。

二是配置協同治理的中性規范。實踐中,盡管在算法設計階段可以預先優化算法可解釋性,例如采用決策樹等自解釋模型,達成技術上的“可解釋性”,或者鼓勵企業采用可解釋性較強的深度學習算法模型以提升算法透明度。但是,在巨大規模參數和大型多模態模型面前,算法可解釋性幾乎難以實現。例如,OpenAI 推出的預訓練模型(Generative Pretrained Transformer,GPT)在經歷技術的飛速迭代后,GPT-4 的參數量預測將達100 萬億。59. ICO, Explaining Decisions Made with AI, at https://ico.org.uk/media/for-organisations/guide-to-data-protection/key-dpthemes/guidance-on-ai-and-data-protection-2-0.pdf, last visited on June 13, 2023.因此,對于此類具有超大規模的深度學習模型,不宜設置算法解釋工具,而應轉向多元主體協同治理、多元方式并進監管的模式。例如,“為專業性非營利組織和用戶社群參與治理創造制度環境,探索符合我國發展特點的協同治理范式,促進社會監督與政府監管的協同聯動。”60. 張欣:《生成式人工智能的算法治理挑戰與治理型監管》,載《現代法學》2023年第3 期,第118 頁。如此一來,可以在一定程度上避免陷入“解釋不足”和“解釋過度”的兩難困境,促使算法受到專業人士和社會公眾的監督和控制。

三是強化算法登記備案與定期審核的剛性規范。首先,需要在高風險領域進行嚴格的市場準入監管,要求就算法模型、算法訓練數據集等算法詳細屬性信息進行備案說明。其次,監管部門應定期和不定期對算法自動化決策的應用情況進行審核,重點關注是否具有利用算法進行排除、限制市場競爭的行為。通過公權介入的形式強化對私權的保護,維護市場競爭秩序,以彌補算法解釋這一私權救濟機制的不足。最后,還需要求算法主體就算法進行自我檢查,并就實施情況的檢查的報告進行公開聲明,進而在法律范圍內受到監督。算法主體在服務過程中所使用的算法應當符合其聲明公開的標準的技術要求,如果違反其公開聲明的標準就要承擔相應的法律責任。

五、邁向利益平衡的算法透明化路徑構思:合理的保密

從商業秘密保護制度的本質來看,其“以保密守權益”的特征必然與算法透明之間產生價值沖突?!氨C苄浴辈⒉皇巧虡I秘密權利人的避風港,過度的商業秘密保護將會對他人權利和社會公共利益產生不利影響。因此,需要對商業秘密保護的限制制度進行完善。

(一)明確商業秘密內容的“合法性”

作為商業秘密進行保護的算法內容應當具有合法性。我國對商業秘密保護的規定集中體現在《反不正當競爭法》之中,其中關于商業秘密的三大構成要件“秘密性、保密性和價值性”中并未包括“合法性”。從廣義范圍來看,算法既有可能包括“合法”的算法信息,也有可能包括“非法”的算法信息(例如侵害基本權利、違反反壟斷法等信息),而能夠受到法律保護的顯然只有前者。因為,從法理角度而言,若利用商業秘密的非公開性和保密性的特點將違法、違規、違反公序良俗的信息混同為商業秘密加以保護,以阻礙消費者、公共監督群體監督,這顯然違背了立法目的。因此,“合法性”要件對于商業秘密的認定與依法保護不可或缺。從國際性立法文件TRIPs 協議來看,其明確指出受保護的秘密信息應為“合法控制的信息”。這里“合法控制”應當作廣義理解,即不僅指的是對秘密信息“控制行為”合法性的要求,而且也強調“秘密信息”本身的合法性。德國的《商業秘密保護法》更是明確要求秘密信息所有人應當對該信息具有“合法的保密利益”。另外,我國《反不正當競爭法》第2 條第1 款有關“遵守自愿、平等、公平、誠信的原則,遵守法律和商業道德”的原則性條款,實質上也是對商業秘密所保護的內容提出了合法、合乎商業道德的要求,可以由此推導出“合法性”是商業秘密的當然構成要件。

相較于專利的審查和對外公開要求而言,商業秘密的“秘密性”和“保密性”決定了其權屬狀態具有不確定性的特征。對于商業秘密信息本身是否合法、是否真實存在,外界無從得知。為避免司法實踐中出現因合法性審查程序不統一而導致審判結果迥異的情形,應當明確將“合法性”作為獲得商業秘密保護的構成要件。對于來源不合法以及內容不合法的算法信息,如被用來竊取用戶數據、進行縱向和橫向壟斷、損害他人合法利益等,不應也不能作為商業秘密受到法律保護。

(二)完善公共利益抗辯制度

在商業秘密保護的法律規范中應當明確規定公共利益抗辯規則。為公共利益需要對算法進行一定程度和范圍的披露,是平衡社會公共利益與算法商業秘密權利人私益的有效措施。

在比較法上,一些國家在相關制度的構建中也囊括了公共利益抗辯制度的規定。如日本《不正當競爭防止法》中規定“違反公序良俗的信息不予保護”,美國2016年《保護商業秘密法案》第7 條和歐盟2016年《商業秘密保護指令》第5 條都有商業秘密披露的公共利益(揭發違法行為)例外。在國內法上,盡管我國的商業秘密保護制度設計了諸多平衡規則,如獨立研發抗辯、反向工程抗辯等等,但我國法律規定中尚未建立商業秘密領域的公共利益抗辯制度。雖然公共利益對商業秘密的限制條款在《環境保護法》第24條61. 《環境保護法》第24 條規定,縣級以上人民政府環保部門,有權現場檢查排放污染物的企事業單位,要求被檢查的對象提供有關排放污染物的數量、成分、濃度等必要的技術資料,相關單位不得以商業秘密保護為由拒絕披露。、《政府信息公開條例》第15條62. 《政府信息公開條例》第15 條規定,對于涉及商業秘密、個人隱私的政府信息,有關政府部門不得公開。但若不公開會造成社會公共利益重大損害或第三人同意公開的,應當予以公開。中有據可循,但由于適用的范圍僅限于環境保護和政府信息公開領域,對商業秘密的披露范圍有限。在此情形下,實踐中法院常引用的仍是《民法典》中的誠信原則等條款。而這種向一般條款逃逸的方式缺乏明確的制度界限,也極易導致法官自由裁判權過大,不利于制度之間的銜接。

近年來,我國已經注意到并考慮將公共利益作為商業秘密保護限制的事由。2020年最高院頒布的《最高人民法院關于審理侵犯商業秘密糾紛民事案件應用法律若干問題的解釋(征求意見稿)》第19 條提出了建立商業秘密領域的“公共利益抗辯”制度:“被訴侵權人為維護公共利益、制止犯罪行為,向行政主管部門、司法機關等披露相關商業秘密,權利人主張其承擔侵權責任的,人民法院一般不予支持?!钡牵谡酵ㄟ^的《商業秘密司法解釋》中將其刪除。2020年國家市場監督管理總局《商業秘密保護規定(征求意見稿)》第19 條列入了侵犯商業秘密行為的例外,其中第四款規定“商業秘密權利人或持有人的員工、前員工或合作方基于環境保護、公共衛生、公共安全、揭露違法犯罪行為等公共利益或國家利益需要,而必須披露商業秘密的?!笨梢宰鳛樯虡I秘密保護的例外。此外,我國也在地方性法規和規范性法律文件中,就公共利益對商業秘密的限制進行了原則性的規定。如《廣東省技術秘密保護條例》《浙江省技術秘密保護辦法》《深圳經濟特區企業技術秘密保護條例》等。63. 《廣東省技術秘密保護條例》第3 條第三款規定:“有損社會公共利益、違背社會道德的技術秘密,不受本條例保護?!薄墩憬〖夹g秘密保護辦法》第4 條規定:“違反法律、法規,損害國家利益、社會公共利益,違背公共道德的技術秘密,不受本辦法保護。”《深圳經濟特區企業技術秘密保護條例》第9 條規定:“違反法律、法規,損害國家利益、社會公共利益,違背公共道德的技術秘密,不在本條例的保護范圍?!边@也意味著算法商業秘密持有者并不能利用法律對商業秘密的保護,拒絕所有情形下的算法透明。

從以上我國現有立法來看,各規定過于分散,在各自立法目的指導下,對商業秘密保護限制的具體規范與標準不一,限制的范圍缺乏系統性考量,沒有形成體系化的指引。這也導致現有規則在司法實踐中適用難度較大,難以發揮其應有效用。為此,應當從立法層面完善我國商業秘密保護規范構造中的公共利益抗辯規則,以實現算法透明與商業秘密保護之間的利益平衡。

第一,在立法模式上,采用列舉概括并用模式。商業秘密保護的范圍隨著社會經濟的發展呈不斷動態擴張的趨勢,單純列舉式的方法必將難以適應新業態的發展。此外,公共利益是一個具有高度抽象性的概念,無法完全列舉。同時,又需要詳盡列舉降低公共利益的抽象性,增強法律規定的明確性和可操作性。

第二,在公共利益的核心指向上,應確定適用的具體范圍。盡管“公共利益”作為“以價值判斷為核心的不確定的法律概念”64. 余軍: 《“公共利益”的論證方法探析》,載《當代法學》2012年第 4 期,第 19 頁。,其內涵的界定一直存在諸多爭議,但從域外相關立法和司法實踐的經驗中依然可以找到值得借鑒的方向。在美國,根據《保護商業秘密法》《統一商業秘密法》以及相關聯邦立法規定,公共利益抗辯事由主要涉及公共健康、公共安全、披露犯罪或侵權行為、言論和出版自由,與此同時,美國法院通過判例還確定了涉及國家安全、公共設施、維護商業道德和自由競爭秩序以及基本權利的公共利益抗辯情形。65. 參見黃武雙:《英美商業秘密保護中的公共利益抗辯規則及對我國的啟示》,載《知識產權》2009年第3 期,第85-88 頁。在歐盟,《商業秘密保護指令》中所及為保護公共利益而進行披露的,主要涉及不當行為、不道德行為或者非法行為。相較之下,歐盟所設立的公共利益抗辯規則適用范圍比美國更廣。之所以有此差別,主要還是因為各國和地區的國情、政策不同,對商業秘密保護的力度不同。鑒于我國目前處于強化商業秘密保護的政策立場,我國現階段的公共利益抗辯規則設計應將適用范圍限縮在核心性公共利益上,并且實踐中對公共利益內涵與外延的解釋也應當非常謹慎。具言之,相關人可基于以下情形提起公共利益抗辯:國家安全;公眾健康與安全;環境保護;揭露、制止已經發生、正在發生或即將發生的犯罪行為;基于保護其他公共利益的需要。

第三,在商業秘密披露的方式和對象上,應當做出更偏向于商業秘密權利人的傾斜式設計,選擇最低限度干預商業秘密保護的披露手段,以免貿然公開秘密信息對權利人造成無法挽回的損失。當算法商業秘密保護需要對公共利益作出讓步時,只是算法持有者的經營自主權在行使時受到一定克減,而非意味著對商業秘密這一私權利價值的全然否定。因此,立法上需要選擇一種對商業秘密權利人私權利損害最小的披露方式。對比來看,《商業秘密保護規定(征求意見稿)》在有關商業秘密披露方式和對象的限制上總體與《美國保護商業秘密法》相似,其中“須以保密方式提交包含商業秘密的文件或法律文書”“向有關國家行政機關、司法機關及其工作人員”等程序性條款內容,為公共利益抗辯規則提供了具體化操作流程的補充,能夠避免條款在適用過程中流于形式。在此意義上,即使是出于保護公共利益的需要,算法持有者的員工或合作方等對算法更為了解的相關人對算法的披露方式也需要以秘密的形式,向國家機關披露。

六、結語

數字經濟是當今世界經濟發展的重要引擎,而數字經濟發展的核心離不開數字技術的發展,作為數字技術三要素(數據、算力和算法)之一的算法在助力數字產業發展的同時,算法黑箱化也帶來了法律問責難題。算法透明作為化解算法風險的重要一環,有助于規訓算法權力,維護個人利益和社會公共利益。但實踐中,算法透明與商業秘密保護之間存在著緊張關系。解決之道在于取得算法透明與商業秘密保護之間的微妙平衡,即在“調和論”下尋求適當的算法透明和合理的商業秘密保護。對算法解釋框架進行系統性重構,可以遵循分類分級的整體布局以及比例原則下的個案認定,構筑算法解釋的差序規制格局,進而實現總體的解釋效率和個案的解釋正義。此外,進一步建立健全算法監督機制,實現適當的透明。與此同時,對商業秘密保護的限制制度進行完善,明確商業秘密內容的“合法性”要件,完善公共利益抗辯制度。

主站蜘蛛池模板: 亚洲免费成人网| 国产精品偷伦在线观看| 狂欢视频在线观看不卡| 日本成人一区| 久久精品人人做人人爽电影蜜月| 99色亚洲国产精品11p| 成人在线第一页| www.日韩三级| 欧美国产日产一区二区| 天天躁狠狠躁| 国产精品妖精视频| 大学生久久香蕉国产线观看| 欧美影院久久| 91最新精品视频发布页| 永久毛片在线播| 色妞www精品视频一级下载| 精品一區二區久久久久久久網站| 亚洲成人播放| 国产人妖视频一区在线观看| 国产精品视频第一专区| 国产免费网址| 自拍亚洲欧美精品| 激情网址在线观看| 精品久久久无码专区中文字幕| 亚洲欧美成aⅴ人在线观看| 中文国产成人精品久久| 精品福利视频导航| 亚洲美女视频一区| 国产乱子精品一区二区在线观看| 国产精品私拍在线爆乳| a天堂视频| 制服丝袜国产精品| 欧美成人综合在线| 中文字幕色在线| 波多野结衣在线se| 亚洲男人的天堂在线| 久久精品视频一| 亚洲国产成人无码AV在线影院L| 国产成人亚洲综合a∨婷婷| 丰满人妻一区二区三区视频| 男女男精品视频| 波多野结衣AV无码久久一区| 综合色区亚洲熟妇在线| 玖玖精品在线| 欧美综合成人| 欧美精品一区二区三区中文字幕| 日韩国产综合精选| 91精品免费久久久| 在线日韩日本国产亚洲| 精品少妇人妻无码久久| 天堂成人av| 亚洲精品大秀视频| 国产精品无码翘臀在线看纯欲| 19国产精品麻豆免费观看| 亚洲国产亚综合在线区| 麻豆AV网站免费进入| 亚洲国产系列| 亚洲欧洲日韩国产综合在线二区| 国产亚洲精品91| 青青青国产视频手机| 欧美国产精品拍自| 国产成人精品高清不卡在线| 久久精品电影| 国产乱人乱偷精品视频a人人澡| 国产第三区| 三级毛片在线播放| 51国产偷自视频区视频手机观看| 国产精品无码作爱| 国产在线自揄拍揄视频网站| 精品综合久久久久久97超人该| 国产极品嫩模在线观看91| 狠狠做深爱婷婷综合一区| 免费欧美一级| 欧美乱妇高清无乱码免费| 中文一区二区视频| 日韩在线欧美在线| 99九九成人免费视频精品| 日本人妻一区二区三区不卡影院| 狠狠色丁婷婷综合久久| 亚洲综合经典在线一区二区| 99热线精品大全在线观看| 亚洲国产亚洲综合在线尤物|