999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

算法解釋權質疑

2021-06-17 23:33:21辛巧巧
求是學刊 2021年3期

摘要:近年來隨著算法決策運用增多,如何規制算法決策引起了學界廣泛的關注。表面上來看,算法解釋權是打開算法黑箱,使算法決策過程透明化和可理解的理想手段。然而,算法解釋權并非國際立法之通例,可行性不高,難以發揮實際作用,重要性和必要性不足,在既有法律體系下,其旨在實現的功能和目標,均可為其他法律規制手段所實現,無須另行創設算法解釋權。用法律引導和規制算法,需要從注重公私法合力、充分利用現有法律規范、根據行業特點制定各類安全標準、細化告知披露義務等多方面著手。

關鍵詞:算法決策;算法黑箱;算法解釋權;算法規制

作者簡介:辛巧巧,中國政法大學博士后(北京 100088)

基金項目:中國法學會民法學研究會青年學者研究項目“我國公共不動產役權制度研究”(2018MFXH005)

DOI編碼:10.19667/j.cnki.cn23-1070/c.2021.03.011

一、問題的提出

人類進入21世紀以來,智能工具和算法應用日益廣泛,深刻影響了大眾的日常生活。算法決策,尤其是自動化算法決策,以其高效、客觀、便捷的特點,廣受歡迎。在商業領域,企業使用算法決策為用戶提供個性化新聞推薦、精準廣告推薦、智能語音、圖像識別等服務。在公共領域,政府機構使用算法決策進行自動化行政辦公,為公眾提供線上自動化行政服務,司法機構使用算法決策進行智能審判,如虛假訴訟甄別、證據判斷、智能庭審記錄、類案推薦、量刑輔助、文書生成,等等。

隨著算法應用的增多,算法決策中存在的問題和隱藏的風險也日益顯現。人們發現,算法決策結果并非絕對的公平公正,算法決策結果也可能帶有歧視和偏見,也可能是不公正的。然而,面對機器學習算法具有自主學習和難以解釋的特點,傳統法律規制方式似乎力有不逮。因此,如何規制算法問題成為了當前法學界研究的熱點問題。

針對機器學習算法復雜且難以理解的特點,以及由此引發的算法“黑箱”問題,算法解釋權的呼吁和探討興起。一般認為,算法解釋權是對算法輸出進行解釋的權利,對個人法律或經濟上有重大影響的算法決策進行解釋的個人權利。算法解釋權直觀地承諾使算法更加透明和可理解,從而有利于及時發現算法決策中存在的問題,并提出異議和質疑,提高算法的可責性,化解算法危機。因此,一些論者主張在我國法中設置算法解釋權作為新型的算法權利。更有論者認為,可解釋性原則是算法治理和算法規制需要堅持的第一原則。1

本文旨在探討,算法解釋權是否可以有效地實現算法透明和促進算法理解,算法解釋權是否規制算法的可行措施或最佳措施,進而揭示,算法解釋權既不可行,也無必要,而且,設置算法解釋權旨在達成的目標,可以采用其他更為合適的方法和途徑完成。

二、算法解釋權理論之提要

(一)算法解釋權的提出

2018年歐盟頒布的《通用數據保護條例》(GDPR)被認為首次在立法中提出和創設了算法解釋權。該法在序言第71條指出,對個人法律或經濟上有重大影響的自動化決策應當受到適當的法律措施的約束,這些措施包括向數據主體提供具體信息以及獲得人工干預、表達意見、獲取決策如何做出的解釋和對決策提出質疑的權利。其中首次提及“解釋”(explanation),即數據主體有權要求對個人法律或經濟上有重大影響的自動化決策進行解釋的個人權利。為此,歐盟學者就GDPR是否設立了算法解釋權以及有無必要設置算法解釋權展開了爭論,在該規定和相關研究的啟示下,我國一些學者也呼吁我國立法引入算法解釋權。

在國內,對于算法解釋權尚無統一定義,以算法決策作為解釋客體,有學者強調解釋與具體決策的相關性,認為算法解釋權是包括異議、解釋、更新、更正的一系列權利;2也有學者強調解釋決策得出的過程,僅強調解釋的權利。3但不管持何種觀點,算法解釋權的核心是“解釋”,即尋求特定算法決策結果的原因和理由。同時,在類型上,學者依據解釋的對象和解釋的時間的不同,將算法解釋權中的解釋分為以系統功能為中心的解釋與以具體決策為中心的解釋,以及具體決策做出前的“事前解釋”與具體決策做出后的“事后解釋”4。

(二)對算法解釋權的呼吁及其理由

目前,支持算法解釋權的理由主要有:

第一,算法解釋權可以打開算法“黑箱”,實現算法透明,提高算法的可責性,解決“算法歧視”“算法不公”等問題。這種觀點認為,算法“黑箱”導致了算法決策責任性的缺失,算法解釋權可以增強算法透明度,使復雜的算法決策為人所理解,從而增強算法的責任性。5算法解釋權可以使相對人了解決策是如何做出的,進而發現決策過程和結果中存在的歧視和不公問題。

第二,算法解釋權有助于矯正商業算法決策中權力地位不平等的狀態,解決“算法暴政”“算法霸權”問題。這種觀點認為,算法解釋權可以矯正商業自動化決策中的信息不對稱,平衡自動化決策者和相對人的地位不平等狀態,限制算法權力,從而實現合同平等、自由和正義。6算法解釋權可以體現對相對人意思自治的尊重,1關乎用戶的自主、尊嚴及人格,有助于消弭數字鴻溝,對抗“算法霸權”2。

第三,作為規則的算法需要解釋。這種觀點認為,算法與傳統法律均屬于規則,作為規則的法律需要進行解釋,同樣作為規則的算法也需要解釋。

第四,算法是可解釋的。這種觀點認為,多數算法具有可解釋性。3而且,可解釋性的機器學習方法正在成為計算機科學中一個活躍的新興熱門領域,這為算法解釋權的可行性提供了技術基礎。

第五,通過特定的解釋方法,可以回避解釋上的技術難題和認知上的理解難題。這種觀點主張,算法解釋權追求的是可理解的解釋權4和“可理解的透明度”,即沒有算法專業知識的普通大眾也可以獨立地理解。5具體實現途徑為:一是通過“反設事實解釋”的方法予以解釋,即不關注算法內部運作邏輯,而是關注輸入數據和輸出結果之間的關聯關系,告知哪些事實影響了最終的輸出結果。6二是通過簡明的自然語言、可視化圖表等普通人能夠充分理解的方式予以解釋。7

第六,通過限定解釋對象和解釋范圍,明確解釋條件,可以避免算法解釋權帶來的弊端。為避免泄露知識產權和商業秘密,有學者主張,算法解釋權尋求的是“適當透明性”,不用完全公開算法,只用“對算法模型的邏輯和有意義的信息”進行解釋,8例如,做出具體決策所參考的數據、主體畫像、數據權重等信息。9也有學者主張,算法解釋權尋求的是“有法律意義的信息”,解釋的內容不用包括技術細節。10還有學者主張,“在解釋對象上算法僅向某些特定群體進行小范圍的公開解釋,在解釋范圍上核心算法可以不解釋不公開,在解釋條件上由法律明確規定”11或者“僅在個案中向單個數據主體披露”12。

第七,通過限制算法解釋權的適用,化解算法解釋權面臨的難題。這種觀點認為,可以通過設置權利行使的門檻,防止權利濫用,避免設置解釋權所帶來的較高的解釋成本和對決策效力的影響。具體而言,即僅當決策結果與合理預期不相符時才可主張這一權利,并在有關機關內部設置單獨部門對解釋請求做形式審查。13

第八,算法解釋權在歐美法中已經是法定的權利。這種觀點通常認為,2018年生效的歐盟《通用數據保護條例》(GDPR)第13條、第14條、第15條、第22條和序言第71條,14美國《信貸機會均等法》(ECOA)與《公平信用報告法》(FCRA)中規定的不利行動告知條款,以及2017年《關于算法透明性和可問責性的聲明》中提及的算法解釋原則,從立法上肯定了算法解釋權。

從上述理由來看,算法解釋權直觀地承諾可以打開算法“黑箱”,促進算法透明和理解,提高算法問責的可能性,似乎是一種具有吸引力的、可行且有必要的規制方式。但實際真的是這樣嗎?

三、算法解釋權的實然性和可行性質疑

(一)算法解釋權的實然性質疑

第一,算法解釋權在歐盟法中是否是實然的法定權利還有較多爭議,即使是也存在著重大缺陷。歐盟GDPR僅在序言第71條提及“解釋”,由于序言對歐盟各國不具備直接的法律約束力,1在歐盟各國能否得到承認還有疑問,這導致了法律的不確定性。GDPR第13條和第14條規定的是知情權,第15條規定的是訪問權,第22條規定的是拒絕權、異議權,也難以直接作為算法解釋權的法律依據。即使肯認GDPR設立了算法解釋權,這一權利也存在著適用范圍有限,適用標準不明確,甚至自相矛盾的缺點。2具體而言:其一,算法解釋權僅適用于基于個人數據做出的、非公共決策的、對個人“法律或經濟上”有“重大”影響的自動化決策,這使得大多數算法決策爭議案件都不能適用這一權利。3其二,對于何為算法自動化決策,何為“重大”的算法自動化決策,沒有明確標準,而且,也未規定算法解釋權的行使規則和算法解釋所需要達到的標準。其三,GDPR第22條(1)規定,如果算法決策對數據主體有法律效力或者重大影響,那么這種決策不應純粹由算法做出。結合上述其一可能導致這一權利無適用對象。可見,即使從形式上而言,這一規定也存在著重大缺陷。將其直接引入我國值得商榷。

第二,算法解釋權在美國法中尚未被承認。美國法中被學者們視為算法解釋權法定依據的條款,實際上并未賦予個人算法解釋權。根據美國《信貸機會均等法》等的規定,只要是不良信用記錄均需要說明原因,并非僅針對算法生成的信用記錄,而且,是通過對信用機構施加一般性的說明告知義務的方式而非賦予個人算法解釋權的方式來實現的。《關于算法透明性和可問責性的聲明》,鼓勵使用算法決策系統的機構主動對算法過程和特定決策提供解釋,也并未賦予用戶算法解釋權。考慮到解釋的技術可行性難題,該項聲明中提及的七項算法治理原則,除解釋原則是“鼓勵”之外,其余六項均為“應該”達到的。4

總之,算法解釋權并非國際立法之通例,歐盟法中的現有規定也尚不足以支撐我國引入這一新型權利,還需要從可行性和必要性等更為本質的角度進一步討論。

(二)算法解釋權的可行性質疑

第一,機器學習算法的可解釋性較弱,即使是設置算法解釋權也難以執行。算法解釋權行使的前提是算法解釋在技術上的可行性。簡單算法的解釋尚屬可行,但機器學習算法,尤其是深度學習算法,很難解釋其模型輸出結果產生的原因。基于數據驅動的機器學習算法模型,可以從海量數據中直接提取特征,進行分析運算,生成預估。其中,深度學習算法更是一種擁有自主學習能力的動態算法,在算法工程師選擇了最初的算法模型后,算法會不斷地吸收新的信息并構建更為復雜的算法模型,有時結果的生成還會參入隨機因素,這使得即使是算法設計者也無法解釋自己所設計的算法模型結果生成的原因。因此,對于機器學習算法而言,即使設置算法解釋,也難以執行,易流于形式、形同虛設,5無法實現規范的目的。

第二,可解釋性的機器學習方法也難以支撐算法解釋權。其一,可解釋性的機器學習方法難以從技術上為法律上的解釋權提供充分的支撐。可解釋性的機器學習方法雖然可以幫助了解算法決策是如何做出的,幫助推導輸入與輸出之間的因果關系,但很大程度上,這種因果關系只是統計意義上的,而非規范意義上的,二者之間存在著難以跨越的價值鴻溝。1其二,可解釋性的要求需要以準確性為代價,強行設置算法解釋權會影響算法決策的效率和準確性。算法的準確性通常隨其復雜性而變化,算法越復雜,準確性越高,解釋就越困難。目前,可解釋性的要求需要以犧牲準確性為代價。這使得可解釋的算法應用場景有限,因為僅在少數領域可解釋比準確性更重要,在多數場合下,可解釋性的要求不能以犧牲或約束性能、扼殺效益為代價。例如,對于自動駕駛而言,能夠解釋事故重要,還是避免事故更重要?解釋事故關系到事后法律追責,而避免事故直接關系到乘坐人員的人身安全。可解釋性的機器學習方法雖然為機器學習算法的解釋提供了可期待的技術基礎,但不得不面臨可解釋性與準確性之間的折中選擇和權衡。強行設置算法解釋權客觀上可能犧牲算法決策的準確率,提高算法應用的開發成本,減緩行業發展,犧牲市場效率。

第三,即使是賦予用戶算法解釋權,許多用戶也難以獲得理解。機器學習算法具有高度的專業性和復雜性,機器學習算法模型中充滿了專業術語表達和復雜的非線性函數計算。對于算法模型最終輸出結果的原因和理由,許多具有專業知識背景的人士也難以完全理解并提出質疑,更不用說大多數非專業人士。即使完全公開算法模型,許多公眾和行政管理人員也難以獲得理解,更別說從中發現系統設計的偏見和不公因素。算法部署者可能還會通過模糊的、晦澀難懂的算法運行邏輯以及冗余混雜的數據信息來推卸責任,使算法解釋權成為逃避自身責任的工具,2從而妨礙追責。

運用簡明的表達方式或“反設事實解釋”也難以實現“可理解”的解釋權和“可理解”的透明度。其一,從信號輸入角度來看,算法作為一套可執行的計算機準則,是以計算機的語言和邏輯表達的,將機器的推理過程轉化為人類可認知、理解和表達的邏輯還存在著困難。機器學習算法模型中所提取的許多特征或變量,可能并不是如同“年齡”“性別”一般清晰,而是更加抽象的行為序列、模擬信號數字化等,一些特征或變量可能缺乏清晰的人類理解和解釋,難以用清晰的自然語言或可視化工具予以表達。3其二,在復雜的機器學習算法模型中,變量多而復雜,每個用戶可能擁有數以百萬甚至上億計的變量,任何輸入或計算都難以被稱為主要因素,全面概述或解釋模型輸出結果的影響變量、權重、邏輯在技術上是不可能的。即使是采用“反設事實解釋”也無法回避這一難題,因為“反設事實解釋”依然需要能夠說明影響決策結果的關鍵值、主要特征、權重占比。4而且,“反設事實解釋”是一種簡化的主邏輯的解釋,對于主邏輯之外的非核心因素及其復雜變換也難以提供有效的解釋。

第四,算法解釋權在權利保障上是低效的、不經濟的,即使賦予用戶算法解釋權,也不足以矯正算法權力。算法決策中的透明性和權力地位不平等問題,通常關系到用戶群體的利益,個體用戶行使權利難以保障群體用戶的權益,個體賦權式治理的碎片化特點甚至有可能還會阻礙集體行動的達成,5導致權利保障的低效和不經濟。個體賦權式治理還面臨著個體能力有限的問題,往往不足以對抗強大的資本,矯正現實社會中存在的權力地位不平等問題,難以實現真正的意思自治和交易自由。例如,算法解釋權行使的前提是知曉算法決策,但現實中,相對人可能不知對其產生影響的決策是由算法做出的,更不用說發起算法解釋權。

第五,設置算法解釋權不利于社會多元利益保護。商業算法決策系統中通常會有一些公司商業秘密、知識產權、個人隱私數據。政府部門的算法決策系統中除了個人信息、隱私數據之外,還可能會有一些國家秘密。設置算法解釋權有可能會造成個人隱私、商業秘密、知識產權等數據的泄露,不利于數據安全或國家安全,也難以防止黑客攻擊、算法惡意利用、競爭對手剽竊和效仿等風險,長遠來看會抑制算法應用的研發投資和產業創新。即使限制算法解釋權的解釋對象、范圍、條件,或僅提供“有法律意義的信息”,也難以避免知識產權和商業秘密等數據的泄露。允許公司“適當”地公開或提供解釋,為公司留出了一定的解釋空間,卻難以保證解釋和實際情況的一致性,更難以證明具體決策的正當性,仍然無法解決公眾的信任問題。而且,算法解釋權能否發揮作用對用戶個人能力依賴較強,用戶的技術理解能力差異使得解釋的“可理解”性會因人而異,這使得解釋的限度和程度難以確定,何為“有法律意義的信息”和“適當”的信息也難以分辨。這些方式難以化解算法解釋權與多元利益保護之間的緊張關系。

第六,設置算法解釋權會加重用戶和公司平臺雙方的負擔。對于個體用戶而言,享有難以實現理解的解釋權,會增加權利行使成本和認知負擔。對于企業而言,承擔大量難以實現的解釋義務,會增加企業的解釋成本和負擔。防止解釋權濫用而設置的門檻,提高了用戶獲得解釋的難度,卻不一定會減少解釋權的主張,反而會增加企業設置部門與形式審查的成本,而且也難以保證企業內部部門審查的公正性。

總之,實踐中,面對機器學習算法,算法解釋權的可行性不高,難以發揮實際作用。難以破除算法“黑箱”,帶來算法理解和算法透明,解決信息不對稱問題,也難以矯正算法權力,難以完全重塑算法決策的可責性。即使設置算法解釋權,也可能會流于形式,成為“僵尸權利”,甚至會引發新的問題,如影響算法決策的效率,不利于社會多元利益協調,帶來較高的解釋成本。

四、算法解釋權的重要性和必要性質疑

(一)算法解釋權的重要性質疑

第一,從算法決策問題的根源來看,算法“黑箱”,甚至算法,都并非唯一的或最主要的因素。算法決策中的“歧視”與“不公”,主要源于算法模型對現實社會中歧視與不公的吸收和實然反映,以及設計者的價值偏向滲入及其對算法方法選擇的不合適。算法“黑箱”帶來的信息不對稱與處理過程不透明,會導致算法決策中的問題難以被及時發現和監督,從而加劇和放大算法決策風險,但不能將算法應用危機的根源完全歸根于算法“黑箱”。而且,算法僅是算法決策涉及的技術和因素之一,算法決策中的許多問題并非來自于算法,數據、代碼程序、架構設計等系統其他的組成部分,以及外部環境變化、第三方干擾、人為破壞、惡意使用等,都可能導致算法決策結果出現問題。將注意力集中在算法上,將難以發現與算法決策相關的事實全貌。僅解釋算法,打開或破解算法“黑箱”,提高算法透明度,并不能完全重塑算法決策的可責性,也不能從根本上解決各類算法決策的風險。

第二,人類社會中大多數決策并不需要做出解釋。“黑箱”廣泛地存在于人類社會中,大多數時候并不需要解釋。在私人生活中,個人所做出的很多決策,并不需要向他人解釋。在市場經濟中,企業所做出的很多經營決策,同樣并不需要向消費者進行解釋。商業領域的自動化算法決策,許多是誘導性的而非強制性的,動態生成的、個性化的,此時,決策能夠在多大程度上影響用戶,往往與用戶個體自身本來的意愿息息相關,而且,用戶通過改變自己的個人行為,如點擊次數、閱讀時長,即可改變算法決策結果。雖然這些決策可能會對他人或消費者產生經濟上或法律上的影響,需要法律加以規制和治理,卻沒有解釋的必要。換言之,許多決策有規制必要,卻沒有解釋的必要,解釋權難以成為規制算法決策的通用工具。

總之,即使可以獲得理解,解釋權也難以成為治理算法最重要的工具,“可解釋原則”也難以成為規制算法的“第一原則”。

(二)算法解釋權的必要性質疑

現代社會復雜問題的決策通常不能不證自明,了解決策做出的理由、過程、優點、不足、風險,通常可以提高對于決策結果的信任和把握。從法律上讓算法決策更易理解、更具可責性,也具有重要意義,但算法解釋權所預期達成的目的和功效,在很大程度上,可以被其他更適合的規制方式所實現。

第一,設置算法解釋權的直接目的是提高算法的透明度和可理解性。透明和可理解要求,在法律領域一直存在,并非只有算法決策的場景才有的新需求,但一般并不會通過解釋權的方式實現。其一,雖然法律規則需要解釋,但法律并未賦予個體法律解釋權,而是通過程序和法律規范保障立法的科學性和嚴謹性,通過司法解釋來發展和完善法律,通過裁判說理的方式展現裁判依據和事實、理由,通過裁判宣讀和文書送達、上訴等程序機制以及裁判文書公開等制度保障訴訟當事人的權益。其二,行政領域重在規范權力運行的正當性,一般通過法定義務和正當程序、信息公開等方式來約束公權力的運行,保障公眾的合法權益,兼顧結果公平和過程公平。如我國法律規定了行政處罰告知義務、行政復議告知義務、行政信息公開制度,并通過程序性的規則保障公眾的知情、參與、異議和救濟的權利。其三,商業領域重在保護消費者的意思自治和交易自由、交易公平,主要采用知情權等個體權利以及告知義務等法定義務來糾正市場信息不對稱,為消費者提供更多的市場信息,從而促進實質上的交易自由與交易公平。例如,我國《消費者權益保護法》規定消費者享有知情權和選擇權,要求經營者承擔如實說明義務和風險警示義務,并對應當說明告知的具體事項、內容、方式進行了列舉和約束。1在醫療、證券、金融等對個人權益影響較大、關涉市場秩序或公共利益的領域,有關法律也規定了醫務人員的說明告知義務,發行人、上市公司的信息披露義務。2

第二,設置算法解釋權的最終目的是提高問責和及時提供救濟,3但這在很大程度上可以被事后面向結果的問責所實現。理解和解釋算法決策是如何做出的,或許對于厘清事實能夠提供一些幫助,但即使無法解釋原因和過程,算法部署者也應對其所使用的算法運行結果負責。雖然算法具有了一定的學習能力,但總體上而言,算法依然是人類的工具,算法輸出結果依然可以為人類所控。而且,即使是在技術上,對于機器學習算法模型的評估、管理和優化,也不是通過監督其內部結構和算法來實現的,而是通過約束其外部表征、結果和目標來實現的。如果預測的結果不正確或不符合設計目標,就會對模型進一步調試和修正。相較于原因的難以解釋,算法決策的目標和結果都是容易識別和判斷的。大多數算法決策結果可以用常識推理識別,進行合理性評判和規范評估。從法律上而言,對于這種復雜的算法模型系統的規制,相較于通過監督其內部的算法和技術細節,直接約束其輸出結果更為合適和更具可行性。應更加注重算法決策結果的公正性,而非對結果的解釋。4面向結果的問責也能倒逼算法部署者、設計者改善系統設計和技術措施,預防算法風險和危害。1

第三,從算法解釋權的核心內容和功能來看,是向相對人提供“解釋”。其一,以具體決策為中心的解釋,以糾紛解決機制中的舉證責任分配機制替代更為合適。當人們尋求解釋時,往往是在質疑算法決策的正當性和合理性,尋求更為正當的、公平的決策。而算法決策的正當性和合理性,不能以某一方的認知作為評價基礎,需要中立的第三方,將具體事實與規范相聯系,對決策結果進行個案分析和價值評價。因此,需要在糾紛解決機制中,結合歸責原則、過錯認定規則等,要求算法部署者負擔相應的舉證責任,證明決策結果的合理性。在必要時還可以配置專家證人輔助審判人員、訴訟當事人理解。可要求系統對決策關鍵數據作以記錄并保存一定時間,為糾紛解決提供數據證據。其二,以系統功能為中心的解釋,旨在提供對算法決策系統功能的一般性說明解釋,以知情權和說明告知等義務的規范方式替代更為合適。這至少有以下優勢:一是事后對系統功能的解釋說明,往往不如事前的說明告知及時和有意義;二是對于算法部署者而言,僅需依據法律規定的事項、框架和方式履行相關義務,行為標準清晰,具有較強的行為指引性和可預見性,可以避免承擔過重的技術成本和解釋成本;三是有利于克服用戶個體能力的局限性,保障用戶群體和社會公眾均能獲取有用的信息,對于矯正權力地位不平等和信息不對稱現象更加有效;四是其在內容上與知情權有較大的重合,采用知情權和告知等義務的規范方式,有利于沿續法律規制的傳統,避免法律沖突、權利內容發生重疊。

第四,從算法解釋權的其他內容和功能來看,與知情權、異議權、更正權等權利在內容上發生了較大的交錯重合。算法解釋權不能代替這些更具針對性的、獨立的權利,反而其功用可以被這些權利所分擔和承接。增設權利邊界并不清晰的算法解釋權,反而會造成法律冗余,與既有法律規范產生適用上的重復甚至沖突。2

總之,算法解釋權并非最為適合的規制方式,具有高度的可替代性。不賦予算法解釋權并不意味著放任不公開、不說理、不可理解,也并不代表不可救濟。在當前各領域均存在大量法律規范的情形下,解釋的功能和目標基本上已經被其他法律規范所分擔。而且,這些規制方式,在不對算法決策運行邏輯和結果進行解釋的情況下,較好地平衡了用戶權利保障與算法部署者利益保護之間的關系更為恰當。即使有解釋的需要,即使可以獲得理解,也無須以解釋權的方式實現,無設置解釋權的必要。

五、算法解釋權之外的可行路徑

算法解釋權表面上看似是規制算法決策與解決算法決策不公問題的理想手段,但實際上并不能提供有效的幫助。為了更好地實現算法決策公平,需要在充分利用現有法律資源的基礎上,探尋其他解決路徑彌補現有法律規制的不足之處。

第一,要注重公私法合力規制。當人們尋求解釋時往往是在尋求更為正當的決策,僅僅提供“解釋”難以滿足相對人尋求正當決策的目的和意圖。不能孤立地看待解釋需求,解釋需求的滿足是一個系統功能,需要多項法律規范統合性的規制。而且,面對強大的人工智能平臺、高度復雜的機器學習算法,以及算法已全方位滲透社會生活的現實,將權利救濟的希望寄托于個體賦權式的救濟之上是不切實際的,期望依靠單項權利或單一法律制度解決算法黑箱和算法不公問題也是難以實現的。整合性地運用公法和私法規范資源,通過法律、倫理、政策、行業規范等多種規制手段進行多領域多層次的統合規制,以及公私合力,政府、市場、社會力量共同參與,發揮行政規制、市場調控、社會自治多元機制的作用,多管齊下,才能在算法治理中形成體系性的周全的規制。

第二,要充分利用現有法律規范。由于算法技術和應用發展快速,容易大規模地投入使用和普及,規制缺失或規制不足時更容易造成較大的社會危害。而改變法律和倫理滯后于算法技術和業務發展的現狀,形成成熟而健全的規范體系,尚需要一段時間。在新的規范形成之前,有必要盡可能地利用現有法律資源,援用已有法律原則和條文規定,運用好既有治理框架、治理機構、治理技術,減少無規范狀態,引導算法規范化應用。具體到黑箱問題和透明性要求上,一些法律規則應當依然可以適用。因為如果某一事項需要保持透明或公開,那么無論是否使用算法或其他技術來達成該事項,都應如此。例如,司法裁判文書不論是由法官還是自動化審判系統做出的,都需要依法公開,并對相關的司法文檔進行保存。現行法律規定有告知義務、信息披露義務、信息公開義務的事項,如果是智能算法做出的,也應當履行相關義務。例如,行政處罰不論是不是自動化行政系統做出的,都需要履行依法告知義務。

第三,要根據行業特點,明確人工智能系統的設計和部署要求,制定具體的監管標準、設計標準、性能標準、安全標準、隱私標準,規范上線風險評估和安全審查標準與流程。例如,自動駕駛系統、臨床決策支持系統、智能投訴等,除了需要遵循汽車、醫療、金融等領域既有的安全規范和監管規范,還需要由相關部門結合系統特點有針對性地出臺具體的性能標準、質量標準等,保障系統上線入市使用前,性能經過充分的測試,具備準確性、穩定性、可靠性、安全性的基本要求。其中,要特別注意公共治理領域人工智能系統設計標準中的算法方法選擇要求。公共治理領域往往涉及公共秩序和公共利益,對于透明度的要求較高。在人工智能系統部署時就需要采用可理解性較強、能夠生成和輸出關鍵信息的算法,以化解算法黑箱與司法公開、行政公開的沖突。在算法部署時就應采用可理解性較強的算法模型,而非事后追求對不可解釋模型的強行解釋。如果一種可解釋的算法和一種不可解釋的算法所能實現的性能效果一樣好,宜優先選擇可解釋的算法,因為這更有助于后續理解、判斷和改進算法決策模型及結果。1

第四,要結合人工智能的特點,有針對性地細化告知義務、披露義務等法定義務的內容、標準和框架,對過往沒有的新型算法決策有針對性的立法。例如,對于行政處罰告知義務可以結合算法決策的特點進一步細化,要求對行政處罰算法決策的結果和主要依據保持透明。當對相對人做出的具體行政決策是由算法系統直接做出的,需要對算法輸出結果和支持的關鍵值保持透明。當算法結果僅是具體行政決策的支持,該項行政決策結果及包括算法結果在內的理由需要依照相關的規定以易獲取和易懂的方式向相對人予以說明或給出答復。值得注意的是,不僅算法,數據訓練、代碼編程、計算機架構體系等對于普通群眾而言也是難以理解的,告知、說明或披露義務不宜過于關注具體的技術細節,而應關注用戶使用該人工智能所受到的影響及其主要影響因素的告知、說明或披露。

第五,要完善數據主體的數據權利。數據對于人工智能最終輸出結果有著重要的影響。如果輸入的數據本身就包含歧視和偏見,就會被算法所“學習”并帶到輸出結果中,控制好數據輸入能夠較好地預防算法決策結果偏差。在商業領域,可采用數據收集利用知情同意規則,2賦予用戶更正權、刪除權、可攜帶權等個人權利,尊重用戶的數據利用意愿和提高用戶對個人數據的控制能力。在公共領域,可采用法定數據收集使用機制,由法律明確規定數據收集來源、范圍、主體,主要目的和用途,以保證正確的、相關的數據輸入,防止不合理的、歧視性的數據隨意錄入。當用戶發現數據錯誤或對結果不服時,可以提出異議、申訴,要求對錯誤進行更正。

第六,要明確平臺責任,加強平臺監管。網絡平臺是我國商業化人工智能應用的主要場所和實施主體,也是最有能力控制算法模型結果、預防算法技術風險的主體。以平臺為抓手,明確平臺應承擔的法律責任,加強平臺監管,可以較好地引導平臺自我規范,也有利于提高監管效率、落實監管責任。在平臺治理理念上要兼顧算法產業發展、消費者權益保護與算法規制,注重平臺、多方用戶的利益平衡。

第七,要建立良好的溝通反饋機制。社會不斷發展變化,不斷有新的現象和訴求產生,人工智能需要不斷地更新優化和升級才能滿足社會需求。有必要通過國家、行業、社會公眾多方面的力量推動平臺的自我反思和各界互動,促進平臺對算法持續性的優化,對智能算法系統不斷地更新、優化、升級,以滿足不斷發展變化的社會訴求。具體而言,在制度層面要建立和提供溝通反饋機制,及時根據公眾反饋、社會建議以及檢查監督情況優化改善系統,促進人工智能提供更具人性化和社會適應性的服務。

結 語

人工智能時代,智能工具和算法的運用在給人類社會帶來極大的福利的同時,也帶來了隱患。算法決策中的歧視和不公現象會損害相對人的權益。對此,算法解釋權被認為是一種有效可行的路徑。然而,實際上,算法解釋權難以成為規制算法的可行路徑和必要解決方案,更不能成為規制算法最重要的工具。算法解釋權并非國際立法之通例。從技術可行性、權利效用、社會多元利益保護、權利設置的成本上,算法解釋權也不具有可行性。強行設置算法解釋權,有可能流于形式難以執行,即使執行也會代價較大,影響市場效率,不利于多元利益保護,還可能與既有法律規定產生重合甚至沖突。而且,設置算法解釋權旨在實現的功能和目標,可以通過知情權、說明告知等義務、面向結果的問責機制等規制方式所分擔和承接,這些規范方式可以在不對算法決策結果或算法運行邏輯進行解釋的情況下,較好地平衡用戶權利保障與算法部署者利益保護之間的關系,是較算法解釋權更為合適的規制方式。總之,無須另行創設算法解釋權。為了更好地實現決策公平,有必要公私合力,在充分利用現有法律資源的基礎上結合算法決策的特點有針對性地完善相關規范,并分別結合商業算法決策和公共治理領域算法決策的特點進行有重點的規制,形成反思優化機制,促進算法應用與社會的良性互動。

[責任編輯 李宏弢]

主站蜘蛛池模板: 欧美丝袜高跟鞋一区二区| 热九九精品| 99精品视频在线观看免费播放| 免费国产福利| 久久香蕉国产线| av在线无码浏览| 国产手机在线小视频免费观看| 亚洲精品国产日韩无码AV永久免费网 | 国产欧美日韩视频怡春院| 久久久精品无码一二三区| 2021天堂在线亚洲精品专区| 无码啪啪精品天堂浪潮av| 亚洲成A人V欧美综合| 四虎精品免费久久| 精品人妻系列无码专区久久| 欧美激情第一欧美在线| 亚洲熟女偷拍| 欧美一区二区福利视频| 国产成人毛片| 999精品免费视频| 午夜性爽视频男人的天堂| 久久综合丝袜日本网| 久久99蜜桃精品久久久久小说| 欧美日韩一区二区三| 成人字幕网视频在线观看| 为你提供最新久久精品久久综合| 99久久亚洲精品影院| 国产高清在线观看91精品| 午夜a级毛片| 99久久精品国产精品亚洲| www.91中文字幕| 国产三级毛片| 亚洲天堂久久新| 国产特级毛片aaaaaa| 就去吻亚洲精品国产欧美| 亚洲伊人电影| 香蕉视频国产精品人| 中文字幕1区2区| 国内精品一区二区在线观看| 在线综合亚洲欧美网站| 岛国精品一区免费视频在线观看| 亚洲国产中文欧美在线人成大黄瓜 | 一区二区三区成人| 伊人中文网| 99re经典视频在线| 精品少妇人妻一区二区| 亚洲国产成人综合精品2020 | 高h视频在线| 国产农村妇女精品一二区| 超碰免费91| 九九免费观看全部免费视频| 亚洲国产中文精品va在线播放| 中文字幕无线码一区| 日本成人不卡视频| 国产成人av大片在线播放| 色综合网址| 国产日本一线在线观看免费| 久久99精品久久久久久不卡| 色婷婷啪啪| 亚洲国产理论片在线播放| 国产乱码精品一区二区三区中文 | 日韩精品一区二区三区大桥未久 | 国产精品极品美女自在线网站| 成人亚洲天堂| 91色爱欧美精品www| aⅴ免费在线观看| 四虎综合网| 欧美成人一级| 成年人国产网站| 亚洲精品国偷自产在线91正片| 国产人人干| 欧美午夜视频在线| 国产成人精品高清不卡在线| 亚洲第七页| 亚洲Av激情网五月天| 高清免费毛片| 精品一区国产精品| AⅤ色综合久久天堂AV色综合| 国产微拍精品| 亚洲精品在线影院| 国产微拍一区| 亚洲精选高清无码|