【摘要】科技革命推動人類社會進入到以算法為中心的智能社會法律秩序,自動化決策在便利司法實踐的同時也帶來了巨大的風險與挑戰。“COMPAS預測罪犯再犯概率錯誤”、“GAAP加大數據鴻溝”等問題都凸顯了算法決策的不足。技術的進步與法治的發展呈現出不協調性,自動化決策糾錯的法律規制研究順理成章。
【關鍵詞】算法解釋權;決策影響評估機制;更正權
中圖分類號:G212? ? ? ? ? ? ? ? 文獻標識碼:A? ? ? ? ? ? ? ? ? ? ?DOI:10.12246/j.issn.1673-0348.2021.07.091
1. 算法自動化決策概念
算法自動化決策是與自然人決策相對立的概念,意指利用計算機技術、算法程序、深度學習或神經網絡替代自然人處理關鍵數據,憑借其自動生成對數據主體具有法律效果的決策的行為。《中華人民共和國個人信息保護法(草案)》將自動化決策定義為利用個人信息對個人的行為習慣、興趣愛好或者經濟、健康、信用狀況等,通過計算機程序自動分析、評估并進行決策的活動。
在《通用數據保護條例》中自動化決策又稱為自主化的個人決策,其產生的合法性有三個途徑,一是基于數據主體明確同意后的自動化處理;二是基于數據主體和另外一個數據控制者合同履行的必要;三是在控制者為數據主體,以及確立保護數據主體權利、自由和正當化利益的適當措施是聯盟或成員國法律所規定時候。
自動化決策根據數據模型對數據主體作出反應或預測。因此,自動化決策分為預測型算法自動化決策和反應型算法自動化決策,反應型算法自動化決策的基本模型為收集數據——匹配條件——作出決策;預測性算法自動化決策是指根據以往的數據資料,預先對數據主體作出判斷,最常見的預測性算法自動化決策是根據某人征信記錄來限制高消費。預測型算法可以在事情發生之前調配資源進行合理分配,實現利益最大化。
2. 算法自動化決策的弊端
2.1 算法“黑箱”遮蔽當事人知情權
算法“黑箱”產生于信息的不對稱和不公開。技術本身的復雜性以及媒體機構、技術公司的排他性商業政策,使得算法猶如一個未知的“黑箱”——用戶并不清楚算法的目標和意圖,也無從獲悉算法設計者、實際控制者以及機器生成內容的責任歸屬等信息,更談不上對其進行評判和監督。算法自動化決策的重要特點之一是在瞬間作出決定,因此信息處理者在每一次處理個人信息前想要取得每個信息主體的知情同意是不切實際的。從技術層面而言,每次的發送與反饋給節點帶來了太多負擔;從經濟利益角度看,取消通知環節能夠追求更多的利益,在巨大的利益面前,當事人的權利自然得不到重視。
2.2 算法歧視損害社會平等權
從數據客觀主義出發,大多數人認為算法結果是完全中立的。但實踐證明,邏輯上的中立并不等同于結果上的中立,即使是在事前預先設立的統一標準指令也可能表現出偏見,算法程序在預先編寫時將人類的歧視文化連同數據一起歸納。只歸納不演繹,對樣本數據偏見的輸入使得算法自動化決策建立在通過刻板印象所形成的范疇上。針對一個新來的數據主體,計算機在沒有外界所介入和更正的情況下,按照已知的數據特征將其自動歸屬于“最像”的那個類中。不考慮其他外在因素,只計算樣本結果并依此作出決定,必然會擴大偏見與不公。與計算機相比,人腦在數據精準性上固然無法匹敵,但排除人腦的綜合考慮因素和主觀情感,以及某些時候數據無意缺失導致算法“雙眼”的蒙蔽,在瞬間將某人分類的預前判斷帶來的是道德和倫理上的社會歧視。一個剛出獄的犯人可能因為算法的提前預判而失去改過自新的機會從而無法回歸社會,社會鴻溝在無形中進一步加劇,法律所提倡的人人平等也因為過度信賴數據而導致形同虛設。
2.3 算法壟斷侵蝕程序正義
算法技術作為商業秘密,期源代碼都處于隱藏狀態,運行方式并不公開。當算法作出具有法律效應的決策時,數據主體并沒有參與其中,在得出結果的途中程序正義被忽視。技術公司壟斷了硬件與算法系統的開發、設計和使用,在使用數據主體數據的同時卻拒絕對公眾公布算法收集處理數據的權限和過程,正當程序在某種程度上被架空,當事人無法參與決策過程。當事人參與決策過程是為了更好的事實認定和法律適用,但由于算法技術壟斷,法院在適用決策結果時傾向于認定該結果是正確的,然后依照結論去推導過程。因為技術的不透明和壟斷性,當事人很難參與到決策中去,程序上的權利被架空。算法作為一種極為復雜的技術,拉開了數據主體和數據控制者之間的差距,后者享有某種獨特的算法權力。
3. 算法自動化決策的法律糾錯機制
3.1 落實算法解釋權
算法“解釋權”是指數據主體有權要求數據控制者對算法決策的目的、過程、結果進行解釋。早在1995年,歐美《數據保護指令》12條就規定了數據主體有權了解其個人數據如何被處理及數據自動化處理系統的內在邏輯。《個人信息保護法(草案)》第四十八條規定,個人有權要求個人信息處理者對其個人信息處理規則進行解釋說明。但提出并不等于落實,草案中所規定的數據主體所擁有的算法解釋權在具體落實上存在一些問題:1、算法解釋權作為一種請求權,僅限于個人認為自動化決策對其產生重大影響時才能行使;2、數據主體行使請求權的范圍尚不明確,導致數據控制者以企業享有商業秘密為由對抗算法解釋權;3、算法的專業性和復雜性使得數據主體對解釋的內容無法進行核實。
算法解釋權作為一種請求權,應當從權利本身構成要件入手,對該項請求權的內核和外延予以精細化設計,為落實算法解釋權提供切實可行的操作指南。首先,行權應當確權,一方面預先設定權利所包含的內容可以起到指導作用,另一方面內容的確定也是對于權利主體的一種約束,無限擴大權利內容會侵犯企業的商業秘密阻礙經濟發展。其次,降低數據主體對于其權益造成重大影響這一事實的舉證責任,只要主體認為自動化決策對其權益產生重要影響,就應當賦予其算法解釋請求權,不要求主體具體說明其權益受到了多少損害。最后,解釋方在收到數據主體解釋請求權時,應該采取最通俗易懂的語言來描述其對于數據主體信息的利用和控制。
3.2 構建算法決策影響評估機制
算法自動化決策在投入使用前應該經過公眾參與評估,影響評估機制既能擴大社會參與度,也能監督數據控制者和使用者。2018年4月,AI Now研究院就發布了一份有關算法影響評估(AIA)的報告,針對可能對數據主體權利造成影響的算法自動化決策系統,應允許社區和利益相關者進行評估,以確定是否可以以及在什么領域使用算法。我國也采用這種方法。個人算法決策影響評估機制應包含主體、內容、模型建構以及結果應用四個緯度。在評估主體上應該引入第三方輔助機制,算法評估是一項對技術要求比較高的活動,對于參與者的專業素養要求較高,一般普通人很難具有相關的知識水平,為了保證評估的準確性,數據主體有權聘請具有相關知識的人介入其中輔助理解算法含義。在評估內容方面,評估者應向公眾解釋所采取的評估機制是什么,他們獲取個人數據的途徑、使用目的、范圍、時間、使用方法等。同時,問卷的編寫不能只依靠評估者,對于樣本數量的采集一定要盡可能保持全面和公正,使所得出來的結果具有彈性。在評估機制模型建構上,考慮到數據的不完整性和復雜性,采取貝葉斯網絡模型可以更加清楚實現了解眾多因素和決策影響之間的聯系。經過數據主體參與評估所得出來的結果數據應用遵循“數據→評估報告→決策”的實踐邏輯,數據和分析結果之間一一對應,分析結果和決策之間一一對應。決策實施后,評估者應該審核程序,發現、衡量或長期追蹤系統的影響風險評估報告和處理情況記錄應當至少保存三年。
3.3 賦予數據主體“更正權”
“更正權”賦予數據主體在自動化決策產生錯誤時向數據控制者提出異議且要求數據控制者進行更正決策的權利。目前我國對于數據主體的“更正權”定義為:本人得以請求信息處理主體對不正確、不全面、不時新的個人信息進行更正與補充的權利。其包含錯誤信息修改權與過期信息更新權兩個方面。法律僅僅賦予了自然人個人信息更正權,沒有賦予其他組織,對于其他組織的保護一片空白。其次,法人也僅能更正個人信息錯誤處或更新已經過時的個人信息,對于自動化決策本身的價值還是肯定的,偏信決策的誤差來源于數據的錯誤。數據主體想要改變自動化決策只有當利益受損后向法院提起民事訴訟、行政復議、行政訴訟。因此,賦予數據主體自動化決策更正權是有現實意義的。
數據主體行使“更正權”不能僅簡單將個人信息數據核實、更新后再次輸入算法程序進行決策,當在數據主體提出自動化決策結果錯誤并且證明確有錯誤后,應對算法程序保有懷疑并適當進行人工介入。
4. 結語
媒介的發展讓社會變得扁平化,但自動化決策過程卻并不是公開的,“讓所有人看到你的決策”不意味著讓所有人參與自己的決策。算法黑箱、算法歧視、算法壟斷以及知識鴻溝的出現使得數據主體無從知曉決策的原因,效率提高的同時人們的權益也在不斷被侵害。問題解決的核心不在于算法應不應該作出決策,而在于算法是否能作出準確決策,以及事后能否給予救濟,賽博空間也需要法律來維持穩定。
參考文獻:
[1]唐林垚.“脫離算法自動化決策權”的虛幻承諾[J].東方法學,2020(06):18-33.
[2]張凌寒.算法自動化決策與行政正當程序制度的沖突與調和[J].東方法學,2020(06):4-17.
[3]張玉宏,秦志光,肖樂.大數據算法的歧視本質[J].自然辯證法研究,2017,33(05):81-86.
[4]解正山.算法決策規制——以算法“解釋權”為中心[J].現代法學,2020,42(01):179-193.
[5]鄒東升,陳昶."數據式"社會穩定風險評估:困境、邏輯與路徑[J].情報雜志,2020,39(5):129-136.DOI:10.3969/j.issn.1002-1965.2020.05.020.
[6]胡文娟.公共機構應如何評估算法決策的影響[J].WTO經濟導刊,2018,No.174(04):51-52.
[7]齊愛民.論個人信息的法律保護[J].蘇州大學學報,2005(02):30-35.
作者簡介:姚玲,湖南工商大學法學與公共管理學院碩士研究生,研究方向為法理學。