張志剛 施麗芳
近年來,算法在各個領域的應用日趨廣泛。算法為我們理解數據提供了幫助,這無形中帶來了諸多益處,如創新生活模式、激勵科學突破等。同時,算法也存在不少問題,如“信息繭房”效應、算法系統作為一個“黑箱”缺少透明性、算法歧視的產生、人類自我思考能力下降、加劇社會矛盾等等。美國當屬最早針對算法進行規制的國家。美國計算機協會(ACM)于2017 年就有關算法透明度及可審查性方面,發布了七項基本原則,并增強了規制算法歧視的自律性 。同年12 月,《算法問責法案》 由紐約州議會通過,這是美國首個通過立法監管算法的法案。
本文以算法所引發的法律問題為出發點,即算法推薦致陷“信息繭房”、算法黑箱以及算法歧視,通過分析問題產生的原因及其危害,論證對算法進行法制規制的必要性,并試圖提出對算法進行法律規制的建議。
算法(Algorithm)該詞起源于9世紀的一位名叫阿布·阿仆杜拉·穆罕默德·伊本·穆薩·花剌子密的波斯數學家 ,其含義是阿拉伯數字的運算法則。在人工智能時代,以計算機程序代碼為載體的“算法”被普遍應用。關于算法的概念,目前沒有統一的定義。科爾曼所理解的算法一般是指解決某一特定問題而采取的有限且明確的操作步驟 。西普塞認為算法是為了把問題解決而輸入的一套指令 。還有學者將算法理解為在有限的時間里逐步完成特定任務的過程。換言之,算法是在規定的步驟里,將輸入數據進行一系列的分析、計算從而輸出結果的過程。譬如,廣泛應用于日常生活中的手機導航算法為路上的無數司機提供方向指引;美國IBM 公司的認知技術平臺與Nextlaw Labs 合作開發的ROSS 系統,可以代替律師完成從法條、司法解釋和判例搜尋到研讀的一系列任務 。
算法最初被人類設計出來便是為了推動人類社會的發展,具有諸多的積極意義。算法在我們的生活中扮演著日益重要的角色,涵蓋教育、就業、新聞、住房、貸款申請、醫療衛生、政府決策、司法審判等等領域 。
第一,算法為我們的日常生活提供了更多的便利并大幅提升了效率。舉例來說,在網絡中傳播的海量數據和信息會導致人們篩選出自身所需內容的任務加重,從而產生過度的疲憊感。而推薦算法能夠根據用戶的閱讀習慣進行精準的推送內容,大幅降低了用戶獲取信息的成本,同時有效獲取到用戶自身所喜歡的內容。除此之外,操作系統的調度算法幫助我們順暢地使用操作系統;看似平凡的文字處理工具在排版、修訂方面能夠節省很多的成本,等等。算法的正向價值在無形中不斷擴大對社會的影響。
第二,算法技術合理應用于司法方面能夠增強案件判決的公正性,同時案件處理效率也會提高。在西方國家,法律專家系統 被用于法官判決案件時對類似案件的檢索,為司法資源和時間的節約產生了積極作用。在我國,最高院于2018 年發布的評價報告顯示,全國“智慧法院” 已經初步形成。通過使用算法技術對大量案件的分析,法官可以獲得一定的參考,從而有助于案件判決客觀性的提升,推動司法公正的實現。譬如,在當事人到法院立案時,通過智能機器的導訴便可以迅速辦理立案;在判決階段,通過算法分析提供的判決結果能夠為最終裁決提供參考,這些都能簡化訴訟程序 。
算法產生的的積極意義遠不止于此,社會日新月異的變化與算法息息相關,譬如政府利用算法進行行政管理,從而達到降低成本提高效率的目的,等等。
推薦算法,是計算機專業中的一種算法,是指依據用戶的某些行為進行一系列算法分析,從而推測出用戶可能喜歡的東西 。而“信息繭房”的概念,最早是出現在桑斯坦《信息烏托邦》一書中,主要指信息傳播中公眾對信息的需求并非涵蓋全部的,其只關心和選擇能使自己愉悅的領域,長此以往,會將自身束縛在蠶繭似的“繭房”里 。大量信息通過信息技術在網絡中傳播,由該技術所營造的愈加自我的思考環境,有些人或許會為了躲避社會矛盾而變得獨立。相同群體之間的溝通交流或許會因此更加高效,但相較于信息匱缺的時代,社會群體之間的溝通交流并不見得會更加順暢。
我國發布的《2016 年中國互聯網新聞市場研究報告》顯示,互聯網新聞已成為網民高頻使用的基礎類網絡應用,而通過算法可以調整用戶獲取的新聞信息順序,例如百度、谷歌等利用搜索引擎的方式對信息提供者和用戶之間進行匹配 。在互聯網時代,豐富的社會信息超過了個人或系統所能接受、處理、有效利用的范圍,最終將導致故障的狀態。應對這一現象,最理想的便是依據用戶的喜好向其推送相關新聞。然而,近幾年來,算法推薦變得不加節制甚至為引起用戶關注而持續推送同類、劣質信息,這極易促使用戶陷入“信息繭房”。《人民日報》于2017 年連續發布了三篇評論,針對通過算法向用戶自動推薦信息的互聯網業態提出批評意見,意在警示大家,不要受困于“信息繭房”,不要被算法左右我們獲取的信息 。2016 年“魏則西事件 ”反映了算法推薦極盡追逐利益的寫照。
作為一種隱喻的“黑箱”,已經被一部分人(算法設計者、開發者)知道,但另一部分人(受眾或用戶)不一定知道 。算法之所以被稱為黑箱,大體上是由于算法自身的工作原理不為一般人所熟知,這使得算法缺少透明性而難以監管。有學者總結了三種形式的不透明性,其一是“固有不透明”,由算法自身的復雜性帶來的;其二是“文義不透明”,產生于不同的技術認知水平;其三是“故意不透明”,產生于商業秘密或國家秘密 。
算法歧視,是指那些可能導致不公正、不合理結果的系統性和可重復性出現的錯誤,其中最常見的是對不同的人產生不同的結果或是對兩個條件相同或相似的人產生不同的結果 。例如,含有價格歧視因素的程序將出現“算法殺熟”現象,即同樣的商品或服務,老客戶看到的價格反而比新客戶要貴出許多的現象。
算法的歧視風險來源之一是算法使用者或設計者自身的偏見,這種偏見編入計算機程序后,隨著算法自身的不斷學習可能會逐漸暴露出來并被放大,導致決策不公。正如騰訊研究院曹建峰先生所言,算法是“以數學方式或者計算機代碼表達意見,包含其設計、目的、數據使用等等,這些都是由于設計者或開發者的自主選擇,他們或許還會將自身的偏見嵌入算法系統 ”。其次,大數據并非萬能藥。社會中存在著歧視機制,挖掘數據的過程極易重現現有的歧視模式。即使沒有經過手動編程,算法也可能會表現出這些趨勢,無論是否有意。“大數據集”的不完備性在一定程度上是由人類社會的不確定和復雜的客觀事實決定的。例如,人臉識別算法對于不同種族人類的識別準確率差異明顯,針對白人男性的錯誤率低于1%,而針對黑人女性的錯誤率卻高達35%,造成該差異正是由于黑人女性相關數據的缺失 。
算法歧視不僅極易導致個體失去獲取資源和實現自我完善的機會,損害個體公平,還容易出現強弱兩極分化的現象,損害社會群體的公平。算法在設計之初就是為了追求經濟利益和提升效率。企業在研發算法時,最先考慮的就是經濟利益和工作效率,為降低成本和增加利益,經濟利益的導向深深地影響算法的運行。
對算法進行法律規制將面臨空前復雜的挑戰,并且推進這一過程也需要時間。在承認算法于應用之中產生的價值的同時,應該對算法應用可能產生問題保持警惕性,通過完善關于算法的立法、強化算法監管等路徑,以達到有效規制算法的目的。
第一,針對算法推薦,《數據安全管理辦法(征求意見稿)》(以下簡稱《辦法》) 第二十三條規定,網絡運營者利用用戶數據和算法推送新聞信息、商業廣告等(以下簡稱“定向推送”),應當以明顯方式標明“定推”字樣,為用戶提供停止接收定向推送信息的功能。該條款明確了“定向推送”的內涵,對用戶脫離信息繭房的桎梏具有重要意義。筆者建議可以增加網絡運營商的告知義務,以電子郵件等形式將清除結果發送給用戶,保障用戶的知情權、隱私權,減少同類劣質信息的推送。其次,《辦法》中對網絡運營商明確施加了不得歧視的義務,其中第十三條規定了禁止對個人信息分析后進行定價歧視,這明顯針對的是大數據殺熟現象。因此,有必要根據算法應用范圍大小分階段對算法歧視進行法律治理,如人臉識別算法在銀行、客運等行業應用迅速且廣泛,可以先行進行法律治理。最后,針對算法黑箱問題,可以通過提高算法透明性來應對。
第二,《網絡安全法》的相關規定適用算法的規制,因為算法的開發、運行和使用等等過程都置于網絡環境中。該法第二十二條規定,網絡產品、服務應當符合相關國家標準的強制性要求,網絡產品、服務的提供者不得設置惡意程序 。假設有組織或個人利用算法侵害他人權益或公共利益的,應當認定屬于“惡意程序”的范圍,是該法禁止的。該法第四十一條,強調了個人的信息安全,算法的開發者和使用者應向用戶明示并取得同意后才可收集其信息,保障了用戶的知情權。
第三,明確問責主體。參照《侵權責任法》 ,可以將開發者、使用者以及第三方侵權的責任人作為算法問責主體。在出現算法問題時,關于結構性問題還是功能性問題的確定是極其重要的一個環節。在開發者和使用者相分離時,若是結構性問題,問題發生在算法系統內部,則由算法開發者作為問責主體;若在算法運用中發生,則由算法使用者作為問責主體。在算法的開發者和使用者相同時,則無需區分。
確保算法能夠被中立的第三方或監管機構有效審查受到國際社會的密切關注,因為這可以提升實現算法決策的透明性和公平性的可能。目前在德國,名為“監控算法”(Monitoring Algorithm)的非營利組織已經成立,該組織主要由技術專家和資深媒體人組成,旨在評估并監控算法決策過程中對公共生活產生的影響 。在監管算法的過程中,明確其主體十分重要。本文建議將算法的開發者和使用者作為主體進行監管。我國可以借鑒德國的做法設立算法監管機構,該監管機構必須是獨立的并被賦予了相應職權,要由具備算法知識的法律人員組成。當人們認為自身權利遭受到算法決策過程中產生的問題的侵犯時,可以投訴到算法監管機構;當出現算法決策侵犯公共利益的情況時,該機構也可依職權對相關算法開發者、使用者進行問詢。
在理解的基礎上才有助于產生信任,算法的功能必須讓那些受其影響的人能夠理解,但關于算法怎樣運作的問題,一般人無法理解,也沒那樣的能力理解,即便是吃了算法的虧,也可能無從知道,或者知道卻不以為意。因此,必須從公民的算法素養培育開始,公民不能充當“被算法賣了還替算法數錢”的算法文盲。
公民算法素養的培育需要“革命性”的教育努力,包括美國在內的不少國家已經著手將算法教育納入基礎教育中。例如,德克薩斯州大學把“計算機科學的倫理基礎”課程列入計算機專業學生的學習范圍;康奈爾大學也開設了數據倫理課程,旨在提升對數據倫理問題的關注度 。值得關注的是,我國也開始重視算法素養的培育,在《新一代人工智能發展規劃》中提到全面的智能教育不可忽視,并希望加快編程教育進入中小學課堂的實施進度 。
算法作為法律上的新鮮事物,需要納入法律的調整范圍,因為法律經常是各方利益妥協的產物。因此,對算法進行法律規制,一方面,有利于促進人工智能產業的發展;另一方面,可以更好地規范算法與其他法律主體或客體之間的關系。目前,算法技術的發展仍屬于初級階段,法律以及其他社會各界,都應給予其更多的寬容和發展空間。算法問題是新時代的新問題,科技進步是必然的,我們更應該以積極的心態來面對。
1 鄭智航,徐昭曦.大數據時代算法歧視的法律規制與司法審查——以美國法律實踐為例[J].比較法研究,2019(4):111-122.
2 參見算法也有偏見?紐約市通過美國首個算法問責法案_每日觀科技網,http://xmkelan.com/a/kxjs/30510.html 最后訪問:2020-03-25.
3 克里斯托弗·斯坦納著.李筱瑩譯.算法帝國[M].人民郵電出版社,2014 年版,第43 頁.
4[美]科爾曼等:《算法導論(原書第3 版)》,殷建平等譯,機械工業出版社,2013年版,第3頁.
5 邁克爾·西普塞.計算理論導引[M].段磊,唐常杰,等譯.北京:機械工業出版社,2015.
6 鄭戈.人工智能與法律的未來[J].探索與爭鳴,2017(10):80-86.
7 楊學科.論智能互聯網時代的算法歧視治理與算法公正[J].山東科技大學學報(社會科學版),2019,21(04):33-40+58.
8 參見法律專家系統_360 百科 https://baike.so.com/doc/28403265-29833084.html 最后訪問:2020-04-22.
9 參 見 智 慧 法 院_360 百 科 https://baike.so.com/doc/26292417-27731368.html 最后訪問:2020-04-22.
10 劉愛軍,周春梅,智慧法院對深化司法改革影響研究——以和諧共同體關系為視角[J].法制與社會,2017(27).
11 參見推薦算法_百度百科 https://baike.baidu.com/item/%E6%8E%A8%E8%8D%90%E7%AE%97%E6%B3%95 最后訪問:2020-03-26.
12[美]凱斯·桑斯坦.畢競悅譯.信息烏托邦:眾人如何生產知識[M].北京:法律出版社,2008.8.
13 參見2016 年中國互聯網新聞市場研究報告-中共中央網絡安全和信息化委員會辦公 室http://www.cac.gov.cn/2017-01/12/c_1121534556.htm 最后訪問:2020-03-26.
14 人民日報.三評算法推薦[EB/OL] http://opinion.people.com.cn/n1/2017/0918/c1003-29540709.html 最后訪問:2020-03-26.
15 參見魏則西_360 百科 https://baike.so.com/doc/23848728-24405374.html 最后訪問:2020-03-26.
16 張淑玲.破解黑箱:智媒時代的算法權力規制與透明實現機制[J].中國出版,2018(7):49-53.
17 崔靖梓.算法歧視挑戰下平等權保護的危機與應對[J].法律科學:西北政法大學學報,2019,037(003):29-42.
18 劉友華.算法偏見及其規制路徑研究[J].法學雜志,2019,40(06):55-66.
19[美]凱西·奧尼爾:《算法霸權》,馬青玲譯,中信出版集團2018 年版,第48~217 頁.
20 曹建峰.怎樣應對人工智能帶來的倫理問題[N].學習時報,2017-06-14(7).
21 賈開.人工智能與算法治理研究[J].中國行政管理,2019(01):17-22.
22 參見國家互聯網信息辦公室關于《數據安全管理辦法(征求意見稿)》公開征求意見的通知_部門政務_中國政府網 http://www.gov.cn/xinwen/2019-05/28/content_5395524.htm最后訪問:2020-05-15.
23 參見中華人民共和國網絡安全法(全文)https://ltc.jhun.edu.cn/6c/8a/c3059a93322/page.htm 最后訪問:2020-04-28.
24 參見侵權責任法_360 百科 https://baike.so.com/doc/5401123-5638733.html 最后訪問:2020-05-16.
25 張淑玲. 破解黑箱:智媒時代的算法權力規制與透明實現機制[J]. 中國出版, 2018(7): 49-53.
26 劉培,池忠軍. 算法的倫理問題及其解決進路[J]. 東北大學學報(社會科學版),2019,21(02):118-125.
27 參見國務院關于印發新一代人工智能發展規劃的通知(國發〔2017〕35 號)_ 政府信息公開專欄 http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm最后訪問:2020-03-21.