姚前
隨著計算機、移動互聯網、智能終端、大數據分析、云計算、人工智能、物聯網等數字技術的發展,算法已深入我們生活各個領域。搜索引擎、新聞推送、精準廣告、人臉識別、行車導航、自動駕駛等背后技術核心都是算法。我們正生活在算法的世界里,算法無處不在。
算法讓我們的世界變得更加智能,更加高效。人們甚至可以在未來創造出一個完全由算法構造的虛擬世界:元宇宙(Metaverse),算法對人類社會的滲透力和影響力或將只增不減。伴隨而來的問題是,我們應如何處理算法與人的關系。就像一百多年前,機器大生產時代來臨之時,機器與人的關系吸引了馬克思等思想巨擘的關注與研究。算法與人的關系這一全新的時代命題,同樣值得今日的我們思考與探索。
防止算法可能對人造成的侵犯、傷害和異化,是算法治理的首要內容。比如,要防止算法濫用。算法規則的背后是商業利益,為了追求利益最大化,算法有可能違背社會公平、道德和人性。比如大數據殺熟,同樣的商品或服務,老客戶的價格反而比新客戶要貴;只推薦能帶來潛在商業利益的產品,而不是最適合、最恰當的東西;可能濫用人性弱點,過度激發、勸服、誘導客戶,使人習慣于被喂養,不自覺地對算法投放的產品沉迷上癮。算法邏輯被運用到極致,人有可能被“異化”為純粹的數據、商品和工具。算法的具體原理和參數只有運營企業的少部分人才能知道,難免產生利益侵占問題。甚至,企業可能利用算法作惡,比如為了擴大流量,推送聳人聽聞的虛假信息或推薦虛假產品。
我們還要防止算法偏見。算法的數據可能不一定全面,碎片化的數據得到的結果極易導致偏見。算法的設計者是人,算法設計師乃至企業管理者、價值觀的偏見可能被嵌入算法。算法的“技術光環”容易讓人盲從所謂的“科學”,但實質上有些算法存在很大程度的不可解釋性,比如類似“黑箱”的機器學習算法。機器學習算法側重于相關性分析,而不是因果分析,可能產生錯誤的勾連與判斷;基于歷史數據的機器學習算法隱含著“過去決定未來”的邏輯,以歷史宿命論定義和標簽每個人,某種程度上也是一種偏見。當有偏見的算法被用于司法審判時,將可能導致不公正判決,損害社會公平正義。
處理算法與人的關系,核心原則是以人為本。我們應防止算法與人的對立。例如,人工智能可以極大提高社會生產率,但對人也產生了替代。如果說人工智能完全替代人類,有些危言聳聽,但取代一些規律性、重復性的人力工作,卻是正在發生的事實。未來隨著人工智能在各個領域的發展與蔓延,人工智能對人類的替代有可能是全方位的。在此情況下,社會失業人群將可能迅速增加,引發貧困等社會性問題。對于個體而言,自我價值實現是最高的社會需求。人工智能的替代不僅帶來個人經濟收入的減少,還有個體的精神損害,影響人的心理健康。此外,以超越人類能力為導向、追求更快更強的技術唯上論,某種意義上也可能會引致緊張的人機對立關系。應該說,戰勝人類并不是發展人工智能的終極目標,更好地服務人類才是其終極使命。如何在人工智能應用的過程中,避免人機對立,使科技不因技術創新的深度而失去本該有的人文溫度,正成為當下算法治理的重要命題。
在特定領域,算法還可能引發特定風險。比如,在金融領域,智能算法給出的資產配置建議有可能是推薦了與金融機構自身利益高度攸關的產品,涉嫌利益侵占;智能算法形成信息繭房,強化投資者偏見,容易掩蓋金融風險復雜性,引誘過度消費和負債,甚至誤導投資者;智能算法若存在歧視投資者現象,則有違市場公平與公正;智能算法趨同導致“羊群效應”,加大金融順周期風險等。針對這些特定領域的算法風險,我們要有應對舉措。
數據是算法的基礎,因此數據權利保護也成為算法治理的考量重點。歐盟《通用數據保護條例》(GDPR)和我國《個人信息保護法》規定數據主體享有知情同意權、持續控制權、拒絕權、可攜權、更正權、刪除權等權利。除了數據主體權利,法學家們還從不同角度拎出了數據相關的各種“權利”,包括數據財產權、商業秘密權、知識產權等不同權利,甚至從公共利益和國家安全的角度提出數據主權的概念。這些數據權利與數據主體權利構成了一個數據權利譜系。在這套權利譜系中,存在個人、企業、監管機構、政府部門等多個數據權利主張者。對此,需要在法理學的指導下,結合司法實踐,進一步明確個人隱私保護權利、數據財產權、數據主權等各類數據權利的確權規定,以及相應的沖突解決規則和路徑。
算法存在風險和缺陷,可能引發傷害,那么誰應該為算法的傷害負責?有這么一個經常被提到的案例:2018年3月18日,伊萊恩·赫茨伯格(Elaine Herzberg)在美國亞利桑那州坦佩市騎車橫穿馬路,被一輛自動駕駛汽車撞倒,不幸身亡。雖然車上有安全駕駛員,但當時汽車完全由自動駕駛系統控制。這起事故提出了一系列的道德和法律問題:誰應該為赫茨伯格的死負責?是測試那輛汽車的公司,是該人工智能系統的設計者,是車載感應設備的制造商,還是坐在駕駛位上的安全駕駛員?回答這個問題,需要清晰合理地界定人工智能各方的責任邊界,這其實并不容易。甚至有人提出,如果未來人工智能有了公民身份,它是否需要承擔法律責任以及如何界定?是否因此而減輕相關方的法律責任,以及這樣做是否合理?這些問題均值得我們認真研究。
在司法抗辯過程中,算法鴻溝值得重視。算法通常是隱秘的,或是專利,或是商業秘密。即便公開,也因技術門檻的存在,導致并非人人都能看懂。這就形成新的數字鴻溝。不懂算法的人群在利益受損時有可能并不知情,即便知情,也可能無力舉證和對抗。為此,我們需要針對算法可抗辯性建立適當的司法機制和程序,以保障司法公平正義。
加強算法治理的目標并不是打擊或抑制算法的創新應用,而是為了規范,并在規范中進一步促進算法技術和產業發展。從這個意義來說,加強算法技術本身及相關產品的法律保護,如知識產權、著作權、專利權保護,也是算法治理的應有之義。
總之,隨著各類先進數字技術的發展與應用,我們正迎來以數據為基礎、以算法為核心、以算力為支撐的數字經濟時代,算法治理已成為重要的社會治理命題,有許多問題值得我們研究和探索。研究這些問題,不僅需要計算機、經濟學、社會學,還需要法學和倫理學等各個學科的智慧與洞見。
本譯書《算法治理:法律與道德挑戰》著重從法學和倫理學的角度探討了算法公平、算法自動化決策的透明性和正當程序、責任、數據隱私保護、消費者權益保護、算法產品法律保護等廣泛議題。每篇文章的分析邏輯嚴謹,細致入微,見解深刻,是難得的佳作,因此譯者將其翻譯成中文,希望能為我國算法治理研究者和政策制定者提供有益的參考。
值得一提的是,譯書原名為Algorithmic Governance and Governance of Algorithms:Legal and Ethical Challenges,意涵豐富,既包含“基于算法的治理”(Algorithmic Governance),又包含“針對算法的治理”(Governance of Algorithms)??紤]到中文“算法治理”在不同語境中的含義變化,因此譯者化繁為簡,直截了當將“算法治理”作為中文書名。
是為序。