│ 本刊評論員 │
隨著人工智能技術的廣泛應用,以算法為核心的自動決策系統在社會生活中扮演著日益重要的角色。在萬物互聯的網絡世界,從閱讀什么新聞、看什么視頻到購物推薦、廣告投放,算法推薦應用影響用戶的決策行為越來越多。在這個過程中如何實現算法推薦的公平、公正、合理,是新的技術環境下網絡平臺必須正視的重要課題。
人的決策是一種具有鮮明主觀特性的行為,在一定程度上要受到決策者認知、情緒等主觀因素的影響,這就使得決策結果的客觀性、科學性或多或少受到一定損害。所以,在人類發展的長河中,科學界長期存在一種思潮,即創立一種能夠最大程度地降低主觀因素影響的決策方法,使決策盡可能客觀化、可量化,而基于數學的方法被認為是最可行的。以色列歷史學家尤瓦爾·赫拉利在《人類簡史》一書中將這種觀念稱之為“數據宗教”。大數據的產生讓這種想法逐漸變為現實,大數據驅動的算法應用迅速介入到決策系統,其本質是利用數學方式或信息代碼,通過智能化技術產生決策結果,目的是要讓決策過程脫離人的主觀偏見,最大程度地展現客觀性。但是,由于算法應用在體系設計、決策標準設定以及數據使用等方面依然需要算法開發者的主觀選擇,這就導致算法系統并不能完全避免主觀意志,進而引起算法應用中的歧視問題,蘊含著一定的風險。例如,2022年年初,在我國首例算法推薦案件——愛奇藝訴字節跳動科技有限公司案件判決中,法院最終認定字節跳動的算法推薦行為構成幫助侵權。因此,算法推薦在提高網絡平臺決策效率的同時,也讓網絡平臺面臨特定的風險。
算法應用給網絡平臺帶來發展的同時也帶來了新問題,只有不斷完善相關法律法規,才能在鼓勵創新的前提下,不斷應對人工智能技術引起的各種風險和挑戰。具體到算法應用,當務之急是積極構建更加合理、更加完善的網絡平臺責任制度體系,通過相關法律法規的修訂完善,進一步廓清包括算法應用的設計者、運營者和使用者在內的各方主體的權利、義務和責任。相關研究已經注意到算法應用在實踐中可能產生的問題,分析這些問題,我們應該在完善相關制度體系的過程中,特別重視算法的公平性、透明性和可責性建設。
在公平性方面,在算法程序設計過程中,不僅要關注程序的效率,還要進一步強化程序的正當性約束。這其中,倫理道德要求是人工智能應用的重要方面,在算法應用中,必須從程序設計階段就強化技術公平規則的指引,從源頭上保證算法應用程序的公平和正義,避免算法應用淪為謀取不當利益的工具。在透明性方面,要提升算法應用工作機制的透明度。在網絡平臺,人們對某些算法決策結果產生質疑,一個很重要的原因就是不能理解算法應用工作的原理和機制,在他們看來算法決策系統是一個“黑箱”。因此,網絡平臺要履行相應的義務,有必要展現一定的透明度,既能保守商業秘密,又能回應公眾對算法應用工作機制的關切,從而消除公眾的疑慮,降低算法應用風險。同時,算法應用透明度的提高也能進一步保證公平性的實現。在可責性方面,要加快完善有關法律法規,對于不合法的算法應用行為及時進行懲處,從而構建良好的人工智能發展環境。當前,算法應用越來越廣泛,在算法應用的影響大大超出已有的各種制度規范時,我們應該加快制定新的制度體系,既為促進算法應用提供制度保障,也為其劃定不可逾越的紅線,使算法應用各種亂象的治理有法可依,確保算法應用健康發展。
算法應用是智能化技術催生的新生事物,在實踐中產生各種問題也是難以避免的。我們要多措并舉,趨利避害,構建更加公平、透明和具有可責性的算法應用體系,更好地發揮人工智能技術的優勢。