郭佳楠,侯攀濤
(1.鄭州工商學院 馬克思主義學院,鄭州 450000;2.中國人民大學 數字人文研究中心,北京 100872)
目前,機器學習算法已被廣泛使用,并且在商業和政府的自動化決策系統中變得越來越重要。以機器學習為主的決策算法憑借其處理海量信息和看似公平的輸出的優勢,被認為可以成功地支持決策公平的實現。然而,事實上,現實情況并非如此,因為機器學習算法并不總是像人們期望的那樣客觀公正,算法很容易受到社會偏見或其他歧視性觀點的影響,從而導致“公平的不可能性”。此外,算法本身也可能導致算法不公平/歧視,因為算法可能會犧牲少數群體的高質量或性能來獲得整體樣本的更高準確率,同時使少數群體處于不利的社會地位。基于此,越來越多的人意識到如何從真正意義上來保證算法的公平決策具有重要的理論意義和應用價值。
本文首先闡釋“公平的不可能性”的基本內涵與核心范疇,并分析了算法運行陷入“公平的不可能性”的現實困境,進一步表明形式算法公平方法論無法在具有關系性與結構性不平等的政策環境中促進公平與正義,通過探究實質性算法公平方法論,可以發現這個方法論對于實現算法公平性是十分有益的,并且能夠將其應用于實現算法公平性的實踐路徑探討中。
聚焦當下,社會公平往往由數……