胡曉萌


性別歧視的現象在現實生活中常常發生。如今,我們已經邁入了大數據時代,在數據的全面透視下,性別歧視的現象更有愈演愈烈之勢,其中在金融消費場景中特別突出。
2019年8月20日,美國蘋果公司與高盛集團聯合,正式推出信用卡Apple Card。同年11月,美企業家漢森(David Heinemeier Hansson)在Twitter上指責Apple Card涉嫌算法性別歧視,因為他的信用額度是他妻子的20倍,而他們在申請時提交的是聯合納稅申報表,并且妻子的信用評分更高。Apple聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)也指出,他獲得的Apple Card信用額度是他妻子的10倍,盡管他們夫妻共同使用多個銀行賬戶和信用卡賬戶。
不久,紐約金融服務部(New York Department of Financial Services)發言人明確表示,金融服務部已決定就此展開調查,以確定Apple Card的算法是否存在違法違規行為,并確保所有消費者不分性別都受到平等對待。
實際上,在 1972年就有國外學者明確指出,在信貸市場中存在明顯的性別歧視現象,女性即便被認定擁有與男性相同的還款能力,但在獲得貸款的可能性上卻依然會遭受不公正的待遇。同時,還有學者研究指出,信貸市場中存在逆向選擇和道德風險問題,使女性在傳統信貸市場中更容易遭受偏好歧視。因此,女性借款人在傳統信貸市場中不僅借款成功率低,通常還被要求支付更高的平均還款利率。
如今,科技和算法加持金融服務的發展,但對性別歧視的問題并沒有太多改善,有些方面反而更加顯著。2016年,暨南大學對網貸平臺“人人貸”在2012年3月至2014年12月期間產生的170817筆訂單數據進行了分析,得出結論:一是性別的風險傾向存在顯著的異質性,女性的借款違約率相比男性低38%;性別差異與借款可獲得性之間不存在顯著的影響,說明女性借款人在中國互聯網借貸市場中受到了非理性的偏好歧視;單身女性的借款成功率顯著低于男性,受到的歧視更為嚴重。2018年,江南大學的一項類似研究,不僅得出類似的結論,還發現女性的學歷背景無助于提高女性的借款成功率。
綜上可見,金融消費領域中存在嚴重的性別歧視現象,而建立在數學之上的算法并不會自然地保持中立。這一社會問題正是上海瑪娜數據科技發展基金會(以下簡稱“瑪娜數據基金會”)所關注的領域。在瑪娜數據基金會前期的研究中發現,算法性別歧視有兩大原因:第一,在數據化的背景下,社會性別通過數據化擴大其影響,性別觀念、權力關系、責任分配等演化成算法的內在運行機制,算法在不斷固化和加深社會原本存在的性別歧視,并且性別歧視在算法“黑箱”中持續化、規模化、隱蔽化地產生作用;第二,現代技術不是中性的,是男性價值和文化的體現。技術具有性別統治的行為意志,會導致技術創新實踐中的女性缺席,也加劇了“性別失衡”,最終導致人工智能技術創新中的“女性視角”缺失,無法及時發現、糾正算法在設計研發和運行中可能存在的性別歧視。
盡管女性的還款能力、學歷背景、履約誠信度等金融重要參考要素都不弱于男性,但是女性仍然會被算法歧視,因為算法繼承了社會中原本的性別歧視。而且這種歧視由于算法的“黑箱”屬性而無法輕易被察覺。即使女性用戶發覺自己被歧視了,但在以精確無誤和客觀中立標榜的算法面前也無力辯駁,此時客服人員會告訴用戶“這個是系統給出的結果,我們也沒有辦法”。
不管在金融消費領域,還是人工智能技術的創新領域,大多為男性主導話語權,“女性視角”的缺失成為金融消費場景中算法性別歧視問題的重要原因。回到Apple Card這個案例,任何互聯網產品在上線之前都要經過不斷地測試,發現和消除系統運行的漏洞,保證其運行的穩定性。如果Apple Card團隊擁有性別視角,在產品上線之前進行了性別方面的測試,則很容易就會發現算法性別歧視問題。
我們正在迎來算法社會的到來,算法在金融消費領域會扮演越來越重要的角色。我們應警惕和應對金融消費場景中的算法性別歧視,保護好消費者的切身利益,也守護好企業的品牌聲譽,避免其成燎原之勢。 ? ? ? ? ? ? ? ? ? ? ? (企業推廣)
作者系瑪娜數據基金會研究員
責任編輯:葛辛晶