999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

女性就業中的算法歧視:緣起、挑戰與應對

2021-12-07 05:47:16
婦女研究論叢 2021年5期

閻 天

(北京大學 法學院,北京100871)

一、引言

促進女性公平就業、打擊就業性別歧視,既是男女平等的基本國策在勞動領域的重要體現,也是中國勞動法長期堅持的重要政策目標。近年來,隨著大數據和機器學習技術的發展,算法自主獲取信息的能力大幅升級;升級后的算法被運用到招聘過程中,在簡歷篩選、面試評價等環節補充乃至取代人工,就引發了算法歧視問題。2020年12月31日,意大利博洛尼亞法院判決:外賣平臺戶戶送(Deliveroo)在評價騎手時所使用的算法存在歧視[1](PP 183-195)。該案被普遍視作“算法歧視第一案”,獲得媒體的廣泛報道,也凸顯了算法歧視問題的現實性和緊迫性。算法的運用是否及如何導致針對女性的就業歧視?算法歧視對現有的反就業歧視法構成何種挑戰?從法律和技術的角度,應當怎樣應對這種挑戰?為了解讀女性就業中的算法歧視,上述追問不容回避。

本文將反就業歧視法的傳統研究進路運用到算法歧視的新場景之中,嘗試回應上述追問。第二部分探討女性就業中算法歧視的緣起。廣義上的算法在招聘過程中早有運用,而算法在當代的發展則重新界定了算法歧視。這種新的歧視在海外已有實例,在中國可能發生的場景也不難設想。第三部分探討算法歧視對現有法律的挑戰。法律禁止用人單位詢問女性求職者的婚育狀況,禁止用人單位以性別為由拒絕錄用或者提高錄用標準,還規定違法的用人單位要承擔侵權責任和行政責任。上述規則在算法歧視面前均告失效,這意味著算法歧視對職場性別平等構成潛在的根本挑戰。第四部分探討應對挑戰的路徑。勞動法和網絡法上都提出了應對挑戰的治標之策,但是效果有限,并且可能抑制算法的開發和推廣。治本之道則在于由國家、用人單位、女性勞動者及其伴侶公平分擔生育成本,消除歧視的經濟根源,改變勞動力過度商品化的局面。

二、女性就業中算法歧視的緣起

(一)算法歧視的含義

1.傳統算法

什么是女性就業中的算法歧視?為了回答這個問題,首先需要界定算法的概念。本文將算法區分為傳統算法和當代算法,只有當代算法才對女性的公平就業構成了前所未有的新威脅。《不列顛百科全書》將算法定義為“在有限步驟內回答或解決問題的系統程序”(1)參見“The Editors of Encyclopaedia Britannica”,Algorithm,https://www.britannica.com/science/algorithm (last visited 6/22/2021)。。以這一定義來衡量,算法自從人類進入計算機時代以后就被大量運用于招聘過程中。最為常見的場景是:用人單位將求職者的信息輸入計算機并形成數據,將對數據的評價規則編寫成算法程序,再用程序處理數據,最終輸出結果,根據結果做出人事決策。上述場景中的算法雖然能夠以高于人工的效率來處理信息,但是缺乏自主獲取信息的能力。其一,算法基本沒有自主性,其內容由程序員事先編定,除非程序員做出調整,否則不會發生變化。這也意味著算法的內容是外界完全可以知曉和理解的,只需程序員將其公開并加以闡釋即可。其二,因為輸入的數據規模非常有限,算法很難從已知數據中準確推測未知信息。舉例來說,如果單位沒有采集求職者的婚育信息,那么算法就很難從工作經歷、教育背景之類已知數據中準確推測求職者的婚育狀況(2)粗糙的推測仍然可行,但是準確率過低,通常不足以用作招聘決策的依據。,也就無法實施性別歧視。這種缺乏自主獲取信息能力的算法就是“傳統算法”。

意大利的“算法歧視第一案”所涉及的就是傳統算法。該案中,戶戶送公司主要采集騎手不在預定時間工作的次數,以及騎手在周末高峰時段送餐的次數,據此評價騎手的可靠性和參與性并形成評分,按照分數決定騎手是否有權在午餐時段接單[1](PP 183-195)。這一算法簡明易懂、事先公開且保持不變,并不推測任何未知信息,因此屬于傳統算法。除了運用計算機技術以外,使用傳統算法實施的性別歧視與不使用算法的歧視并無本質差異。有學者認為,現有的反歧視法的邏輯也可以運用到算法歧視上[2](PP 183-1623),此處所指的就是傳統算法。

2.當代算法

近年來,隨著大數據和機器學習技術的應用,算法的自主獲取信息能力獲得了極大的提升。能力提升后的算法就是“當代算法”,它是算法歧視對于反歧視法構成挑戰的原因所在。較之傳統算法,當代算法的特點有二。

其一,當代算法具有較強的自主性。當代算法仍然以回答或解決問題為目的,但是作為解決方案的內容不再是程序員事先編定的,而是計算機自主生成的。運用機器學習技術,計算機可以首先根據部分數據(訓練數據集)建構一個初步的統計模型(算法),再運用新的數據來不斷調試模型,直至模型的調整不再能夠改善問題的解決為止。程序員的工作幾乎僅限于給輸入的數據設定特性,給輸出的數據打上標記,而不干預算法的內容本身。機器學習的前沿類型是深度學習(deep learning),其特點是無需程序員給數據設定特性,算法本身即可通過比較數據篩選出有意義的特性。這意味著算法不僅會在自學中不斷變化,而且其內容也可能無法被程序員、更無法被公眾所理解,成為某種意義上的“黑箱”[3]。

其二,憑借大數據的輸入,當代算法有能力從已知數據準確推測未知信息。大數據通常是指總量(volume)大、樣態(variety)多、變化(velocity)快,即具有所謂“3V”特征的數據集(3)參見Edd Wilder-James,What Is Big Data? An Introduction to the Big Data Landscape,https://www.oreilly.com/radar/what-is-big-data/ (last visited 6/22/2021)。,它能夠為算法的推測提供充分的線索。舉例來說,即使單位沒有采集求職者的婚育信息,如果大數據中包含了求職者的購物(是否購買女性用品等)、教育(是否報名參加早教培訓班等)等信息,算法仍然能夠準確判斷求職者是否已婚已育。這為算法實施性別歧視提供了可能。后文除非特別說明,使用“算法”一語時均指當代算法。

(二)算法歧視的場景

實踐表明,所謂“技術中立”及由此衍生的“算法中立”只是一種幻想,算法完全可能充當歧視的工具(4)關于算法歧視和偏見,參見鄭智航、徐昭曦:《大數據時代算法歧視的法律規制與司法審查——以美國法律實踐為例》,《比較法研究》2019年第4期;梁志文:《論算法排他權:破除算法偏見的路徑選擇》,《政治與法律》2020年第8期;徐琳:《人工智能推算技術中的平等權問題之探討》,《法學評論》2019年第3期;劉友華:《算法偏見及其規制路徑研究》,《法學雜志》2019年第6期;伊衛風:《算法自動決策中的人為歧視及規制》,《南大法學》2021年第3期。值得一提的是,算法不僅可能充當歧視的工具,而且具有消除歧視的潛力。參見Jon Kleinberg,Jens Ludwig,Sendhil Mullainathany,and Cass R.Sunstein,“Discrimination in the Age of Algorithms”,The Journal of Legal Analysis,2018,(10)。。算法歧視主要源自輸入的數據:如果訓練算法所使用的數據本身就是歧視性選擇的結果,那么算法就可能從中習得歧視;如果輸入的數據被設定了帶有歧視意味的特性(例如性別),那么算法考慮特性就可能構成歧視。后一種情形下,如果特性是由程序員所設定,則歧視相對容易解決,只需要禁止程序員這樣做即可;而如果是在深度學習之中,特性是由算法自動選取的,則歧視問題不易解決。

目前,女性就業中的算法歧視已經超越理論假設,成為海外招聘活動中的現實。最著名的實例發生在美國。2014年,亞馬遜公司開始開發一項用于篩選簡歷的算法。程序員以過去10年公司的聘用記錄作為訓練數據集,希望計算機從中習得篩選最佳候選人的算法。算法如愿生成,效果卻具有歧視性:程序員發現,算法會懲罰女性求職者,如果求職者畢業于女校或者簡歷中帶有“女性的”字樣,就會受到算法的負面評價。究其原因,公司在招聘中長期存在重男輕女的現象,這種性別偏見寓于訓練數據集之中,被計算機習得,就成為算法的一部分。上述歧視已經顯現,可以通過人工編程來消除,即所謂去偏見(de-biasing);但是程序員發現,由于算法的內容難以理解,他們無法確保偏見已經去除干凈,算法仍然可能以難以察覺的方式進行歧視。亞馬遜經過評估,被迫于2017年初放棄了這一算法[4]。亞馬遜的案例反映了算法歧視的兩大特征:源自輸入的數據,難以察知和消除。2019年,民間組織電子隱私信息中心向美國聯邦貿易委員會提起申訴,指責HireVue公司所開發的、用于企業招聘的算法可能存在性別歧視,其主要依據就是亞馬遜公司的先例(5)參見The Electronic Privacy Information Center (EPIC),In the Matter of HireVue,Inc.,Complaint and Request for Investigation,Injunction,and Other Relief,submitted to the Federal Trade Commission (November 6,2019),available at https://epic.org/privacy/ftc/hirevue/EPIC_FTC_HireVue_Complaint.pdf (last visited 6/23/2021)。。迫于壓力,HireVue公司于2021年初停用了其算法中最可能發生歧視的人臉識別功能(6)參見The Electronic Privacy Information Center (EPIC),HireVue,Facing FTC Complaint from EPIC,Halts Use of Facial Recognition,https://epic.org/2021/01/hirevue-facing-ftc-complaint-f.html (last visited 6/23/2021)。。

民間組織的申訴并非危言聳聽。大型企業的求職者人數眾多,招聘任務繁重,亟需引進第三方企業開發的算法來提高招聘效率,這是海外最可能發生針對婦女就業的算法歧視的場景(7)據普華永道統計,早在2017年就有40%的國際企業在招聘中運用了算法。例如,歐萊雅公司每年要新聘大約1.5萬名員工,而每個崗位平均對應134名求職者。自從引進耘智信息科技公司(Seedlink Technology)開發的算法以后,招聘速度提高了10倍之多。參見:PwC People & Organization,Artificial Intelligence in HR:A No-Brainer,https://www.pwc.at/de/publikationen/verschiedenes/artificial-intelligence-in-hr-a-no-brainer.pdf (last visited 6/23/2021)。。以此為參照,可以推測中國發生類似歧視的最可能場景:其一,算法的使用者最可能是大型企業,使用目的主要是提高招聘效率,這與海外基本一致;其二,算法的開發者最可能是第三方,即《人力資源市場暫行條例》第18條規定的、有權開展人力資源測評的經營性人力資源服務機構;其三,開發算法所需的數據最可能來自掌握大數據的政府或平臺企業,這是與海外存在顯著差別之處。雖然中國尚未報道算法在職場實施性別歧視的案例,但是上述場景很有可能變成現實,對其展開前瞻性研究確有意義。

三、女性就業中算法歧視的挑戰

(一)中國現有反就業性別歧視法的邏輯

面對招聘中可能發生的、針對女性的算法歧視,中國現有的法律有何應對之方?從前用來規制不涉及算法的歧視的法律,是否有能力規制算法歧視?為了回答這些問題,首先要了解中國反就業性別歧視法的內在邏輯。在中國,所謂就業中的性別歧視,主要是指用人單位在招聘中將求職者的女性身份當作消極因素,對其作出負面評價。為了阻止這種負面評價,法律主要從招聘流程的三個環節加以規制,相應形成了“不打探”“不考慮”和“不卸責”三項規則。

第一,設定“不打探”規則,阻止用人單位獲知求職者的婚育狀況。用人單位之所以歧視女性,除了偏見之外,主要是顧慮女性在職期間可能選擇生育,給單位帶來部分生育成本。為此,單位在招聘時往往竭力打探女性求職者的婚育狀況。作為回應,法律規定用人單位在招聘階段僅有權要求勞動者如實告知“與勞動合同直接相關的基本情況”(《勞動合同法》第8條),而婚育狀況不在此列。一些地方的法院還認為,如果女性求職者就個人婚育狀況做出不實陳述,并不構成欺詐,用人單位不能以此為由解除勞動合同或者主張勞動合同無效(8)例如,(2018)粵01民終12990號判決書,(2014)黃浦民一(民)初字第4034號判決書;牛元元:《法律辯弈:職場隱婚VS就業歧視——北京朝陽法院判決志榮維拓公司訴徐娜娜勞動爭議案》,《人民法院報》2014年5月1日,第6版。。

第二,設定“不考慮”規則,禁止用人單位將性別因素納入人事決策。“不打探”規則旨在防止信息的獲取,這是反歧視法的第一道防線;一旦失守,反歧視法就退到第二道防線,將重心轉向防止已獲取信息的不當使用,這就是“不考慮”規則。具體而言,法律禁止用人單位以求職者是女性為由拒絕錄用或者提高錄用標準(《勞動法》第13條),也不得在勞動合同中規定限制女職工婚育的內容(《就業促進法》第27條)。通過這些規定,用人單位的招聘決策過程得到凈化,達到了“誠意正心”的效果。

第三,設定“不卸責”規則,制裁實施就業性別歧視的用人單位等主體。如果第二道防線失守,法律就無法阻止歧視的發生,唯有通過事后的制裁來震懾用人單位,使其下不為例,這就是“不卸責”規則的原理。具體而言,遭受歧視的求職者有權起訴用人單位(《就業促進法》第62條),其性質通常為平等就業權糾紛(《最高人民法院民事案件案由規定》第11項);用人單位發布包含性別歧視內容的招聘信息,不僅要承擔行政責任,造成個人損害的還要承擔民事責任(《人力資源市場暫行條例》第43條);招聘廣告包含性別歧視內容的,作為廣告主的用人單位和廣告經營者、廣告發布者都要承擔罰款等行政責任(《廣告法》第57條)。

(二)中國現有反就業性別歧視法的不足

針對就業中的性別歧視,“不打探”“不考慮”和“不卸責”三項規則層層設防,手段不可謂不多樣,力度不可謂不強大。然而,一旦將現有的法律置入算法歧視最可能發生的場景,就會發現三項規則均有失靈的可能,針對性別歧視的防御體系存在被洞穿的風險。歸根究底,這種風險源于當代算法強大的自主獲取信息能力。

第一,算法可以從已知數據中準確推測求職者的婚育狀況,導致“不打探”規則失效。前文述及,在數據規模達到大數據量級且算力足夠強大的前提下,這種推測并非難事,且很少“失算”。值得一提的是,還有兩個因素提高了算法做推測的準確性。一是,在大眾文化的規訓下,人們在結婚和生育過程中的諸多行為逐漸趨同,呈現出模式化的特征(9)例如,研究表明,巴西的一些電視劇以反映小家庭生活為主,觀看了這些電視劇的婦女的生育水平較之其他婦女明顯偏低。參見Eliana La Ferrara,Alberto Chong,and Suzanne Duryea,“Soap Operas and Fertility:Evidence from Brazil”, American Economic Journal:Applied Economics,2012,4(4):1-31。。比如,婚姻登記前后要拍攝婚紗照,備孕時要服用葉酸,嬰兒要參加早教培訓等。算法一旦從大數據中解算出這些行為模式,就不難“按圖索驥”,將符合模式的求職者推定為婚育之人。二是,求職者的網絡賬戶之中包含著大量線索,分析這些線索是推測求職者婚育狀況的捷徑;而用人單位可以以賬戶信息與履行勞動合同直接相關為由,要求求職者告知(10)中國目前的司法實踐并未禁止用人單位的這種做法。參見王健:《社交媒體中勞動者隱私權的法律保護——基于歐盟與我國司法實踐的比較研究》,《華中科技大學學報(哲學社會科學版)》2019年第4期。,這有利于算法聚焦關鍵數據、提高推測效率。例如,只要獲知了求職者在某購物平臺的賬戶昵稱,就可以檢索其在該平臺所留下的購物評價,從而推測其購物是否出于婚育目的。

第二,算法的自主性使得人類難以查明性別因素在算法決策中所扮演的角色,導致“不考慮”規則失效。“不考慮”規則對于算法的基本要求是:不能將性別設定為數據的特性,以之作為評價求職者的標準。這一要求的落實可分為三種情況。其一,在傳統算法中,數據特性完全由程序員設定,且算法保持不變。這時很容易查明和監督特性的內容,“不考慮”規則不難實施。前述戶戶送公司的案件就屬于這種情況。其二,在不運用深度學習的當代算法中,數據特性仍然由程序員設定,但是算法是自主生成的。此時雖然可以查明特性的內容,但是算法可以運用表面上與性別不相關的其他特性,獲得與性別特性相當的篩選效果。這種做法很難被查明,前述亞馬遜公司放棄開發算法的原因也在于此,“不考慮”規則難以完全落實。其三,在運用深度學習的當代算法中,數據特性是算法自主選擇的,且算法處于不斷迭代之中,程序員無法解讀其內容,“不考慮”規則也就徹底失效了。

第三,算法的自主性使得以算法為基礎的人工智能可以自行承擔法律責任,導致“不卸責”規則失效。根據中國民法學和刑法學的研究,人工智能可否成為法律責任的主體主要取決于三個因素。一是人工智能是否具有自由意志。傳統上認為,追究法律責任是對責任人自由意志的尊重,而基于深度學習算法的人工智能在很大程度上不受開發者控制,至少部分地具有自由意志[5](PP 63-66)。二是人工智能承擔責任是否符合政策考量。比如有學者指出,平臺出于避免法律責任的目的,會要求賦予人工智能產品以人格,使其獨立承擔法律責任[6]。三是人工智能是否具有承擔責任的能力。盡管很難設想讓人工智能承擔名譽和金錢上的責任,但是其他責任形式并非全無現實可能。強形式的人工智能一旦獲得某種自由意志,就會產生需求,例如對于算力(以及背后的電力)的需求;而禁止這種需求的滿足就構成處罰,讓人工智能接受處罰就是承擔責任[7](PP 111-127)。雖然基于深度學習的算法還很少應用到人工智能上,但是假以時日,用人單位完全可能打著尊重自由意志的幌子,把歧視的責任推給不受其控制的算法,從而逃脫法律責任的追究。

四、女性就業中算法歧視的應對

(一)治標之策及其局限

面對算法歧視對于女性公平就業的挑戰,學界前瞻性地提出了一系列對策,部分對策已經獲得了政府的初步采納。然而,這些對策或者效果有限,或者會抑制企業對于算法的開發和應用,造成產業政策上的消極后果,因而均非治本之道,充其量可做治標之策而已。

第一,為了彌補“不打探”規則的不足,可以阻止算法獲取某些便于推測女性婚育狀況的數據。例如,可以將網絡賬戶信息設置為求職者的隱私[8](PP 25-39),或者出于保護求職者言論自由的目的[9](PP 170-185),禁止用人單位詢問或者網絡平臺向用人單位泄露這一信息。又如,歧視會造成人格尊嚴的貶損。根據《個人信息保護法》,求職者的婚育信息“一旦泄露或者非法使用,容易導致自然人的人格尊嚴受到侵害”,所以構成“敏感個人信息”;作為個人信息處理者的用人單位在處理這類信息時,必須“具有特定的目的和充分的必要性”,“取得個人的單獨同意”,“向個人告知處理敏感個人信息的必要性以及對個人的影響”,并且“取得相關行政許可”(第28條至第32條)。

這些措施都會降低算法推測求職者婚育狀況的準確性,導致“失算”增多,迫使用人單位放棄使用算法,從而杜絕算法歧視。“失算”意味著用人單位錯估求職者給其帶來的生育成本,據此做出的招聘決策在經濟上是不理性的:如果求職者沒有生育計劃,卻被誤判為即將生育,那么單位會將一個“負擔較輕”的員工拒之門外;反之,如果求職者確有生育計劃,卻被誤判為不會生育,那么單位會招錄一個“負擔較重”的員工。如果“失算”所導致的額外的生育成本超出了使用算法所帶來的決策效率方面的收益,算法就可能遭到用人單位的拋棄,歧視也就無從發生了。然而,雖然“失算”會帶來額外的成本,但是由于算法的算力強于人腦,在已知數據不變的前提下,算法“失算”的幾率仍然比人工推測更小。兩害相權取其輕,用人單位將會繼續使用算法,歧視也就會繼續發生。

第二,為了彌補“不考慮”規則的不足,可以采取倒置舉證責任、強制算法透明、過濾訓練數據等措施。“不考慮”規則是學界構想的打擊算法歧視的主戰場,學者建議的措施也尤其多。

其一,在反歧視訴訟或類似的爭議解決程序中,可以倒置舉證責任(說服責任),要求用人單位證明其算法沒有實施歧視,否則就要承擔敗訴風險。具體來說,只要求職者能夠舉證錄用結果存在性別上的不平等,法律就推定這種不平等源自算法歧視,除非用人單位能夠證明不平等另有正當原因。這種將結果不平等歸責于用人單位的制度,就是美國法上的差別影響(disparate impact)歧視和歐洲一些國家法律上的間接歧視(indirect discrimination)制度[10](PP 23-33)。該制度相當于給用人單位設定了額外的注意義務,禁止其任意拒絕錄用女性求職者,而是必須有正當的理由,這在效果上與“不考慮”(非正當理由)規則大致相當(11)即使拒絕錄用女性求職者確有正當理由,也無法排除性別因素在決策中仍然扮演了一定角色的可能,此時成立所謂“混合動機”(mixed-motive)歧視。參見George Rutherglen,Employment Discrimination Law:Visions of Equality in Theory and Doctrine (3rd ed.),New York:Foundation Press,2010,PP.48-52。。問題在于,運用深度學習技術的算法具有高度自主性,很難被人類所理解,程序員在技術上無法確定算法在做出決策時究竟考慮了什么因素。如此一來,將舉證責任歸于用人單位,就幾乎注定了用人單位敗訴的命運。為了避免敗訴,用人單位可能采取兩種策略:一是反向歧視,給女性預留錄用名額,而這對于能力更優的男性求職者并不公平(12)關于給弱勢群體預留名額構成反向歧視的典型案件,參見Ricci v.DeStefano,557 U.S.557 (2009)。;二是放棄使用算法,而這不符合推廣算法、提高決策效率的產業政策。可見,舉證責任倒置制度的效果有顯著的局限,是否引進該制度應當慎重考量。

其二,可以要求用人單位實施算法透明政策,公開其在招聘過程中所使用的算法,并由第三方對該算法是否實施歧視加以審計。算法透明曾經是頗受研究者青睞的措施,畢竟,公開是監督的第一步。然而,算法透明存在三個方面的缺陷:一是由于算法不斷自主學習和迭代,很難確定算法在做出招聘決策的一刻的狀態,也就無法確定應予公開的內容;二是在運用深度學習技術的情況下,算法即使實現了透明也難以解讀,更難以審計和評價;三是算法透明還可能造成個人隱私和商業秘密的泄露等負面后果[11](PP 20-39)。這些缺陷削弱了算法透明措施的實效,使之無法有效矯正“不考慮”規則的失靈。

其三,可以要求用人單位檢視用于訓練算法的數據,發現并糾正訓練數據集中可能存在的偏見,從而防止算法習得這些偏見。科學界還設想開發幫助用人單位檢視算法的新算法,實現“用算法審計算法”[12]。這樣做會面臨兩個難處。一是現有的數據可能普遍包含偏見,不易找到“純凈”的數據集來訓練算法。例如在前述亞馬遜公司的案例中,公司在招聘時長期重男輕女,而且這并不僅僅是一家公司的問題,而是全行業的現象,所以很難尋得不帶有歧視烙印的數據,這也是亞馬遜公司不得不放棄開發算法的部分原因。二是偏見的發現和糾正可能是一個浩大的工程。因為,算法具備機器學習的能力,會不斷收集數據訓練自己,直到更多的訓練不再提高其預測的精確性;而這個學習過程可以相當漫長,用于學習的數據更是規模龐大,對其加以檢視和糾正的成本將會很高。用人單位為了規避這一成本,很可能會傾向于放棄開發和使用算法,而這與產業政策背道而馳。

第三,為了彌補“不卸責”規則的不足,可以采用否認算法的責任能力、在算法與用人單位之間設定連帶責任等辦法,讓用人單位承擔算法歧視的法律責任。這樣做看似簡單,只需法律作出規定即可,卻會嚴重挫傷用人單位開發和使用算法的積極性。在深度學習的場景下,用人單位根本無法控制,甚至無法理解算法的內容,如果讓其對算法的歧視行為負責,必然給用人單位帶來經營風險,而且這種風險的暴發時間及后果大小都難以預測。出于避險的考慮,用人單位放棄算法就是自然的選擇。

(二)治本之道及其落實

面對算法歧視的挑戰,矯正反就業性別歧視法三大規則失靈的措施,均存在明顯的局限,至多“治標”而難以“治本”。那么,治本之道何在?本文認為,應當挖掘算法歧視的成因,在國家、用人單位、女性勞動者及其伴侶之間公平分配生育成本,方能從根本上緩解算法歧視對職場性別平等所造成的沖擊。

首先,女性就業中為什么會發生算法歧視?就業歧視的發生主要有兩種原因。一類歧視純粹源于偏見,用人單位瞧不起女性,高估女性勞動者的費效比。這些單位放著費效比低的女性不用,卻聘用費效比高的男性,其決策不符合經濟理性,人力資源成本高于競爭對手,長此以往必然被市場淘汰。歧視經濟學的主要創始人加里·貝克爾(Gary Becker)就持這種看法[13](PP 1-37)。雖然市場也會發生失靈現象,但是市場在總體上仍然是打擊歧視的可靠力量[14](PP 210-213)。對于出自偏見的歧視,國家出手規制的必要性不大,主要還是依靠市場自身來淘汰歧視者。而另一類歧視則符合經濟理性,用人單位擔心招聘女性會給其帶來生育成本,導致其在競爭中落后于沒有負擔的對手,所以不愿意招聘有生育可能的女性求職者。算法為了尋找費效比最低的勞動者,必須盡量準確地預測女性求職者生育的可能性,突破“不打探”規則也就無可避免;由于生育狀況會顯著影響女性給用人單位所帶來的費用和效用,所以算法必須將生育狀況納入考量,突破“不考慮”規則也就順理成章。中國反就業性別歧視法所建立的屏障,主要就是被這種符合經濟理性的算法歧視所逐層洞穿的。

那么,如何評價這種符合經濟理性的算法歧視?一方面,經濟理性并非用人單位正當化其一切行為的口實。無論何種性質的用人單位均應在經濟效益之外履行社會責任,這甚至已經成為法律的要求(13)例如,《公司法》第5條規定:“公司從事經營活動,必須……承擔社會責任。”。從社會責任的角度出發,要求用人單位承擔一部分生育成本,不僅完全正當,而且是中國勞動法上長期堅持的做法(14)例如,《女職工勞動保護特別規定》要求,用人單位在女職工孕期應當減輕其勞動量,不得延長勞動時間或安排夜間勞動;對于哺乳期內的女職工,不但不得延長勞動時間或安排夜間勞動,還要安排哺乳時間;女職工懷孕、生育的,用人單位不得采取降低工資或單方面解除勞動合同的措施等。。在勞動法上,“勞動”是“勞動力”和“勞動者”的統一體,用人單位不能單純注重“勞動力”的側面而尋求最優交易安排,而是也要承認“勞動者”的側面并保護勞動者的利益。另一方面,生育成本應當本著“誰受益,誰負擔”的原則,在國家、用人單位、女性勞動者及其伴侶之間公平分配[15]。就國家而言,面對老齡化的嚴重沖擊,適度放開甚至鼓勵生育乃是保障勞動力供給、維持消費規模、確保社會保險基金不至枯竭的唯一途徑。實現上述目標的需求越迫切,國家從生育中的受益就越多,應當負擔的生育成本就更多。就用人單位而言,女職工的生育很難為其帶來收益,其所分擔的生育成本就應當控制在合理限度。就女性勞動者而言,生育可以帶來獲得子女贍養等收益,但是大部分生育成本均由其承擔,存在收益與成本不匹配的現象。就女性勞動者的伴侶而言,其從生育中獲得的子女贍養等收益與女性相當,而分擔的成本則顯著少于女性。總體來看,國家和女性勞動者的伴侶應當更多分擔生育成本,用人單位的成本份額可以大致不變,而女性勞動者自擔的成本應當減輕。在生育成本獲得公平分擔的前提下,性別歧視將會喪失經濟合理性;而算法作為勞動力的一種精準定價機制,實施歧視的概率也就大為降低。

為了實現生育成本的公平分擔,需要著重采取兩方面的措施。一方面,要加強生育中的國家責任。國家應當推進育兒的社會化,興辦或鼓勵發展托幼事業,減輕育兒對于女性工作的不利影響。國家也應當提供更為精準有效的就業服務,滿足用人單位由于女性休產假而產生的頂崗需求,控制乃至降低聘用女性給用人單位帶來的成本。國家還應當完善遠程工作和靈活工時的相關制度[16],方便女性兼顧工作和家庭。另一方面,要加重生育中女性勞動者伴侶的責任,改變“男主外,女主內”的性別刻板印象。一些地方試行男性產假,應當注重讓男性在休假時切實投入到育兒事務中去,防止男性產假流于形式。今后還可以考慮采取措施,讓伴侶為生育的女性提供更可靠的經濟保障,這對于未婚生育的女性尤為重要。上述措施在《人口和計劃生育法》于2021年修訂時皆有所體現。值得一提的是,生育成本的公平分擔不應當局限于生育政策,還應當是一項重要的勞動政策,未來在制定《基本勞動標準法》乃至編纂《勞動法典》時均應有所體現;生育成本的分擔方式也不是簡單地越分散越好,更不是讓特定主體承擔越多就越好,而是要遵循受益與負擔、權利與義務相統一的原則,使其公平性獲得社會的普遍認可。

五、結語

本文可以看作對女性就業中的算法歧視這一社會疾病的診療報告。本著“治未病”的精神,本文展望了算法歧視在中國職場發生的前景。核心問題是:這場疾病對于現有的法律醫療體系將會構成多大沖擊?一方面,不應當將具有強大自主獲取信息能力的當代算法等同于傳統算法,寄望現有的反就業性別歧視法能夠“藥到病除”無異于刻舟求劍。另一方面,也無需夸大算法歧視造成法律醫療資源“穿底”的風險,而是要深究這一疾病的發病機理,針對生育成本分擔不公的“病根”對癥施治。在國家調整生育政策、放開“三孩”的背景下,“病根”與算法歧視之間的因果聯系愈發凸顯,消除“病根”的時機也逐漸成熟。算法歧視的場景是全新的,而法律的治本之道卻似曾相識,此中的反差充滿辯證法的意味,足可供研究者深思。

主站蜘蛛池模板: 激情六月丁香婷婷四房播| 国产在线小视频| 999精品色在线观看| 亚洲一区二区黄色| av一区二区三区高清久久| 国产精品观看视频免费完整版| 国产精品免费入口视频| 亚洲成在人线av品善网好看| 欧美午夜视频在线| 午夜啪啪福利| 伊大人香蕉久久网欧美| 欧美一级一级做性视频| 亚洲最新网址| 久久婷婷五月综合97色| 99无码熟妇丰满人妻啪啪| 亚洲天堂网视频| 亚洲一区波多野结衣二区三区| 免费一级无码在线网站| 99在线视频精品| 无码aaa视频| 精品少妇人妻av无码久久| 国产精品极品美女自在线看免费一区二区| 特级毛片免费视频| 国产特级毛片aaaaaaa高清| 久久亚洲精少妇毛片午夜无码| 国产午夜精品一区二区三区软件| 999国内精品视频免费| 欧美色99| 欧美成人看片一区二区三区| 国产在线拍偷自揄拍精品| 成人国产精品视频频| 亚洲欧美精品一中文字幕| 在线网站18禁| 久久精品国产精品青草app| 尤物午夜福利视频| 人妻熟妇日韩AV在线播放| 国产在线观看成人91| 国产国产人免费视频成18| 青草精品视频| 日本少妇又色又爽又高潮| 不卡无码网| 国产成人综合亚洲网址| AV无码无在线观看免费| 8090午夜无码专区| 片在线无码观看| 亚洲IV视频免费在线光看| 国产精品欧美在线观看| 国产网友愉拍精品视频| 久久伊人操| 国产网站一区二区三区| 国产精品熟女亚洲AV麻豆| 久久婷婷综合色一区二区| 2021国产精品自产拍在线| 亚洲中文字幕手机在线第一页| 无码内射中文字幕岛国片| 成人一级黄色毛片| 2020久久国产综合精品swag| 精品99在线观看| www亚洲天堂| 在线观看91精品国产剧情免费| 欧美日韩国产精品va| 亚洲成av人无码综合在线观看| 天堂岛国av无码免费无禁网站| 欧美精品成人一区二区在线观看| 特级欧美视频aaaaaa| 国产福利在线免费观看| 性视频一区| 欧美日韩亚洲国产主播第一区| 日韩欧美国产三级| 国产91小视频在线观看| 国产区在线看| 国产偷倩视频| 亚洲日韩AV无码精品| 国产免费a级片| 青青久在线视频免费观看| 秋霞一区二区三区| 精品日韩亚洲欧美高清a| 国产97视频在线观看| 人妻无码中文字幕第一区| 天堂成人在线视频| 老司机午夜精品视频你懂的| 亚洲无线国产观看|