
不久前,發表了一篇關于研究人員開發了新工具的文章,可以讓人們自己體驗到人工智能模型對不同性別和種族的固有偏見。
雖然新聞報道中寫了很多關于我們的偏見是如何反映在人工智能模型中的,但看到人工智能生成的人類如此的白人化、男性化和老派,仍然感到不舒服,DALL-E2尤其如此,當得到“首席執行官”或“董事(總監)”這樣的提示時,它在97%的情況下會生成白人男性。
在人工智能創造的更廣闊的世界中,偏見問題比你想象的更根深蒂固。斯坦福大學研究員費德里科·比安奇表示,因為這些模型是由美國公司創建的,大多數訓練數據來自北美,所以當它們被要求生成再普通不過的日常用品時,比如門和房屋,它們會創造出看起來很“北美”的物體。

隨著人工智能生成的圖像不斷涌現,我們將看到大量反映美國偏見、文化和價值觀的圖像。誰知道人工智能會不會最終成為美國軟實力的主要工具呢?
那么,我們該如何解決這些問題呢?想解決人工智能模型訓練數據集中的偏差,肯定有很多的工作要做,不過最近的兩篇論文提出了一些有趣的新方法。
如果你可以直接告訴模型,讓它給你偏見更少的答案呢?
德國達姆施塔特技術大學的研究人員和人工智能初創公司HuggingFace開發了一種名為FairDiffusion的工具,可以更容易地調整人工智能模型來生成你想要的圖像類型。例如,你可以在不同的設置下生成首席執行官的照片,然后使用FairDiffusion技術將圖像中的白人男性交換為女性或不同種族的人。……