999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

設(shè)計協(xié)同算法偏見治理研究

2024-03-06 00:00:00田家婧
藝術(shù)科技 2024年19期

摘要:目的:文章研究設(shè)計協(xié)同的算法偏見治理策略,以更好地幫助計算機技術(shù)融入社會,解決算法偏見問題,提高人們的生活質(zhì)量。方法:算法偏見在個性化推薦中引發(fā)了諸多社會問題,如招聘廣告的性別偏見、消費平臺的大數(shù)據(jù)“殺熟”現(xiàn)象以及“信息繭房”效應(yīng)。傳統(tǒng)的算法治理方法多從技術(shù)角度出發(fā),難以全面應(yīng)對復(fù)雜的社會性問題。文章從設(shè)計學(xué)視角出發(fā),提出基于設(shè)計協(xié)同的算法偏見治理框架。該方法強調(diào)多學(xué)科協(xié)作,通過設(shè)計學(xué)手段提高算法的透明度,優(yōu)化偏見的識別機制,并提高公眾對技術(shù)的接納度,力求全面應(yīng)對算法偏見帶來的復(fù)雜社會問題。結(jié)果:通過構(gòu)建這一基于設(shè)計協(xié)同的算法偏見治理框架,文章展示了設(shè)計在算法治理中的重要作用。該框架能夠有效提高算法的透明度,糾正算法偏見,使公眾理解和接納技術(shù),為解決個性化推薦中的算法偏見問題提供了新的思路和工具。結(jié)論:文章提出的基于設(shè)計協(xié)同的算法偏見治理框架,不僅能豐富算法治理的跨學(xué)科視角,還能為解決算法偏見引發(fā)的社會問題提供切實可行的路徑。通過多學(xué)科協(xié)作和設(shè)計學(xué)的介入,該框架有望推動算法系統(tǒng)的社會責(zé)任感建設(shè),從而更全面地應(yīng)對算法偏見帶來的挑戰(zhàn)。

關(guān)鍵詞:算法偏見;個性化推薦;設(shè)計協(xié)同;算法治理

中圖分類號:TP391.3 文獻標(biāo)識碼:A 文章編號:1004-9436(2024)19-0-05

本文引用格式:田家婧.設(shè)計協(xié)同算法偏見治理研究:以個性化推薦為例[J].藝術(shù)科技,2024,37(19):-.

0 引言

在數(shù)字化社會,算法不僅是技術(shù)的產(chǎn)物,也具有深刻的社會屬性和文化意義。個性化推薦作為算法技術(shù)的重要應(yīng)用場景,高效性與便捷性受到廣泛關(guān)注,但隨之而來的算法偏見問題也引發(fā)了公眾的擔(dān)憂。例如,在招聘廣告中,算法進一步放大了社會偏見;在電商平臺,大數(shù)據(jù)“殺熟”損害了用戶權(quán)益;在獲取信息時,“信息繭房”效應(yīng)進一步削弱了信息傳播的多樣性。這些問題不僅影響社會公平,還削弱了公眾對算法技術(shù)的信任感,將“人—技術(shù)—社會”關(guān)系推向“去未來化”的深淵[1]。

當(dāng)前的算法治理研究主要集中于技術(shù)驅(qū)動路徑,如改進數(shù)據(jù)質(zhì)量、優(yōu)化模型設(shè)計以及增強算法能力。由于算法的社會性嵌入,這些方法難以全面解決復(fù)雜的社會性偏見問題,所以人文社科對此類問題的介入必不可少。從設(shè)計學(xué)角度來看,設(shè)計具有社會文化屬性與治理屬性,設(shè)計實踐能夠引導(dǎo)多方協(xié)作,創(chuàng)造性地解決算法偏見問題。本文試圖構(gòu)建一個基于設(shè)計協(xié)同的算法偏見治理框架,探索設(shè)計在算法治理中的角色與作用。

1 個性化推薦中的算法偏見:表現(xiàn)與成因

2017年,美國加利福尼亞州阿西洛馬(Asilomar)舉行了關(guān)于人工智能(AI)安全性的國際會議。在該會議中,來自全球的學(xué)者、專家、企業(yè)領(lǐng)袖以及政策制定者共同討論了人工智能技術(shù)的發(fā)展、潛在風(fēng)險以及治理問題,并聯(lián)合簽署了《阿西洛馬人工智能原則》(Asilomar AI Principles)[2]。該原則強調(diào)技術(shù)發(fā)展過程中的安全性與透明性,提出人工智能的發(fā)展應(yīng)符合“人的價值”。這意味著在數(shù)字社會,技術(shù)不應(yīng)成為侵害公共利益的工具,算法也不應(yīng)成為人們社會生活的困擾。然而,算法由人類創(chuàng)造,以算法為基礎(chǔ)的機器反映了社會中常見的刻板印象與世界觀,需要特別注意這一點,以防止算法偏見造成的社會不公。

算法偏見可以分為數(shù)據(jù)導(dǎo)向偏見、選擇偏見、潛意識偏見與互動偏見[3]。數(shù)據(jù)導(dǎo)向偏見是指用來訓(xùn)練算法的原始數(shù)據(jù),也就是數(shù)據(jù)庫本身存在的初始偏見,計算機不會質(zhì)疑收到的數(shù)據(jù)是否公平,它們“只是單純地尋找其中的模式”。就如同人們告訴孩童怎么做是對的,應(yīng)該設(shè)置什么樣的目標(biāo)。在這一過程中,機器學(xué)習(xí)到了什么樣的偏見,輸出內(nèi)容便會呈現(xiàn)出相應(yīng)的價值觀。

選擇偏見是指用于訓(xùn)練的數(shù)據(jù)集過度代表了某一個群體或種族,從而間接放大了該群體的權(quán)力,使算法對其有利,這種行動的代價便是犧牲其他群體的利益。以招聘為例,公司在使用人工智能篩選簡歷時,使用歷史上男性主導(dǎo)的招聘數(shù)據(jù),會導(dǎo)致女性申請者的簡歷被推薦的概率降低。

潛意識偏見是指算法將錯誤的觀念與種族、性別等因素聯(lián)系起來,這是社會不公平現(xiàn)象在計算機代碼當(dāng)中的延伸。算法設(shè)計團隊的文化背景、教育程度、性別、種族等都可能造成相應(yīng)的算法偏見,如男性開發(fā)者可能無意中忽略女性用戶的需求。

選擇偏見與潛意識偏見是數(shù)據(jù)導(dǎo)向偏見的深層表現(xiàn),歷史數(shù)據(jù)的缺失、過度采樣或不均衡樣本均會導(dǎo)致模型無法全面代表所有群體,從而產(chǎn)生推薦過程中的歧視與偏好。“偏見來源于數(shù)據(jù)的不平衡”[4],但偏見的存在并不是“獨立于使用環(huán)境的固有特征”[5]。互動偏見的形成就有所不同,是用戶根據(jù)他們與算法的交互方式對算法產(chǎn)生影響。當(dāng)機器被教導(dǎo)向周圍的人學(xué)習(xí)時,它們無法決定保留或丟棄哪些數(shù)據(jù),或者判斷數(shù)據(jù)的對錯。它們吸納了自身所得到的一切——不論美好或丑陋,并以此為基礎(chǔ)作出決策。Microsoft的聊天機器人Tay就是如此,它學(xué)會了用戶輸入的惡意言論并進行模仿,發(fā)表了大量帶有種族歧視、性別歧視等令人不適的言論。

與人類不同,算法不會說謊,它輸出的內(nèi)容便是它所認為的真理。如果結(jié)果存在偏差,則一定能從其所學(xué)習(xí)的數(shù)據(jù)中(訓(xùn)練數(shù)據(jù)庫或交互數(shù)據(jù))找到原因。正如前文提到的簡歷的篩選,人類可以用謊言解釋不雇傭某人的原因,但AI不能,它會直截了當(dāng)?shù)貙⑸鐣还浆F(xiàn)象呈現(xiàn)出來。與其將算法偏見視作威脅,不如將其視作社會問題的呈現(xiàn),并據(jù)此尋求解決方案。

2 設(shè)計協(xié)同:治理算法偏見的挑戰(zhàn)

2.1 個性化推薦帶來的社會問題

算法偏見是社會不公平現(xiàn)象在計算機代碼中的延伸,它放大了社會中已然存在的偏見與歧視。在個性化推薦算法驅(qū)動的數(shù)字平臺上,算法的推送依賴歷史數(shù)據(jù)中的特定變量,如性別、種族、年齡等。如果數(shù)據(jù)本身存在偏差,算法模型就會將其放大,進而導(dǎo)致推薦系統(tǒng)忽視其他因素的多樣性。這會造成社會不公與機會不均的現(xiàn)象,導(dǎo)致某些群體(如女性、少數(shù)族裔、低收入群體等)在社會和經(jīng)濟活動中處于劣勢。算法無法正確推送與這些群體相匹配的工作機會與產(chǎn)品推薦,他們也無法從算法中獲取相對有利的信息,隨之而來的便是社會不公的加劇。

此外,算法會根據(jù)用戶的點擊、瀏覽、購買等行為數(shù)據(jù)調(diào)整個性化推薦。如果推薦系統(tǒng)過度關(guān)注用戶的短期行為(如點擊率),根據(jù)用戶的興趣和偏好篩選信息,則可能導(dǎo)致某些類型的內(nèi)容反復(fù)推薦,造成用戶信息獲取的同質(zhì)化,從而加劇“信息繭房”“過濾氣泡”問題,限制用戶的視野與選擇。這不僅會影響信息的廣泛傳播,使用戶在特定的信息環(huán)境中難以獲得不同的視角,還會使社會成員排斥不同意見與文化,加劇社會分裂和偏見[6]。

在商品購買方面,有研究指出大數(shù)據(jù)和算法可能成為控制消費者和市場的工具[7]。平臺利用算法技術(shù)分析用戶的消費習(xí)慣、瀏覽記錄、購買歷史等數(shù)據(jù),結(jié)合用戶對平臺的忠誠度與支付意愿,對不同的用戶進行差別定價,尤其是對老用戶(即熟客)實施較高的價格策略,即人們常說的大數(shù)據(jù)“殺熟”。總的來說,大數(shù)據(jù)“殺熟”現(xiàn)象可以被看作算法偏見的一種表現(xiàn),但其本質(zhì)是平臺基于大數(shù)據(jù)分析和用戶行為數(shù)據(jù)作出的不公平定價決策。這種平臺利用信息的不對稱增加盈利的行為會侵害用戶的權(quán)益,削弱用戶對平臺的信任感,促使用戶對個性化推薦算法產(chǎn)生抵觸心理,從而降低公眾的算法接納度。

總體而言,個性化推薦算法在優(yōu)化用戶體驗、為用戶提供個性化服務(wù)的同時,會加劇社會不公,促進“信息繭房”的形成,造成大數(shù)據(jù)“殺熟”現(xiàn)象。這些問題會削弱公眾對算法系統(tǒng)的信任感,不利于人機合作良性發(fā)展。

2.2 設(shè)計協(xié)同治理面臨的社會挑戰(zhàn)

設(shè)計學(xué)協(xié)同算法偏見治理過程中面臨多個層面的挑戰(zhàn):如何確保社會公平、增強公眾對算法的信任感、協(xié)調(diào)跨學(xué)科協(xié)作,以及如何應(yīng)對技術(shù)依賴和權(quán)力結(jié)構(gòu)的不平等問題。

設(shè)計學(xué)針對算法偏見問題的協(xié)同治理旨在提升算法的透明度和用戶賦權(quán),但如何確保算法推薦內(nèi)容的平衡,避免放大社會不公仍是一個關(guān)鍵問題。個性化推薦對人們?nèi)粘I畹闹埔蕾嚁?shù)據(jù)和模型,但數(shù)據(jù)的收集和處理過程往往存在偏見。伊格納斯·卡爾波卡斯在其著作《算法治理》中指出,“數(shù)據(jù)既非客觀,亦非中立,僅僅是收集過程中固有實踐的結(jié)果”[8]35。算法系統(tǒng)的設(shè)計容易因數(shù)據(jù)的不平衡和算法學(xué)習(xí)的偏見,導(dǎo)致某些群體的權(quán)益被忽視或損害。因此,設(shè)計方法需從更廣泛的社會視角出發(fā),確保在多元化環(huán)境中實現(xiàn)真正的公平。

此外,算法偏見問題引發(fā)了公眾對算法的不信任,尤其是在涉及個人隱私、安全和公平時。Hargittai等人的研究提出,算法的黑箱特性、缺乏透明性和解釋能力,使得用戶難以窺探其具體運作方式,從而影響人們對算法系統(tǒng)的信任與合作[9]。因此,設(shè)計協(xié)同試圖通過提高透明度與解釋性來增強公眾信任感,但如何在難以窺視的算法系統(tǒng)中實現(xiàn)這一目標(biāo),同時避免交互過程過度復(fù)雜以及用戶被信息淹沒,仍面臨許多挑戰(zhàn)。因此,如何平衡算法透明度與用戶易用性,需要從用戶角度展開進一步探討。

針對算法治理的相關(guān)研究,跨學(xué)科協(xié)作是關(guān)鍵,主要涉及技術(shù)開發(fā)者、數(shù)據(jù)提供者、政策制定者以及最終用戶,這些主體之間的協(xié)作與溝通是開展研究的基礎(chǔ)。然而,如何協(xié)調(diào)多方利益、達成共識是一個復(fù)雜的過程。Friedman等人強調(diào),算法治理涉及多個領(lǐng)域的協(xié)作,且每個主體之間的利益可能存在矛盾,若不能有效協(xié)調(diào),可能導(dǎo)致治理失靈[10]。因此,設(shè)計學(xué)協(xié)同治理的一種重要方式便是應(yīng)用系統(tǒng)性的思維分析問題,從人與技術(shù)物之間的互動關(guān)系中找到解決算法問題的關(guān)鍵。但如何平衡不同主體的權(quán)益,則需要不同學(xué)科積極協(xié)作深入研究。

權(quán)力結(jié)構(gòu)與技術(shù)依賴是設(shè)計協(xié)同治理過程中需要面對的重要挑戰(zhàn)。算法系統(tǒng)的復(fù)雜性和數(shù)據(jù)的主導(dǎo)權(quán)往往掌握在少數(shù)人手中,這進一步加劇了技術(shù)與社會之間的不平等。技術(shù)持有者、技術(shù)壟斷者通過數(shù)字技術(shù)架構(gòu)大眾的生活、規(guī)制人們的行為,而人們則依據(jù)算法的分析與決策,將其視為“能夠?qū)崿F(xiàn)我們夢想的萬靈藥”[8]20。算法權(quán)力在社會中的日益滲透加劇了人類主體性的消解。因此,設(shè)計學(xué)應(yīng)關(guān)注如何通過賦能用戶,增強他們的主動性和決策權(quán),這不僅有助于提升人類的能動性,也能有效防止個體的異化。

3 創(chuàng)新與實踐:設(shè)計協(xié)同的算法偏見治理框架

3.1 設(shè)計協(xié)同的創(chuàng)新性潛力

在算法對社會的嵌入性不斷加強的當(dāng)下,設(shè)計學(xué)已經(jīng)由傳統(tǒng)面向設(shè)計物的功能導(dǎo)向轉(zhuǎn)變?yōu)閷Α叭恕夹g(shù)—社會”關(guān)系的關(guān)注,這一轉(zhuǎn)變使設(shè)計具備明確的協(xié)同算法偏見治理的可能性。設(shè)計可以通過明確的價值導(dǎo)向,促使算法開發(fā)者在設(shè)計過程中關(guān)注公平性、隱私保護和用戶權(quán)利;通過明確的設(shè)計實踐,如數(shù)字平臺的界面設(shè)計,提高算法的透明度,加深用戶對算法存在的感知與理解。

設(shè)計所強調(diào)的參與式,能讓用戶在算法系統(tǒng)的開發(fā)和決策中發(fā)揮更大的作用。通過參與式設(shè)計方法,用戶可以通過自身的算法知識,如算法民間理論,針對使用體驗提出反饋和建議,從而更有效地發(fā)現(xiàn)并解決用戶視角下的偏見問題,優(yōu)化用戶體驗。體驗設(shè)計的發(fā)展使設(shè)計更多地關(guān)注人的情感,是一種通過關(guān)注用戶的情感、行為和需求,優(yōu)化人與技術(shù)交互過程的設(shè)計實踐。從體驗出發(fā),深入探索用戶與算法之間的互動與聯(lián)系,將算法從被使用的工具轉(zhuǎn)向用戶與平臺之間的情感連接器[11],從而減少算法偏見帶來的影響,削弱用戶對算法的不信任感。設(shè)計學(xué)能夠通過這些方式提高算法系統(tǒng)的透明度,使用戶更好地理解和控制算法,減少偏見的影響,促進人與技術(shù)良性互動。

總的來說,這種設(shè)計協(xié)同的算法偏見治理模式,是通過加強算法與使用者之間的互動聯(lián)結(jié)、增進彼此之間的理解與合作發(fā)揮作用的,不同于技術(shù)層面純粹的技術(shù)開發(fā)與優(yōu)化。設(shè)計學(xué)通過關(guān)注技術(shù)的社會屬性,在算法偏見治理中發(fā)揮獨特的作用,使算法系統(tǒng)更加透明、公平和可解釋,加強用戶與算法之間的信任聯(lián)結(jié)與良性互動,解決社會不公、大數(shù)據(jù)“殺熟”、“信息繭房”等問題,使其成為“普通人友好型算法”。

3.2 設(shè)計協(xié)同算法偏見治理模型

設(shè)計協(xié)同的算法偏見治理模型(見圖1)是一種以用戶的需求與體驗為中心,通過界面設(shè)計提高算法透明度、增強用戶能動性、加強用戶算法信任與合作的過程。它著重強調(diào)用戶與算法之間的互動對解決算法問題的重要性,為個性化推薦算法造成的社會不公、大數(shù)據(jù)“殺熟”、“信息繭房”問題提供了獨特的解決方案。當(dāng)然,該模型僅僅從界面設(shè)計角度探討設(shè)計協(xié)同的可能性,未充分發(fā)揮設(shè)計的獨特優(yōu)勢,具有一定的局限性,還需要進一步研究與優(yōu)化。

界面設(shè)計與用戶賦權(quán)是提高算法透明度、打破“信息繭房”的重要因素,也是設(shè)計協(xié)同算法治理的有效途徑。通過可視化工具和交互優(yōu)化,界面設(shè)計能夠加深用戶對算法系統(tǒng)運行過程的理解,提高算法的透明度。例如,通過可視化推薦算法背后的邏輯和決策過程,強調(diào)“猜你喜歡”“你關(guān)注的”等元素的呈現(xiàn),用戶能夠更直觀地理解推薦內(nèi)容的來源,有助于減少誤解和不信任。此外,交互式數(shù)據(jù)摘要、數(shù)據(jù)流動可視化等工具,能夠使用戶在個性化推薦系統(tǒng)中看到數(shù)據(jù)的篩選和處理方式,這有助于用戶更準(zhǔn)確地識別算法可能存在的偏見。

用戶賦權(quán)則強調(diào)通過設(shè)計增強用戶的能動性,使他們主動參與和調(diào)整算法推薦的過程。根據(jù)設(shè)計學(xué)研究,設(shè)計師可以通過提供反饋通道和多元選擇功能,幫助用戶在算法系統(tǒng)中獲得更大的控制權(quán)與決策權(quán)。例如,基于反饋的調(diào)整機制或用戶生成推薦內(nèi)容的功能,能夠使用戶反映其興趣和需求(不喜歡、屏蔽、相似過多等),從而跳出“信息繭房”,接觸到更廣泛的信息。小紅書平臺的雙列多視圖展示的布局在一定程度上強化了人機互動中人的能動性,為用戶選擇留出更大的自主選擇空間。這種賦權(quán)使用戶不再僅僅被動接受算法的推薦,而是能夠?qū)?nèi)容生成和篩選過程進行干預(yù),增強系統(tǒng)的透明性和用戶的自主權(quán)。

研究表明,用戶賦權(quán)和界面設(shè)計結(jié)合能夠顯著提高算法系統(tǒng)的公平性和信任度。通過優(yōu)化界面,為用戶呈現(xiàn)數(shù)據(jù)處理過程以及對推薦內(nèi)容的反饋,能夠有效增強算法系統(tǒng)的公平性。此外,F(xiàn)riedman和Nissenbaum提出的價值敏感設(shè)計(VSD)框架,也強調(diào)了技術(shù)系統(tǒng)中設(shè)計協(xié)同的必要性,以減少系統(tǒng)中潛在的偏見問題。總之,界面設(shè)計和用戶賦權(quán)在設(shè)計協(xié)同的算法偏見治理中扮演著關(guān)鍵角色,設(shè)計師需要發(fā)揮自己的專業(yè)強項直面技術(shù)問題,從創(chuàng)新性視角探究算法帶來的影響與挑戰(zhàn)。

4 設(shè)計協(xié)同算法偏見治理的優(yōu)勢與局限

設(shè)計的參與性和體驗關(guān)注為治理算法偏見提供了全新的視角。本文基于設(shè)計協(xié)同的算法偏見治理框架,強調(diào)設(shè)計不僅作為技術(shù)優(yōu)化的補充,更作為促進社會責(zé)任與公平的核心力量。設(shè)計協(xié)同算法偏見治理的優(yōu)勢在于能夠從用戶體驗、社會文化等多維度出發(fā),構(gòu)建更加人性化、透明且具有社會責(zé)任感的算法系統(tǒng)。然而,這一治理模式也存在一定的局限性,需要在實踐中不斷完善。

4.1 協(xié)同優(yōu)勢:用戶與算法的良性互動

設(shè)計協(xié)同的一個顯著優(yōu)勢在于能夠增強用戶與算法系統(tǒng)之間的互動性與信任感。個性化推薦算法往往帶有“黑箱”特性,用戶難以理解算法的決策過程和偏向性。設(shè)計協(xié)同可以幫助用戶感知算法的存在、理解算法工作機制,并提供更友好的界面和反饋機制,使用戶主動參與到算法的調(diào)整和優(yōu)化過程中。在設(shè)計協(xié)同算法治理模型中,設(shè)計可以通過直觀的反饋系統(tǒng)告知用戶算法如何影響他們的推薦結(jié)果,或者通過設(shè)置可調(diào)節(jié)的算法參數(shù),使用戶根據(jù)自身需求定制推薦內(nèi)容。這種設(shè)計不僅能提升用戶對算法的認知能力,減少不信任感與其他負面情緒,還能通過與用戶的互動,實現(xiàn)對算法偏見的實時反饋與修正,從而解決算法帶來的社會問題。

4.2 學(xué)科局限:算法技術(shù)的復(fù)雜性

盡管設(shè)計協(xié)同算法偏見治理框架具有提升透明度和增強用戶參與感的優(yōu)勢,但其實施過程中的技術(shù)復(fù)雜性也帶來了挑戰(zhàn)。首先,個性化推薦算法背后的數(shù)據(jù)處理和模型運算涉及高度復(fù)雜的技術(shù)細節(jié),對普通用戶而言,這些技術(shù)內(nèi)容往往難以理解和掌握。即便通過設(shè)計改進增強了用戶對算法的感知能力,用戶仍可能面臨無法充分把握算法運作原理的困境。其次,算法偏見的識別和干預(yù)離不開持續(xù)的數(shù)據(jù)積累與反饋。即使設(shè)計協(xié)同能夠增強用戶對偏見的敏感性,但要實現(xiàn)全面的偏見修正,仍然需要大量的技術(shù)投入與持續(xù)的監(jiān)控機制,而這一過程涉及算法模型的不斷調(diào)整、數(shù)據(jù)采集的規(guī)范性以及人工智能技術(shù)的持續(xù)進步。因此,算法問題需要跨學(xué)科合作展開深入研究,本文只是提出一種新的研究思路,目的在于拓寬設(shè)計學(xué)的研究領(lǐng)域。

4.3 現(xiàn)實挑戰(zhàn):社會政治環(huán)境的干擾

設(shè)計協(xié)同算法偏見治理的實施也會受到社會政治環(huán)境的影響。國家主流的政治文化意識形態(tài)在信息傳播中占據(jù)絕大部分信息流,在數(shù)字平臺上,這些外部政治因素可能影響算法的設(shè)計方向。個性化推薦算法會根據(jù)國家政治情況對數(shù)據(jù)進行特殊篩選,這可能導(dǎo)致算法推薦內(nèi)容的極端化或政治化,加劇算法偏見,從而造成社會分裂或偏見傳播。在這種環(huán)境下,設(shè)計協(xié)同的算法治理可能面臨外部力量的干擾,難以發(fā)揮預(yù)期的社會責(zé)任效應(yīng)。因此,如何在保持設(shè)計創(chuàng)新的同時,平衡政治與社會的多重需求,仍然是設(shè)計協(xié)同算法治理模式實施的重要難題。

總體而言,設(shè)計協(xié)同算法偏見治理框架在提高算法透明度、促進用戶參與、推動社會公平方面具有顯著優(yōu)勢。然而,其實施過程中仍然面臨技術(shù)復(fù)雜性、文化適應(yīng)性和社會政治環(huán)境等多重挑戰(zhàn)。在未來的研究與實踐中,如何優(yōu)化設(shè)計協(xié)同框架,增強其適應(yīng)性與可操作性,仍需進一步探討。設(shè)計的介入與協(xié)同無疑為算法偏見治理提供了新的思路,但這一模式的成熟與普及還需要依賴跨學(xué)科的合作與長期的社會實驗。

5 結(jié)語

設(shè)計賦能算法、設(shè)計協(xié)同算法治理的探索,為解決社會公平問題提供了新的思路。當(dāng)前社會中算法的嵌入帶來了新的文化創(chuàng)造與社會形態(tài),算法不僅僅是人們解決問題的理性化工具,更是與日常生活密不可分的社會文化的一部分。算法問題的解決方案不應(yīng)局限于技術(shù)的優(yōu)化與突破,也應(yīng)從人文社科視角感受算法的文化屬性,探究用戶與算法之間的互動帶來的效應(yīng)。算法不可見并不意味著其不可感知,而人們對算法的感知能夠從心理層面突破算法的不透明性,使其褪去自身神秘的色彩。沒有了不可見、不可知的恐懼,算法問題帶來的社會負面影響便會得到緩解,用戶與算法之間也能夠?qū)崿F(xiàn)基于信任的情感聯(lián)結(jié)。

本文主要研究個性化推薦中的算法偏見帶來的社會影響,探究算法偏見帶來的設(shè)計挑戰(zhàn),構(gòu)建設(shè)計協(xié)同算法偏見治理框架,為解決算法問題尋求解決方案。鑒于這些探討,本文提出設(shè)計協(xié)同治理能夠加強用戶與算法之間的良性互動,將算法看作人(或者說社會)與技術(shù)物之間的聯(lián)結(jié),為公眾技術(shù)接納和算法教育提供參考。

當(dāng)然,算法偏見不僅僅表現(xiàn)在數(shù)字平臺的個性化推薦機制下,有關(guān)設(shè)計協(xié)同的模式也有在其他領(lǐng)域應(yīng)用的可能,如可穿戴設(shè)計中的數(shù)據(jù)追蹤。此外,算法治理并不僅僅代表算法問題的治理路徑,算法由于具有社會屬性,因此擁有社會治理能力。算法治理是數(shù)字社會由于技術(shù)發(fā)展所形成的新型治理模式。這些構(gòu)成了本文的研究局限,無法就其問題展開更加深入的探討。算法偏見治理是一項需要長期推動的跨學(xué)科合作研究,不僅需要關(guān)注技術(shù)的優(yōu)化與突破,也需要重點關(guān)注社會的發(fā)展與變革。

參考文獻:

[1] 托尼·弗賴.去未來化:一種新的設(shè)計哲學(xué)[M].施晗薇,譯.南京:江蘇鳳凰美術(shù)出版社,2024:25-43.

[2] Future of Life Institute. Asilomar AI Principles[EB/OL]. Future of Life Institute, (2017-05-15)[2024-10-01]. https://futureoflife.org/ai-principles/.

[3] Francisco Socal(2018). Bias in AI Algorithms: How Do We Keep It Out[EB/OL]. eeNews, (2017-12-06)[2024-10-01]. https://www.mwee.com/design-center/bias-ai-algorithms-how-do-we-keep-it-out.

[4] Miceli M, Posada J, Yang T. Studying up machine learning data: Why talk about bias when we mean power?[J]. Proceedings of the ACM on Human-Computer Interaction, 2022, 6(GROUP): 1-14.

[5] Friedman,B., Nissenbaum,H. Bias in computer systems. ACM Transactions on Information Systems, 1996, 14(3): 330-347.

[6] Caplan R, Boyd D. Isomorphism through algorithms: Institutional dependencies in the case of Facebook[J]. Big Data amp; Society, 2018, 5(1):1-12.

[7] 張愛軍.“算法利維坦”的風(fēng)險及其規(guī)制[J].探索與爭鳴,2021(1):95-102,179.

[8] 伊格納斯·卡爾波卡斯.算法治理:后人類時代的政治與法律[M].邱遙堃,譯.上海:上海人民出版社,2022:18-36.

[9] Hargittai E, Gruber J, Djukaric T, et al. Black box measures? How to study people's algorithm skills[J]. Information, Communication amp; Society, 2020, 23(5): 764-775.

[10] Friedman B, Kahn P H, Borning A, et al. Value sensitive design and information systems[J]. Early engagement and new technologies: Opening up the laboratory, 2013(16): 55-95.

[11] 別君華,曾鈺婷.算法想象的平臺參與及情感網(wǎng)絡(luò):基于“小紅書”的用戶分析[J].中國青年研究,2024(2):15-23.

基金項目:本論文為2024—2025年度四川美術(shù)學(xué)院重慶市研究生科研創(chuàng)新項目“算法治理:挑戰(zhàn)、權(quán)力關(guān)系與設(shè)計介入策略”研究成果,項目編號:CYS240644

作者簡介:田家婧 (1999—) ,女,研究方向:設(shè)計歷史與理論。

主站蜘蛛池模板: 一级毛片免费观看久| 亚洲69视频| 免费人欧美成又黄又爽的视频| 国产极品美女在线播放| 亚洲欧洲日韩综合色天使| 国产亚洲精品yxsp| 免费毛片全部不收费的| 日日噜噜夜夜狠狠视频| 久久五月视频| 26uuu国产精品视频| 亚洲国产成人久久精品软件| 亚洲黄色激情网站| 久久无码av三级| 国产美女无遮挡免费视频网站 | 毛片最新网址| 久久成人18免费| 国产精品成人第一区| 都市激情亚洲综合久久| 免费xxxxx在线观看网站| 99热国产这里只有精品无卡顿"| 日韩成人在线网站| 国产成人AV综合久久| 国产性生交xxxxx免费| 国产精品免费p区| 欧美激情视频在线观看一区| 国产精品性| 福利视频一区| 久久久久人妻一区精品| 国产精品亚洲а∨天堂免下载| 蜜桃视频一区| 一本色道久久88亚洲综合| 99在线视频精品| 色色中文字幕| 国产真实乱子伦精品视手机观看 | 亚洲高清中文字幕| 国产自在线拍| 日韩av高清无码一区二区三区| 国产亚卅精品无码| 国产精品久久久久久久伊一| www精品久久| 国产精品午夜福利麻豆| 国产无码精品在线播放| 日本久久网站| 日本草草视频在线观看| 久久久精品国产SM调教网站| 国模粉嫩小泬视频在线观看| 欧美激情视频一区| 国产高清不卡视频| 99免费在线观看视频| 亚洲国产在一区二区三区| 欧美一道本| 99re热精品视频国产免费| 国产经典在线观看一区| 亚洲国产成熟视频在线多多 | 国产最新无码专区在线| 爱色欧美亚洲综合图区| 国产精品免费p区| 成人年鲁鲁在线观看视频| 国产成人欧美| 麻豆精品在线| 色天天综合久久久久综合片| 国产手机在线小视频免费观看| 一区二区欧美日韩高清免费| 欧美成人h精品网站| 免费人成网站在线高清| 操美女免费网站| 蜜桃视频一区二区三区| 亚洲成人一区二区三区| 天天躁夜夜躁狠狠躁图片| 青青热久免费精品视频6| 无码专区第一页| 国产欧美亚洲精品第3页在线| 国产h视频免费观看| 亚洲精品高清视频| 亚洲国产AV无码综合原创| 久久久91人妻无码精品蜜桃HD| 亚洲毛片网站| 国产黄色爱视频| 欧美日韩亚洲国产主播第一区| 国产亚洲精品资源在线26u| 国产情侣一区二区三区| 熟妇人妻无乱码中文字幕真矢织江|