999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

消費市場人工智能社會責任協同治理研究:驅動模型、機制與策略

2024-01-01 00:00:00沈鵬熠彭德輝劉漫
貴州財經大學學報 2024年6期
關鍵詞:人工智能消費者

摘 要:

文章首先從內外部驅動因素、主被動參與協同和驅動結果三個方面提出消費市場人工智能社會責任協同治理驅動模型,并將感知AI可信度作為驅動結果;其次,依據協同治理理論,提出消費市場人工智能社會責任的外部協同治理機制和內部協同治理機制;最后,依據戰略性社會責任理論,從社會、企業、個體三個方面提出消費市場人工智能社會責任協同治理策略。研究結果不僅有利于促進人工智能技術在消費市場的科學和合理應用,還為進一步推進人工智能社會責任研究提供了理論基礎。

關鍵詞:

消費市場;人工智能;社會責任;協同治理

文章編號:2095-5960(2024)06-0089-11;中圖分類號:F713

;文獻標識碼:A

一、引言

人工智能(Artificial Intelligence,簡稱AI)在許多方面推動了服務消費,不僅可用于消費預測,促進消費決策,而且能實現可視化商品展示以及創造客戶參與。[1]并且,消費者越來越接受和采用人工智能產品。[2]全球人工智能市場規模預計將從2021年的583億美元增長到2026年的3096億美元,復合年增長率為39.7%。[3]在與人工智能產品的接觸中,由于能體驗到人工智能的好處,如個性化或便利性,消費者時常會產生積極的體驗。[4]然而,消費者在接受人工智能服務時也可能有負面體驗。例如,2023年7月,一款驟然爆火的“妙鴨相機”APP曾在“用戶協議”中聲稱,可將用戶信息以“任何形式任何范圍使用”。這則聲明引起了用戶質疑其過度索取隱私權限,妙鴨相機官方隨后被迫在公眾號回應稱,已第一時間根據“妙鴨”的實際情況進行了修改,并表示用戶所上傳的照片只會用于數字分身制作,不會提取也不會用于識別和其他用途,且分身制作完成后自動刪除。可見,人工智能技術發展雖有利于我國居民消費升級[5],但同時也帶來了社會責任失范問題。尤其是,生成式人工智能技術的發展帶來了一系列挑戰,如數據隱私泄露、算法偏見等問題。[6]這些社會責任及倫理道德問題能否得到解決,將極大地影響消費者對人工智能技術的信任。因此,組織應將負責任的人工智能技術與企業社會責任戰略聯系起來。

人工智能社會責任(Artificial Intelligence Social Responsibility,簡稱AISR)是企業社會責任(Corporate Social Responsibility,簡稱CSR)理論發展過程中的一個演進階段。D’ Cruz等將企業社會責任發展劃分為CSR1.0、CSR2.0、CSR3.0三個階段:在CSR1.0階段,其前提是企業的商業和社會利益是對立的;在CSR2.0階段,企業參與CSR不僅是因為道德上的需要,也是因為商業上的需要;在CSR3.0階段,在其概念化中包含了一個技術組成部分——技術社會責任。[3]因此,人工智能社會責任是CSR3.0階段的重要內容和表現形式。同時,在人工智能社會責任治理的相關研究中,Camilleri等從公共管理角度提出了人工智能治理框架,確定了人工智能治理的關鍵維度。[7]肖紅軍和張麗麗以大模型生命周期為時間維度,以關鍵要素為核心,構建了基于大模型關鍵要素的全生命周期倫理治理框架。[8]但是,上述研究主要是針對人工智能技術的治理而非直接針對人工智能社會責任的治理。在眾多領域中,消費市場已成為連接生產與消費的關鍵環節,也是人工智能技術應用的重要場景。盡管Du等開發了一個與消費市場人工智能相關的企業社會責任的概念框架[2],但現有研究主要涉及人工智能社會責任特定領域的研究,如AI決策過程的透明度[9]、AI驅動決策問責制[10]和算法責任[11]等,較少有直接針對消費市場人工智能社會責任的全面、系統和深入研究。

綜上所述,現有研究主要存在以下三個問題:第一,多從公共管理角度研究人工智能治理,缺乏從利益相關者角度深入探討人工智能社會責任治理;第二,聚焦于人工智能技術的倫理失范問題,缺乏提出人工智能社會責任治理方案;第三,側重探討人工智能在特定領域的風險策略,缺乏系統分析消費市場人工智能社會責任的協同治理機制和策略。因此,本文對消費市場人工智能社會責任的協同治理展開深入研究,進一步明確人工智能社會責任協同治理驅動模型、機制與策略,對人工智能社會責任的理論研究和實踐探索均具有重要意義。

二、消費市場人工智能社會責任協同治理驅動模型

(一)消費市場人工智能社會責任的內涵和分類

1.消費市場人工智能社會責任的內涵

人工智能是能模仿人類認知的機器或計算機技術。[12]隨著人工智能技術的廣泛應用,如何在推動這項技術發展的同時,確保它對社會、環境以及個體產生積極的影響,承擔起必要的社會責任,成為學界日益關注的話題。社會責任不僅是一個道德框架,更是一種行動指南,它要求技術的使用者、開發者和推廣者在追求技術進步的同時,也要考慮到技術對社會、經濟、環境的綜合影響。[13]目前,學界將人工智能與社會責任相結合的研究尚處于探索階段。例如,Wang等[14]和Díaz-Rodríguez等[6]提出了負責任人工智能的概念,強調在人工智能的規劃與實施中融入道德和負責任的元素,旨在確保人工智能技術的透明性、可審計性和問責制,從而使其更加符合社會期望和規范。肖紅軍從算法責任的角度探討了如何通過透明和道德的算法來管理其對社會、利益相關方以及自然環境的影響。[11] Huang等則聚焦于人工智能倫理的研究,強調在人工智能的開發與應用中應遵循道德準則和社會價值觀,這對于防止人工智能技術對人類和社會造成負面影響至關重要。[15]綜上所述,現有研究主要停留在負責任的人工智能、算法責任、人工智能倫理三個概念層面,仍缺乏直接針對人工智能社會責任的概念描述和理論探討。因此,本文結合現有的相關研究,將消費市場人工智能社會責任界定為在消費市場中確保AI技術的開發、應用等符合法律、道德和社會價值觀,最大程度地增進人類福祉、公平正義、隱私保護、環境保護和經濟繁榮。

2.消費市場人工智能社會責任的分類

由于人工智能技術不斷增長和迭代,其倫理挑戰將更加嚴峻。[16]根據服務主導邏輯理論[17],有效地解決與人工智能相關的倫理挑戰不僅會為企業在人工智能時代發展核心能力提供機會,還會增強企業與消費者之間的價值共創水平。人工智能技術的快速發展,為人類生活帶來便利和創造價值的同時,也引發了一系列的社會責任缺失問題。其中,人工智能專制[18]、消費者隱私泄露、網絡安全和自主性等問題與人工智能技術的快速發展交織在一起。本文借鑒Du等[2]的觀點,具體從產品、消費者和社會三個層面闡述消費市場人工智能社會責任的分類及其構成內容,如表1所示。

(1)產品層面的人工智能社會責任

隨著人工智能算法在消費市場的廣泛應用,算法偏見現象逐步引起關注。例如,馬皚和宋業臻的研究關注到人工智能犯罪風險評估領域中存在著“算法歧視”。[29]算法識別出女性對購物的熱情,使其成為廣告推送的主要目標,它以極其微妙的形式對用戶進行分析、操縱和干預,使其逐步上癮以便維護技術的霸權利益。[24]人工智能偏見存在于從人臉識別、語音識別、搜索引擎到自動駕駛汽車[30]和醫療機器人的各種應用中,反映了制度基礎設施的嚴重失衡,并可能加劇社會不公平。由此,人工智能算法邏輯問題逐漸顯現,而作為算法邏輯引發的AI偏見引起了社會的關注。同時,技術道德中介理論強調技術不僅塑造人類的體驗和行為,還在道德構建中扮演積極角色。該理論呼吁人們認識到技術設計、實施和使用中的倫理設計問題,并理解其對社會和人類生活的深遠影響。因此,人工智能技術的道德規范應內化為其自我約束,以符合社會倫理。例如,自動駕駛汽車面臨的“電車問題”就是開發者必須考慮的道德挑戰之一[31],確保其決策和行為遵循道德準則。可見,隨著人工智能技術在日常生活中的廣泛應用,將道德價值觀融入人工智能產品設計中已成為開發者的關鍵任務。因此,算法偏見和倫理設計構成了產品層面的人工智能社會責任的重要內容。

(2)消費者層面的人工智能社會責任

消費者基于人機交互的體驗主要依靠人工智能收集、存儲包含個人隱私數據在內的海量信息來實現升級,但隱私信息獲取和使用的不確定性,可能會引發消費者對于隱私泄露和失去數據所有權的擔憂。[22]因而,消費者面臨的“以隱私換服務”的行為更加值得斟酌和考量。[32]同時,網絡安全是指保護計算機系統和網絡免受未經授權的訪問、使用、披露、破壞、干擾或濫用的能力。網絡安全是一個與隱私問題密切相關的概念。隨著人工智能產品收集消費者數據的規模不斷擴大,以及社交媒體、云服務、物聯網和移動互聯網的持續增長,潛在的網絡犯罪和數據泄露風險急劇增加,增加了消費者對網絡安全的需求。因此,隱私保護和網絡安全構成了消費者層面的人工智能社會責任的重要內容。

(3)社會層面的人工智能社會責任

首先,自主性是指個體在自我控制和自我選擇的過程中,受考慮、欲望、條件和特征的引導,這些考慮、欲望、條件和特征不僅僅是外部強加給自己的,而是某種程度上可以被視為真實自我的一部分。人工智能產品可能會對個人自主性產生負面影響。以廣告為例,現在大多數在線廣告都是由復雜的人工智能算法提供的。人工智能廣告整合了來自各種平臺、網站和服務的有關訪客檔案、瀏覽歷史記錄和社交媒體活動的信息,以瞄準消費者并提供個性化廣告。[33]然而,這種高度個性化的廣告會微妙地操縱個人偏好,剝奪個人反思自己偏好或做出權衡的機會,從而對個人自主性產生不利影響。[24]這種極具個性化的廣告削弱了個人自主選擇的能力。其次,人工智能產品對消費者幸福感也可能產生負面影響,主要表現為數字成癮,如社交媒體成癮和智能手機成癮。[34]人工智能技術廣泛應用于網站和社交媒體平臺,以過濾新聞源、消息和媒體內容,并提供有針對性的推薦,其主要目標是最大限度地延長消費者在網站和社交媒體平臺上花費的時間。這些平臺在吸引消費者注意力方面越來越有效,易產生強迫或成癮行為。越來越多的證據表明,強迫性使用社交媒體是一個日益嚴重的心理健康問題。[27]各種類型的數字成癮普遍存在,并對關系質量和生活滿意度產生不利影響[28],降低了消費者幸福感。最后,深偽技術(Deepfake Technology)是通過深度學習使用生成和合成算法,從現有數據中合成或以圖片、聲音、視頻和虛擬空間的形式憑空生成數字人或數字產品。[35]其中,數字人直播是深偽技術在消費市場的具體表現。與傳統的虛假信息相比,深偽信息具有更大的生動性、說服力、可信度和分享意圖。[22]同時,觀眾可能會因為深偽信息而產生錯誤的信念。[36]綜上所述,自主性、幸福感和深偽技術構成了社會層面的人工智能社會責任的重要內容。

(二)消費市場人工智能社會責任協同治理驅動模型

消費市場人工智能社會責任協同治理是指在消費市場人工智能社會責任治理過程中,強調多個利益相關者主體參與治理過程并發揮協同聯動作用,通過實現多主體、全過程和各領域的協同治理,將協同治理理念應用于人工智能社會責任設計和履行的各個環節,以最大限度地發揮治理效能,促進人工智能技術的良性發展和健康應用。本文擬從內外部驅動、主被動參與協同、驅動結果三個方面,構建消費市場人工智能社會責任協同治理驅動模型,如圖1所示。

1.內外部驅動

內外部驅動是指充分發揮利益相關者在人工智能社會責任治理中的驅動作用。根據利益相關者理論,企業只有通過與利益相關者互動才能有效實現目標,而人工智能社會責任作為與利益相關者關系密切的企業戰略性活動,需要獲得利益相關者的支持。由于人工智能技術的不確定性[37],還沒有一個機構或主體能單獨應對人工智能潛在社會責任問題。因此,人工智能社會責任治理必須廣泛發揮利益相關者的作用——包括技術人員(科學家、算法工程師)、商業人員(制造商、運營商、銷售商)、消費者、社會部門(非政府組織、媒體)、學者、政府和公眾。因此,全社會迫切需要一種能夠實現上下互動、左右聯通的利益相關者組織網絡,通過協商合作和增加互信等方式重構治理主體之間的關系。在這個網絡中,各個利益相關者應該承擔不同的責任,既有人工智能的“合作監管者”,又有人工智能的“競爭參與者”,通過多邊監管與合作,實現人工智能算法設計、產品開發和成果應用的全流程監管和規范,從而實現人工智能社會責任協同治理目標。根據Clarkson的觀點[38],本文將利益相關者分為核心利益相關者和邊緣利益相關者。其中,核心利益相關者包含技術人員(科學家、算法工程師)、商業人員(制造商、運營商、銷售商)和消費者,這些核心利益相關者是人工智能社會責任協同治理的內部驅動力量;而社會部門(非政府組織、媒體)、學者、政府和公眾等邊緣利益相關者是人工智能社會責任協同治理的外部驅動力量。

2.主被動參與協同

根據制度理論,制度壓力劃分為兩個方面:一是被動型制度壓力,主要體現為政策制度環境和非正式環境對企業的制約,企業處于被動順從角色;二是主動型制度壓力,強調企業有意或無意的模仿行為,處于能主動并根據外部環境做出戰略決策的角色。[39]本文提出的內部驅動力量由核心利益相關者組成,更適合主動參與協同治理;而邊緣利益相關者通過法律或輿論影響企業道德行為,更適合被動參與協同治理。因此,本文認為應充分發揮核心利益相關者作為內部驅動力量的主動參與協同治理行為,并補充邊緣利益相關者作為外部驅動力量的被動參與協同治理行為,從而共同走向消費市場人工智能社會責任高效協同治理模式。

3.驅動結果

消費市場人工智能社會責任協同治理的重要目標是實現感知AI可信度,感知AI可信度也構成了人工智能社會責任協同治理驅動模型中的驅動結果。Khan等從公平性、問責制、透明度(Fairness、Accountability、Transparency,簡稱FAT)和可定制性(專業知識)四個方面界定了感知AI可信度。[40]AI可信度影響人工智能的消費者體驗,如數據捕獲、分類、授權和社會交互。[41]在常見的人工智能服務中,由于人工智能的個性化或便利性優勢,消費者常會有積極體驗。[4]然而,消費者在接受人工智能服務的同時,也可能會面臨負面體驗。因此,消費者在人工智能產生的福祉和帶來的風險之間游走。同時,人工智能又擁有隱藏的技術核心、擬人化的技術形式、跨領域應用的機會、交織的利益主體、多維度的技術風險和復雜的社會影響等屬性。[2]這些屬性在人工智能技術的開發和應用中產生了許多倫理問題,包括侵權、歧視、技術巨頭、數字鴻溝、信息繭房、馬太效應等。因此,不斷提升AI可信度,才能充分發揮人工智能技術的積極效應而抑制其消極效應,感知AI可信度體現了利益相關者參與消費市場人工智能社會責任協同治理的重要結果。

三、消費市場人工智能社會責任協同治理機制

企業社會責任的基本前提是企業和社會利益是協同而非零和的,通過實現利益相關者的利益,對社會負責的公司也獲得一系列商業利益回報。[42]王彥雨等在對歐美人工智能治理模式比較研究后,提出人工智能治理需要平衡“發展”與“倫理”之間的關系,在國家規制與多元參與之間協同。[43]協同治理作為一種新的治理形式,將各利益相關主體通過正式和非正式組織聚在一起,共謀共識、參與決策,取代了以往單一主體治理機制和治理模式。本文根據Ansell的協同治理理論[44],提出消費市場人工智能社會責任協同治理機制的基本框架,該框架包括人工智能社會責任協同治理的起始條件、協同過程、外部作用條件和協同結果。其中,本文將人工智能社會責任的驅動因素和協同治理執行系統作為協同治理模型的起始條件,將利益相關者的內外部協同治理機制作為協同的參與過程,將治理成果作為協同治理的結果。如圖2所示。

(一)外部協同治理機制

人工智能社會責任外部協同治理機制是指充分利用外部環境中政府、社會部門、公眾等邊緣利益相關者的力量來約束和引導企業人工智能社會責任行為,主要涉及人工智能的“硬治理”保障機制和“軟治理”糾偏機制。

1.“硬治理”保障機制

“硬治理”指由政府層面實施的傳統監管方式,如法律法規。從政治經濟學的角度來看, AI的負面干擾和負面影響可被視為市場失靈。[45]市場失靈是監管理論的一個核心概念,是指自由市場中的一種狀態,在這種狀態下,資源沒有得到有效配置,并且沒有為市場中的所有利益相關者考慮成本和機會。市場失靈常常導致有害的局面和社會不穩定。根據傳統的監管理論,政府負責監管以避免市場失靈并防止對社會成員造成傷害。由于人工智能的起步階段幾乎不可能根據過去的事件或歷史判斷來解釋和制定監管,因此政府尋求將監管建立在人類價值觀和道德規范的基礎上,以指導監管決策。[46]從基于利益的監管理論角度看,政府監管的正當性在于保護公共利益不受其他形式利益的侵害。監管用于實現資源的優化配置和穩定市場[47],進而防止市場失靈的發生。監管者必須管理不同利益相關者的期望,在此過程中實現公共利益和私人利益之間的平衡。[47]因此,來自監管者的“硬治理”保障機制是消費市場人工智能社會責任外部協同治理機制的重要組成部分。

2.“軟治理”糾偏機制

人工智能社會責任協同治理要求組織領導人遵守相關法律和法規,并遵循道德規范和價值觀。由于監管過程不僅要考慮人工智能帶來的挑戰,還要考慮效率的提高、工作量的減少和其他影響。[48]為了更有效地監管,Boyd等認為,在這個過程中的參與者應該合作,以代表所有利益集團的知識和專長。[49]因此,為了建立一個有韌性、有活力的人工智能社會責任協同治理體系,需要重視國家規制并積極推動多元力量的參與,將自上而下和自下而上的治理模式相結合,以避免政府過度投入和治理體系僵化等問題。[43]例如,非政府組織通過倡導倫理標準和監督企業行為來推動負責任的人工智能使用;媒體提升公眾意識,促進政策制定和行業透明度;公眾參與決策過程,確保政策的合法性和接受度。這些角色的共同努力確保了人工智能社會責任“軟治理”的糾偏機制。可見,來自利益相關者的“軟治理”糾偏機制是消費市場人工智能社會責任外部協同治理機制的重要組成部分。通過對上述外部協同治理機制的分析可以發現,政府的“硬治理”保障機制更傾向于維護消費市場運行的基本規律,以求公平公正;而利益相關者的“軟治理”糾偏機制偏向技術的規范發展以求人類與人工智能技術的共生、平衡關系。

(二)內部協同治理機制

通過參與人工智能社會責任協同治理,企業可以更好地管理其與利益相關者的關系,并符合外部制度環境要求,從而為企業人工智能業務獲得道德合法性,并贏得更多利益相關者的支持。[50]在評估人工智能社會責任倡議時,企業不僅應該重視外部因素的影響,還應該檢查內在因素的作用(如品牌態度、信任、產品滿意度)。[51]后者是更長期的關系結果,有助于企業人工智能產品的持續增長。同時,人工智能社會責任倡議也會產生多方面的影響。除了企業的業務成果之外,這些倡議還為消費者帶來了積極的成果,如增加用戶體驗和自主權、更好的隱私保護以及更高的消費者福祉。因此,在積極落實外部協同治理機制時,也要理順內部協同治理機制。

人工智能社會責任內部協同治理機制需要就兩個領域的目標達成共識,即以效益提升促進客戶體驗和以創新發展促進企業成長兩個方面。內部協同治理機制涉及的核心利益相關者有技術人員(科學家、算法工程師)和商業人員(制造商、運營商、銷售商),這些供應鏈上下游環節的核心利益相關者的作用貫穿客戶體驗旅程。在傳統消費環境中,消費者信息有限且相對割裂,消費者畫像相對模糊,而AI技術實現了消費者全生命周期、全消費鏈路以及全場景信息的數據化。內部協同治理機制的核心利益相關者可基于千人千面的個性化數據為消費者提供有針對性的服務,從而實現企業效益提升并增強客戶體驗。在企業成長方面,企業包含了研發、計劃、采購、制造、市場、銷售、交付和服務等多種職能,這些職能通過相互協同來實現企業的整體運作和績效提升。而在人工智能時代,企業多種職能均需不斷迭代創新。因此,成功的企業正在逐步從僅關注企業內部協同轉變為強調整個供應鏈上下游企業之間的高效協同,如企業內部技術人員、制造商、銷售商和運營商之間的高效協作,從而為不斷滿足消費者日益增長的品質需求與服務體驗而持續創新,最終促進企業自身的可持續成長。

四、基于戰略性社會責任理論的人工智能社會責任協同治理策略

戰略性企業社會責任(Strategic Corporate Social Responsibility,簡稱SCSR)理論是一種前瞻性的商業哲學,它深刻認識到企業與社會需求之間具有密不可分的聯系。[52]在這一理論的指導下,企業不僅僅是為了追求利潤最大化,更是為了通過提供高質量的產品和服務來滿足社會的需求,從而提升整個社會的福祉。戰略性企業社會責任的關鍵在于對企業利益相關者的綜合考量,包括但不限于股東、員工、消費者以及政府等各利益相關方。企業在制定和實施戰略決策時,需要充分考慮利益相關者的需求和期望,以確保其決策和行動能夠平衡各方利益,從而實現共贏。因此,本文基于戰略性社會責任理論,從社會、企業、個體三個方面提出消費市場人工智能社會責任三維協同治理策略模型,主要包含了外部協同治理策略和內部協同治理策略兩個方面,如圖3所示。

(一)外部協同治理策略

1.“硬治理”策略

“硬治理”策略是確保AI技術負責任使用的關鍵。它基于法律法規,保護消費者的基本權利,如生命權、平等權、隱私權和安全權。“硬治理”策略的實施需要制定相關法律法規,確保消費者受AI技術侵犯時有補救措施,從而平衡AI技術的風險與收益。可以借鑒歐盟《人工智能法》等國際立法,確保監管標準既具針對性又符合國際標準。監管機構的設立和運行是“硬治理”策略的重要部分,政府需要適應數字經濟需求推進監管轉型,設計有效的人工智能監管政策,平衡人工智能時代的數據應用與保密。政府監管對于避免市場失靈和資源有效配置至關重要。監管者需要在發揮人工智能效率和降低人工智能風險之間找到平衡。這些“硬治理”策略通過明確的法律、高效的監管和平衡的市場機制,能有效促進AI技術在消費市場的健康應用和發展,切實維護消費者利益。

2.“軟治理”策略

“軟治理”策略是“硬治理”策略的靈活補充,專注于彌補人工智能社會責任治理的細微缺陷。“軟治理”策略強調多方參與和協同合作,以推動人工智能技術的健康與可持續發展。因此,有必要發揮和倡導行業協會的自治與自律,通過“倫理治理委員會”的設立與定期交流,促進人工智能技術在行業應用中的道德規范的統一與完善。同時,高校與科研機構的積極參與,為人工智能社會責任協同治理注入了科學智慧與理論深度,確保策略制定更具前瞻性與實用性。此外,還應圍繞人工智能治理構建伙伴關系,深化各方之間的交流與合作,共同探索與分享最佳人工智能社會責任治理實踐和經驗,從而不斷提升人工智能社會責任協同治理能力。在此過程中,還應重視對消費者倫理道德素養的教育與培訓,從消費端進一步提高對企業履行人工智能社會責任的要求。可見,為構建富有韌性與活力的人工智能社會責任協同治理體系,需要注重國家規制與多元力量的有機結合,激發企業、消費者、政府、公眾等社會多元利益主體的協作與參與,共同推動人工智能的繁榮與進步。

(二)內部協同治理策略

1.基于效益提升的協同治理策略

(1)克服AI偏見,確保消費公平

AI偏見是指人工智能算法在處理和解析數據時,因數據本身的偏見或算法設計的缺陷,而導致的對特定群體或個體的不公平對待。為了克服AI偏見,提升消費公平性,需要采取以下措施:首先,提高算法透明度。算法透明度是識別和減輕偏見的關鍵。人工智能系統應提供關于其決策過程的詳細解釋,讓消費者和監管機構能夠了解并驗證算法的公正性。這可以通過公布算法原理、數據來源和決策邏輯等方式實現。例如,在推薦商品或服務時,人工智能客服可以解釋為何推薦某種產品或服務,以及該決策是如何基于消費者的歷史行為和個人偏好得出的。其次,加強算法審計。算法審計是確保算法公正性的有效手段。人工智能系統應接受內外部利益相關者的審計或質量控制,以確保其不存在偏見。審計過程包括對數據來源的驗證、算法邏輯的審查以及對決策結果的評估。如果發現算法偏見存在,應及時進行修正或優化。最后,建立問責機制。建立明確的問責機制是確保算法公正性的重要保障。人工智能系統的開發者、運營者和使用者都應承擔相應的責任,確保算法的公正性和準確性。當算法出現錯誤或偏見時,應有明確的責任追究機制,以確保問題得到及時解決。

(2)平衡消費者隱私保護和個性化服務需求,保護個人信息安全

由于AI系統需要收集和處理大量的個人信息以提供個性化服務,因此必須采取有效措施確保消費者隱私不被侵犯。為了平衡消費者隱私和個性化服務需求,需要采取以下措施:

第一,明確隱私政策。人工智能系統應制定明確的隱私政策,告知消費者個人信息的收集、使用和共享方式。隱私政策應簡潔明了、易于理解,并在用戶首次使用人工智能系統時以顯著方式提示。第二,加強數據加密。為了保護消費者的個人信息不被未經授權的訪問或泄露,人工智能系統應采用高強度的數據加密技術。通過加密技術,即使數據在傳輸或存儲過程中被截獲,也無法被未經授權的用戶解密和讀取。第三,限制數據訪問。人工智能系統應嚴格限制對消費者個人信息的訪問權限。只有經過授權的人員或系統才能訪問消費者的個人信息,并且應對訪問行為進行記錄和審計。此外,還應建立數據泄露應急響應機制,以便在發生數據泄露時能夠迅速采取措施減少損失。第四,提供隱私保護選項。人工智能系統應提供隱私保護選項,允許消費者根據自己的需求選擇是否共享個人信息。例如,消費者可以選擇關閉個性化推薦功能或限制AI系統對其歷史行為的追蹤和分析。通過提供隱私保護選項,可以在保障個性化服務的同時更好地保護消費者的個人信息安全。

2.基于創新發展的協同治理策略

(1)加強人工智能倫理設計

隨著人工智能在消費市場的廣泛應用,如何確保其遵循倫理規范、保護消費者的合法權益,已成為人類社會面臨的重要挑戰。倫理設計不僅關系到人工智能技術的可信度,更直接影響到人工智能在消費市場的健康與可持續發展,其在人工智能技術的發展中扮演著舉足輕重的角色。因此,有必要制定并嚴格遵循一套全面的倫理準則。這些準則應貫穿于人工智能技術的研發、應用及推廣全過程,確保其始終符合社會、法律和倫理道德的規范。同時,數據保護也是人工智能倫理設計的核心環節。人類必須采取先進的技術手段和完善的管理措施,全方位保障消費者數據的安全性和隱私性,讓消費者在使用人工智能服務時無后顧之憂。此外,提高人工智能技術透明度也至關重要。通過向消費者展示人工智能技術的原理、決策過程和使用方式,可以有效減少消費者的誤解和疑慮,增強消費者對人工智能技術的信任感。這種透明度不僅有助于建立消費者與人工智能技術之間的信任橋梁,還能為技術的進一步發展和優化提供有力的社會支持。

(2)提升消費者幸福感

消費者幸福感是衡量人工智能技術在消費市場應用成功與否的關鍵。為了提升消費者幸福感,需要從多個方面進行努力。首先,優化用戶體驗是關鍵。通過不斷提高人工智能系統的智能化、個性化和便捷化程度,能夠更好地滿足消費者日益多樣化的需求。智能化技術可以幫助企業更精準地推薦產品,提供個性化的服務,為消費者帶來更加優質、便捷、愉悅的購物體驗。便捷化的操作界面和流程則能節省消費者的時間和精力,提升購物效率。其次,積極鼓勵消費者參與。通過建立有效的溝通機制,企業可以及時了解消費者的反饋和建議,進而對人工智能技術進行調整和優化。這種互動不僅能增強消費者對人工智能技術的參與感和歸屬感,還能幫助企業不斷完善人工智能產品和服務,提升市場競爭力。最后,建立情感連接。借助人工智能技術,企業可以與消費者建立深厚的情感聯系,從而增強消費者對企業的忠誠度和黏性。這種情感連接不僅有助于提升人工智能技術的應用效果,還能為企業帶來穩定的客戶群體和持續的市場需求。總之,在消費市場人工智能社會責任協同治理策略中,應注重消費者幸福感的培養、維護和提升,這將會為企業帶來長遠的商業價值和社會效益。

五、研究結論和展望

(一)研究結論

首先,本文明確了消費市場人工智能社會責任的內涵,在識別負責任的人工智能、算法責任、人工智能倫理概念的基礎上,提出消費市場人工智能社會責任概念是指在消費市場中確保AI技術的開發、應用符合法律、道德和社會價值觀要求,最大程度地促進人類福祉、公平正義、隱私保護、環境保護以及經濟繁榮。并且,進一步從產品、消費者和社會三個層面闡述了消費市場人工智能社會責任的分類,分別將算法偏見和倫理設計理解為產品層面的人工智能社會責任的重要內容,隱私保護和網絡安全理解為消費者層面的人工智能社會責任的重要內容,自主性、幸福感和深偽技術理解為社會層面的人工智能社會責任的重要內容。

其次,本文基于制度理論和利益相關者理論,分別從內外部驅動、主被動參與協同、驅動結果三個方面構建了消費市場人工智能社會責任協同治理驅動模型。并且,提出應充分發揮核心利益相關者在人工智能社會責任協同治理中的內部驅動作用和主動參與協同治理角色,以及邊緣利益相關者在人工智能社會責任協同治理中的外部驅動作用和被動參與協同治理角色,從而推動消費市場人工智能社會責任高效協同治理模式的形成,促進協同治理目標的實現。

再次,本文根據協同治理理論,提出消費市場人工智能社會責任協同治理機制的基本框架。其中,人工智能社會責任的驅動因素和協同治理執行系統作為協同治理模型的起始條件,將利益相關者的內外部協同治理機制作為協同的參與過程,治理成果作為協同治理的結果。研究還強調,人工智能社會責任外部治理機制應充分利用政府、非政府組織、公眾等邊緣利益相關者的力量來約束和引導企業人工智能社會責任行為,主要涉及人工智能的“硬治理”保障機制和“軟治理”糾偏機制。而人工智能社會責任內部協同機制需要就兩個領域的目標達成共識,即以效益提升促進客戶體驗和以創新發展促進企業成長。

最后,本文基于戰略性企業社會責任理論,從社會、企業、個體三個方面提出消費市場人工智能社會責任三維協同治理策略模型,涵蓋了外部協同治理策略和內部協同治理策略。其中,外部協同治理策略包括“硬治理”策略和“軟治理”策略。內部協同治理策略包括基于效益提升的協同治理策略和基于創新發展的協同治理策略,分別強調應克服AI偏見以確保消費公平,平衡消費者隱私保護和個性化服務需求以保護個人信息安全,加強人工智能倫理設計以及提升消費者幸福感。

(二)研究局限與未來展望

盡管本文對消費市場人工智能社會責任協同治理的驅動模型、機制和策略進行了系統、深入探究,但仍然存在一些局限需要在未來研究中加以改進。

首先,本文主要從戰略管理學科對消費市場人工智能社會責任協同治理體系進行建構和分析,存在學科視角單一的不足。未來可以進一步從社會學、心理學和經濟學等多學科角度,廣泛開展人工智能社會責任對就業、產業升級、市場結構以及社會經濟結構的影響研究,為人工智能社會責任的應用提供更全面的場景洞察。

其次,本文所采取的研究方法以文獻回顧和理性思辨的定性研究為主,缺乏量化分析和實證檢驗。在未來的研究中,有必要進一步結合問卷調查法、實地實驗法和案例分析法等混合研究方法推進消費市場人工智能社會責任協同治理影響因素和效能的研究,從而為政策制定和行業實踐提供客觀數據支持。

再次,考慮到人工智能技術的不斷迭代和快速演進,未來的研究還需關注人工智能社會責任治理面臨的新挑戰。隨著生成式人工智能技術的發展及其與產業的深度融合,又會出現生成式人工智能技術相關的社會責任失范問題。因此,未來研究可以關注生成式人工智能社會責任治理體系的構建和完善。

最后,本文是面向中國消費市場的人工智能社會責任協同治理研究,其模型、機制和策略對全球市場的普適性有待進一步推廣和探索。因此,未來的研究有必要結合各國國情和制度環境進行消費市場人工智能社會責任治理體系的完善和優化,并進一步推進消費市場人工智能社會責任協同治理研究,從而豐富全球人工智能社會責任治理理論和實踐框架。

參考文獻:

[1]Grewal D, Noble S M, Roggeveen A L, et al. The future of in-store technology[J]. Journal of the Academy of Marketing Science, 2020, 48: 96~113.

[2]Du S, Xie C. Paradoxes of artificial intelligence in consumer markets: Ethical challenges and opportunities[J]. Journal of Business Research, 2021, 129: 961~974.

[3]D’Cruz P, Du S, Noronha E, et al. Technology, megatrends and work: Thoughts on the future of business ethics[J]. Journal of business ethics, 2022, 180(3): 879~902.

[4]Ameen N, Tarhini A, Reppel A, et al. Customer experiences in the age of artificial intelligence[J]. Computers in human behavior, 2021, 114: 106548.

[5]丁建勛,羅潤東.人工智能發展有利于我國居民消費擴容嗎[J].貴州財經大學學報, 2023(3): 18~28.

[6]張詩濠,李赟,李韜.ChatGPT類生成式人工智能的風險及其治理[J].貴州社會科學,2023(11):138~143.

[7]Camilleri M A. Artificial intelligence governance: Ethical considerations and implications for social responsibility[J]. Expert systems, 2024, 41(7): 1~15.

[8]肖紅軍,張麗麗.大模型倫理失范的理論解構與治理創新[J].財經問題研究, 2024(5): 15~32.

[9]Nassar A, Kamal M. Ethical dilemmas in AI-powered decision-making: a deep dive into big data-driven ethical considerations[J]. International Journal of Responsible Artificial Intelligence, 2021, 11(8): 1~11.

[10]Shin D. The effects of explainability and causability on perception, trust, and acceptance: Implications for explainable AI[J]. International journal of human-computer studies, 2021, 146: 102551.

[11]肖紅軍.算法責任:理論證成、全景畫像與治理范式[J].管理世界, 2022(4): 200~226.

[12]毛子駿,朱鈺謙.人工智能的國外社會科學研究熱點綜述[J].電子科技大學學報(社科版), 2023(2): 55~67.

[13]Palmer K, Oates W E, Portney P R. Tightening environmental standards: the benefit-cost or the no-cost paradigm?[J]. Journal of economic perspectives, 1995, 9(4): 119~132.

[14]Wang Y, Xiong M, Olya H. Toward an understanding of responsible artificial intelligence practices[C]//Proceedings of the 53rd hawaii international conference on system sciences. Hawaii International Conference on System Sciences (HICSS), 2020: 4962~4971.

[15]Huang C, Zhang Z, Mao B, et al. An overview of artificial intelligence ethics[J]. IEEE Transactions on Artificial Intelligence, 2022, 4(4): 799~819.

[16]Etzioni A, Etzioni O. Incorporating ethics into artificial intelligence[J]. The Journal of Ethics, 2017, 21: 403~418.

[17]Vargo S L, Lusch R F. Service-dominant logic 2025[J]. International journal of research in marketing, 2017, 34(1): 46~67.

[18]張紅春,宋洪.從排斥到包容公眾:參與式政府算法治理的邏輯與進路[J].貴州大學學報(社會科學版),2023(2):33~44.

[19]Koniakou V. From the “rush to ethics” to the “race for governance” in Artificial Intelligence[J]. Information Systems Frontiers, 2023, 25(1): 71~102.

[20]Varona D, Suárez J L. Discrimination, bias, fairness, and trustworthy AI[J]. Applied Sciences, 2022, 12(12): 5826.

[21]Kaplan A, Haenlein M. Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence[J]. Business horizons, 2019, 62(1): 15~25.

[22]朱國瑋,高文麗,劉佳惠,等.人工智能營銷:研究述評與展望[J].外國經濟與管理, 2021(7): 86~96.

[23]沈鵬熠,萬德敏,許基南.在線零售情境下人機交互感知如何影響消費者幸福感——基于自主性的視角[J].南開管理評論, 2021(6): 26~40.

[24]André Q, Carmon Z, Wertenbroch K, et al. Consumer choice and autonomy in the age of artificial intelligence and big data[J]. Customer needs and solutions, 2018, 5: 28~37.

[25]Hwang Y, Ryu J Y, Jeong S H. Effects of Disinformation Using Deepfake: The Protective Effect of Media Literacy Education[J]. Cyberpsychology, Behavior, and Social Networking, 2021, 24(3):188~193.

[26]Samaha M, Hawi N S. Relationships among smartphone addiction, stress, academic performance, and satisfaction with life[J]. Computers in Human Behavior, 2016, 57: 321~325.

[27]Van Den Eijnden R J, Lemmens J S, Valkenburg P M. The social media disorder scale[J]. Computers in human behavior, 2016, 61: 478~487.

[28]Roberts J A, David M E. My life has become a major distraction from my cell phone: Partner phubbing and relationship satisfaction among romantic partners[J]. Computers in human behavior, 2016, 54: 134~141.

[29]馬皚,宋業臻.人工智能犯罪風險評估“算法歧視”現象及其規制路徑[J].江淮論壇,2022(2):119~127;193.

[30]楊珊,張莎莎.論智能網聯汽車發展的法律障礙與應對[J].西南交通大學學報(社會科學版),2023(1):49~61.

[31]王兵兵.自動駕駛事故中過失競合的刑事責任歸屬[J].江淮論壇,2023(1):146~155.

[32]Culnan M J, Armstrong P K. Information privacy concerns, procedural fairness, and impersonal trust: An empirical investigation[J]. Organization science, 1999, 10(1): 104~115.

[33]望海軍,劉景港,王慧.社會排斥對消費者個性化廣告侵入性感知的影響:隱私線索敏感性的中介作用[J].珞珈管理評論,2023(6):117~131.

[34]Samaha M, Hawi N S. Relationships among smartphone addiction, stress, academic performance, and satisfaction with life[J]. Computers in human behavior, 2016, 57: 321~325.

[35]Westerlund M. The emergence of deepfake technology: A review[J]. Technology innovation management review, 2019, 9(11): 39~52.

[36]Gosse C, Burkell J. Politics and porn: how news media characterizes problems presented by deepfakes[J]. Critical Studies in Media Communication, 2020, 37(5): 497~511.

[37]張鋌.人工智能嵌入社會治理的風險及其規避[J].浙江工商大學學報,2022(3):120~126.

[38]Clarkson M E. A stakeholder framework for analyzing and evaluating corporate social performance[J]. Academy of management review, 1995, 20(1): 92~117.

[39]李亞兵,夏月,趙振.數字時代制度壓力對零售企業商業模式創新影響研究——基于資源基礎理論動態觀[J].軟科學, 2022(10): 40~46.

[40]Khan A W, Mishra A. AI credibility and consumer-AI experiences: a conceptual framework[J]. Journal of Service Theory and Practice, 2024, 34(1): 66~97.

[41]Puntoni S, Reczek R W, Giesler M, et al. Consumers and artificial intelligence: An experiential perspective[J]. Journal of Marketing, 2021, 85(1): 131~151.

[42]Sen S, Du S, Bhattacharya C B. Corporate social responsibility: A consumer psychology perspective[J]. Current Opinion in Psychology, 2016, 10: 70~75.

[43]王彥雨,李正風,高芳.歐美人工智能治理模式比較研究[J]. 科學學研究, 2024(3): 460~468;491.

[44]Ansell C, Gash A. Collaborative governance in theory and practice[J]. Journal of public administration research and theory, 2008, 18(4): 543~571.

[45]Rahwan I. Society-in-the-loop: programming the algorithmic social contract[J]. Ethics and information technology, 2018, 20(1): 5~14.

[46]Cath C, Wachter S, Mittelstadt B, et al. Artificial intelligence and the ‘good society’: the US, EU, and UK approach[J]. Science and engineering ethics, 2018, 24: 505~528.

[47]Baldwin R, Cave M, Lodge M. Understanding regulation: theory, strategy, and practice[M]. Oxford university press, 2011.

[48]Stone P, Brooks R, Brynjolfsson E, et al. Artificial intelligence and life in 2030: the one hundred year study on artificial intelligence[J]. arXiv preprint arXiv:2211.06318, 2022.

[49]Boyd M, Wilson N. Rapid developments in artificial intelligence: how might the New Zealand government respond?[J]. Policy Quarterly, 2017, 13(4): 36~43.

[50]Suchman M C. Managing legitimacy: Strategic and institutional approaches[J]. Academy of management review, 1995, 20(3): 571~610.

[51]Baskentli S, Sen S, Du S, et al. Consumer reactions to corporate social responsibility: The role of CSR domains[J]. Journal of Business Research, 2019, 95: 502~513.

[52]Baron D P. Private politics, corporate social responsibility, and integrated strategy[J]. Journal of economics amp; management strategy, 2001, 10(1): 7~45.

Research on the collaborative governance of artificial intelligence social responsibility in the consumer market: Driving models, mechanisms, and strategies

SHEN Pengyia,PENG Dehuia,LIU Manb

(Jiangxi University of Finance and Economics; a.School of Business Administration, b.Hospital, Nanchang, Jiangxi, 330013, China)

Abstract:

This paper first proposes a driving model for artificial intelligence (AI) social responsibility collaborative governance in the consumer market from three aspects: internal and external driving factors, active and passive participation in collaboration, and driving results, and uses perceived AI credibility as the driving result; Secondly, based on the theory of collaborative governance, proposing external and internal collaborative governance mechanisms for the social responsibility of artificial intelligence in the consumer market; Finally, based on the theory of strategic social responsibility, the collaborative governance strategies for AI social responsibility in the consumer market is proposed from three aspects: society, enterprises and individuals. The research results are not only beneficial for promoting the scientific and rational application of AI technology in the consumer market, but also provide a theoretical basis for further promoting research on AI social responsibility.

Key words:

consumption market; AI; social responsibility; collaborative governance

責任編輯:張建偉

收稿日期:2024-03-02

基金項目:國家自然科學基金項目“服務場景中人工智能如何影響消費者幸福感:基于社會認知理論和自我決定理論雙重視角”(72262016);教育部人文社會科學研究項目“人工智能聊天機器人角色對顧客情感依戀的影響研究”(23YJA630132);江西省高等學校教學改革研究重點項目“江西本科高校現代產業學院產教融合協同育人模式的研究與探索”(JXJG-23-4-2)。

作者簡介:沈鵬熠(1980—),男,湖南臨湘人,管理學博士,江西財經大學工商管理學院教授,博士生導師,研究方向為人工智能營銷和服務營銷;彭德輝(1983—),男,安徽淮南人,江西財經大學工商管理學院博士研究生,研究方向為市場營銷;劉 漫(1983—),女,湖南岳陽人,江西財經大學醫院主管護師,研究方向為健康營銷和服務。

猜你喜歡
人工智能消費者
我校新增“人工智能”本科專業
系無理取鬧?NO! 請為消費者擦干眼淚
人民交通(2019年16期)2019-12-20 07:03:52
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
日化品牌怎樣才能吸引年輕消費者?
消費導刊(2018年22期)2018-12-13 09:19:00
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
只用一招 讓喊產品貴的消費者閉嘴
知識付費消費者
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 04:56:22
主站蜘蛛池模板: 性激烈欧美三级在线播放| 国产XXXX做受性欧美88| 精品自窥自偷在线看| 中文字幕在线播放不卡| 国产18在线| 91成人在线观看视频| 77777亚洲午夜久久多人| 91色国产在线| 精品欧美一区二区三区久久久| 国产裸舞福利在线视频合集| 激情在线网| 国产精品理论片| 日韩精品一区二区三区免费在线观看| 成人免费视频一区二区三区| 亚洲天堂日韩在线| 亚洲国产综合精品中文第一 | 国产在线高清一级毛片| 日韩色图区| 自拍欧美亚洲| 国产亚洲精品资源在线26u| 精品91自产拍在线| 亚洲成在线观看| 亚洲精品无码不卡在线播放| 久久精品最新免费国产成人| 欧美一区国产| aⅴ免费在线观看| 91原创视频在线| 免费无码AV片在线观看国产 | 亚洲第一成年免费网站| 亚洲看片网| 老色鬼久久亚洲AV综合| 超碰色了色| 国产自在线播放| 成人在线观看不卡| 亚洲一级毛片在线观播放| 成人免费一级片| 伊人久久大香线蕉影院| 囯产av无码片毛片一级| 青草视频免费在线观看| 欧美全免费aaaaaa特黄在线| www.狠狠| 毛片国产精品完整版| 欧美高清三区| 毛片一级在线| 狠狠色婷婷丁香综合久久韩国 | 亚洲第一页在线观看| 国产成人精品优优av| 97成人在线观看| 亚洲成人手机在线| 成人av专区精品无码国产| 国产精品尹人在线观看| 亚洲狼网站狼狼鲁亚洲下载| 欧美成人在线免费| 久久一本精品久久久ー99| 日韩欧美国产中文| 亚洲黄色激情网站| 91视频首页| a国产精品| 国产亚洲男人的天堂在线观看| 99久久免费精品特色大片| 青青青视频蜜桃一区二区| 国产精品福利在线观看无码卡| 国内精品自在自线视频香蕉| 国产综合日韩另类一区二区| 91丨九色丨首页在线播放| 亚洲视频二| 91蜜芽尤物福利在线观看| 91在线精品麻豆欧美在线| 亚洲视频免| 国产小视频a在线观看| 亚洲视频在线网| 国产成人综合亚洲欧美在| 久久久久久久97| 国产伦精品一区二区三区视频优播| 狼友视频国产精品首页| 亚洲精品免费网站| 国产极品粉嫩小泬免费看| 国产在线视频自拍| 91伊人国产| 欧美亚洲国产视频| 欧美综合成人| 2020极品精品国产|