祝佳佳,張 純
(景德鎮陶瓷大學 管理與經濟學院,江西 景德鎮 333000)
王懷勇、劉帆[1](2018)從數據、算法、治理三個角度分析,認為制定法律法規、標準規范、依主體承受能力承擔責任、編寫社會責任代碼進行履行。龔洋冉、錢小軍、張佳音(2019)認為,AI 促進了企業社會責任的可持續發展。胡元聰、李雨益[2](2020)認為,應從人工智能研發、生產、售后產品管理等方面進行倫理道德、合理消費、風險防范管理。蔣潔[3](2020)認為,開發企業將道德和法律嵌入代碼系統的過程中充斥的背離數據保護原則、沖擊個人尊嚴、破壞民主誠信、削弱社會公允等現實風險;陽鎮、陳勁[4](2020)從智能機器人、人工智能企業及利益相關方的角度提出三種不同基礎的企業社會責任履行模式。以上研究涉及陶瓷文化創意產業較少,本文主要從這方面進行論述。
AI+陶瓷文化創意產業是指通過人工智能的方法實現陶瓷文化創意產業的智能化。
目前,景德鎮的“三龍”MR 數字陶瓷產業園”項目已落地,將打造MR 大數據中心、MR數字博物館展示空間、MR 文創洞察全媒體平臺、5G+MR 陶瓷實驗工廠、MR 瓷工坊體驗空間、MR 陶藝學堂、MR 陶瓷新零售、MR 個性企業展示實體空間等。
隨著第四次工業革命的到來,企業社會責任的內涵與外延正不斷擴充,智能化帶來利益的同時需要謹記初心是造福人類。所以,根據現行的企業社會責任標準,并結合AI 行業的特殊性,對其進行補充。從市場績效方面,為了保障客戶的權益,實現為客戶創造價值,人工智能企業需要避免算黑箱的惡劣影響。應合理利用數據不做過度挖掘和帶有人為偏見,算法與程序透明化可解釋。同時,產品在后續使用中還要防控可能帶給消費者的風險,形成產品售后保障機制。從社會績效方面,由于關鍵技術主要由關鍵技術人員掌握,技術人員在設計算法模型標注標識時,應充分吸收民主的理念,不應帶入任何私人的偏見。
人工智能開發活動需要大量的數據,數據的供應鏈、智能硬件的更新換代、復雜的算法模型都是企業主體為了實現超額利潤的手段與工具。在開發的過程中,對數據的收集、處理、分析、標注等以及對算法模型的選擇都存在操作風險。這種潛在風險極容易發生偏離與被利用,消費者在不經意間就會形成數據,數據的使用者可能因缺乏監督與規制而突破道德的界限使用,但會不經意間影響消費者的隱私與人身財產安全。這種情況如果發生會產生不可估量的后果,無形之中加大了消費者權益保護的難度。例如:不法分子利用面部識別、語音識別等數據來盜刷資金,引起大量的財產損失;利用虛擬智能工具刺激消費者對某種產品上癮等。
數據與算法本身是中性的,但使用數據的人員和編制算法的人員具有主觀性。有些數據經過數據標注人員的處理與篩選,再經過算法開發人員的構建,原本沒有感情的數據,最后的結果可能加入了有色眼睛,使得使用AI 工具的機構與人員作出具有偏見與歧視的選擇。例如:地域歧視、性別歧視、年齡歧視等,這些歧視與偏見不視為好的社會發展現象,甚至容易產生信任風波。
有些開發出來的產品極具誘惑性,容易讓人成癮,在用戶的使用過程中還偷偷收集用戶的信息,使得產品與用戶的粘度更高,這種社會現象與問題不利于社會的進步。
有些產品雖然外觀設計得很好,但是卻有著嚴重的潛在產品問題,不經過防護與有效控制,容易危害用戶的人身財產安全。
首先,現階段人工智能工具逐漸從低階的水平發展到高階水平,由基本決策到復雜決策。這種轉變正進一步取代部分工種的就業崗位與職能,開發者如果在開發時將特殊且有失社會公平的歧視與偏好寫入代碼中,將會導致管理決策的判斷失誤與企業畸形的發展,相當于限制了決策者的選擇范圍自由,加劇了社會不平等與侵蝕基本人權。
其次,有些平臺企業可能利用人工智能進行動態定價。如果商品價格變動幅度較大,可以找客服解決,進行退差價;但如果是諸如買菜等價格變動不大的行業,平臺企業利用消費者省事的心理,借助平臺天然的信息不對稱優勢,對消費者進行價格欺騙。這樣做不會引來客戶的不滿心理,甚至會引來客戶的爭相搶購的現象,無形之中達到賺取超額利潤目的,這種方式有不正當競爭的嫌疑。
最后,企業依托算法形成壟斷與建立天然行業屏障。算法作為人工智能的核心之一,通過構建算法,可以模擬人腦的思維模式、決策模式、組織模式等高級認知模式,屬于企業強大的無形資產。它與其他資產有機結合,會形成強大的力量,帶來巨大的價值。所以,將其進行公開等于將企業的私有資產公有化,影響企業獲取競爭力與獨立的市場地位,即實現可解釋、透明化是比較難的。
首先,開發程序可解釋、合理化。為避免相關程序無法解釋、偏離道德、不夠合理,行業協會應積極制定有關標準,包括:制定AI 行業許可,行業協會可依照相似行業的準則或者國外成功經驗制定;行業協會制定數據使用原則、數據保護內容、開發機構資質驗核、開發流程合規、產品合格標準等;企業定期制定開發、生產、售后等參數說明書,定期向有關協會及部門匯報產品方案的審核。
其次,算法可解釋、合理化。算法作為具有天然黑箱屬性的技術資源,技術的額復雜性短期內讓企業實現透明化比較困難,這將會加重企業的成本負擔,有可能會阻礙行業技術的突破與攻關,難以實現有效率地質的飛躍。所以,可適當減輕企業負擔,利用企業現有資源,企業在相關協會網站進行披露,行業協會全程參與企業的算法開發過程中,對有疑問的企業進行問詢;也可以加強對有關企業的技術與職業培訓,潛移默化遵守職業道德。
最后,企業自我監督和相關行業協會監督。現階段人工智能屬于高速發展階段,各家技術人員的想法與意見都存在一定分歧。而行業協會作為社會自發組織具有社會公信力的組織,有義務創建相關溝通機制。將行業應遵守的軟規則敲定,形成行業共同的價值觀,促使行業主體盡快達成有關共識,對行業形成強有力的約束力,強化行業監督。同時,行業企業也積極形成具有鮮明特色的企業文化,從道德上形成監督力。
(1)形成系統性法規。現階段有關法規發文比較分散,層次感系統性針對性較弱。為適應該行業的快速發展,立法原則一方面要鼓勵促進行業技術創新;另一方面也要規制原則性問題。有關部門可以根據相關國際經驗與本國國情制定總法,總法的內容可以包括隱私保護、算法知情權、知識產權保護、勞動保護與就業等。其次,由于AI 行業屬于新興行業,許多非原則性的問題在發展前期潛伏不容易暴露。所以,后續的軟法應具靈活性針對性,將新發現的問題盡早解決。也可通過官方媒體進行溝通與宣布,積極回應社會熱點。最后,立法原則永遠是造福人類創造價值促進社會共同富裕。對于相關的懲戒成本要加大,設立行業黑名單。
(2)建議成立專業領導小組。AI 行業有其專業特殊性,極易形成天然信息壟斷,需要相關專業的權威人士甚至有跨專業背景的人員組成領導小組,為有關法律條文解釋的制定保駕護航。專業領導小組的人員也要保持獨立與專業勝任,這樣比較好開展工作。
(3)也可舉辦跨行業跨門專家會議或者論壇,通過制定當今熱點主題,展開專業龍頭沙龍,共同探討行業尖端問題,碰撞絢麗火花。
(4)加強國際交流。目前美國與歐盟也在積極制定有關法律法規與報告,回應社會關切,投入第四次工業革命的浪潮。中國也應該乘勝追擊,抓住發展機遇,參與全球治理與創新。
(1)設定最低安全生產標準,便于有關部門開展產品安全檢測。目前,人工智能產品的功能越來越強大,但不乏存在智能產品損害人類的情況,相關的違法問責框架尚未搭建。為了使產品更好地服務人類,需要制動標準,在該標準下將安全隱患降低至可控范圍內。
(2)如果發生事故,有關部門應積極開展調查、追責。人工智能產品與普通產品的不同在于實施主體的不同與客體的可控性。實施主體有可能是人工智能公司、使用人員、產品本身;實施客體由于客觀原因存在失誤等。要分析事故的根源以此來確定主要過錯方,讓違法者有敬畏之心。
(3)產品流入市場可以制定唯一的二維碼,確定產品可追溯。二維碼目前的普遍性較高,防偽標識可以做到確定唯一性。這樣做可以盡快得確認責任主體,將產品流向實現可控。相關部門對問題產品進行監控,對惡意泄漏客戶隱私和導致客戶成癮的產品,限制其買賣或者限制生產某功能的產品。產品經理定期要做產品報告,定期披露產品的使用情況,相關部門定期對其進行全面審查。
(4)公司應構建問題產品召回機制。隨著人工智能產品的產業化發展,批量生產的產品中問題產品出現問題,統一批次的產品也應當被召回。人工智能產品在生產過程中、在消費者使用中保持對產品的全程控制。人工智能產品的功能會隨著使用者和開發者的互動逐漸增加甚至更新換代。在開發過程中考慮的問題可能不夠全面,在消費者使用中發現問題及時更新,帶給消費者更好的體驗。在有條件的情況下,可以將產品全部聯網,實時監控產品的數據與異常,在消費者發現之前及時修理漏洞。
(5)制定強制保險機制及損害賠償金機制。強制險與車的強制險相似,在顧客購買產品時,繳納一定比例的強制險,以防事故出現沒有人愿意承擔責任的情況;而損害賠償金從人工智能產品中提取一部分利潤作為強制險的補充,為產品的使用者解決后顧之憂。
企業作為社會責任履行的主體,在實現AI+陶瓷文化創意產業落地的過程中不僅要實現利益的創造,也要不忘初心回饋社會,主動承擔社會責任。本文分析了企業在履行社會責任中可能會遇到個人數據泄漏、違反社會倫理道德與侵害人身財產權益、破壞社會公平秩序的問題,認為通過健全算法解釋和結果驗證的合規標準、建立健全相關法律法規、完善開發行為的違法問責框架與產品風險防范機制,可以很好同時兼顧利益與責任的關系,對有關主體以指引。