摘要:作為人工智能技術發展的最新階段,生成式人工智能雖然在創造性、交互性和通用性等方面展現出不同于傳統人工智能的獨特性,但是它的創新應用具有極高的不確定性,潛藏著巨大的倫理風險,諸如傳播偏見和歧視、泄露隱私、制造虛假信息、操縱認知和導致科研倫理失范等。筆者認為應在分析生成式人工智能倫理風險的技術邏輯和社會建構等根源的基礎上探尋生成式人工智能倫理風險的防范之策,強化“增進人類福祉”的價值理念、增強技術可解釋性、健全倫理規制、加強企業自律和構建風險治理的全球合作機制等。
關鍵詞:生成式人工智能;倫理風險;科技向善;科技倫理治理
DOI:10.16397/j.cnki.1671-1165.202501001開放科學(資源服務)標識碼(OSID):
基金項目:國家社會科學基金項目“基于中國語境的生成式人工智能倫理風險研究”(24BZX108);江蘇省社會科學基金重點項目“生成式人工智能的倫理風險及治理對策研究”(23ZXA001);江蘇高校哲學社會科學研究重大項目“江蘇省科技創新的倫理治理體系構建研究”(2023SJZD114)。
隨著ChatGPT(Generative Pre-trained Transformer)等大模型社會應用的日益廣泛,生成式人工智能(Generative Artificial Intelligence, GAI)的創新發展及社會影響越來越成為社會各界關注的熱點問題。2024年2月,OpenAI公司推出視頻生成模型Sora,該系統可以根據用戶的文本提示創建逼真視頻。①2025年1月,杭州深度求索人工智能基礎技術研究有限公司推出DeepSeek系列大模型,更加引發全球對生成式人工智能的廣泛討論。“生成”意味著人工智能不僅可以做以往的判別式工作,還可形成新的生產力,其引發的科技革命和產業變革必將重塑世界經濟、影響未來生活。②但是,生成式人工智能也可能帶來巨大的倫理風險,需要我們進行必要的冷思考并探尋可能的風險防范化解之策,以促進其向善發展、造福人類。
一、生成式人工智能的發展現狀與應用特征
目前,人工智能主要分為判別式和生成式兩種模型,前者關注如何在給定輸入情況下預測輸出,通常更專注于類別邊界和決策面,使分類更精確,在特定任務上表現出色;而后者則關注如何模擬數據的生成過程,不僅可以進行分類或預測,而且能夠生成新的數據樣本,如文本、圖像、音頻和視頻等各種類型的數據①。也就是說,生成式人工智能能夠識別訓練數據中的模式,學會預測、分類、提供個性化建議或幫助決策,它可以根據用戶的提示快速創建新內容。②當前,世界主要國家在生成式人工智能創新方面都取得了重要進展,中國將人工智能列為國家戰略并已經成為全球人工智能創新的重要力量之一,在自然語言處理、計算機視覺、智能機器人等領域取得重要突破,不斷推動人工智能技術的創新發展,百度公司的“文心一言”和科大訊飛公司的“星火”等大語言模型產品快速迭代③,DeepSeek更是在全球范圍內引發廣泛關注??傊?,生成式人工智能被認為是一種具有強大功能的創造力引擎,極大地鼓舞了人類對通用人工智能(Artificial General Intelligence,AGI)的憧憬,是人工智能創新領域的巨大躍遷,主要在以下方面展現出不同于傳統人工智能的獨特性。
第一,創造性。生成式模型是一種基于海量數據語料預訓練的深度學習算法,可以通過學習大量數據來發現規律和模式,它不僅對已有數據進行分類或預測,而且具有更加強大的內容生成能力,能夠適應不同的數據分布和各種應用場景,自主地產生文本、圖像、音樂、代碼、視頻以及其他創造性形式,其目標是學習并模擬訓練數據的分布,以便能夠生成類似但不完全相同的新穎性內容,這使得它們更具靈活性,在創造性任務和內容生成方面表現出色。例如,當你向ChatGPT提出一個論點,它會生成一個起草得相當好的段落,可以為你的研究奠定一定基礎;如果你提出一個觀點,它可以提供相關的反駁觀點和論證內容,這有助于人們擴展研究思路、提高科研效率④;當用戶向Sora輸入一段文本,它可以據此在線迅速生成一段風格獨特、最長為一分鐘的高清視頻。這種生成式模型可以與人類用戶協同創作,提供建議、補充內容或與用戶共同生成文本、圖像和視頻等展現出較傳統人工智能更加強大的內容生成能力和“創造性”。當然,生成式人工智能雖然在創造性方面取得了進展,但它與人類創造力存在明顯差異,后者涉及復雜的情感、價值觀和理解等因素,可以脫離訓練數據進行更自由和廣泛的創造,而前者則更多的是通過學習大量數據的統計規律來生成內容,其創造性無疑會受到訓練數據的限制。
第二,交互性。在自然語言處理領域,生成式人工智能被廣泛用于對話系統,通過良好的用戶界面設計和用戶反饋機制來實現“交互性”,與用戶進行自然語言“交流”,回答問題、提供建議,或者生成連貫的對話,實現人與生成式模型之間的雙向互動過程,這種交互性可以在多個層面上體現,具體取決于應用場景和模型設計。例如,ChatGPT通過使用人類反饋強化學習方法將對話進行優化,如果用戶提供風格偏好或修改建議,模型會根據這些反饋調整生成的結果,改進模型的性能和效率。當然,由于生成式人工智能并不具備人類那樣的自主意識和思維能力,必須是在外界的刺激后才能啟動類人智能模式,因而其“交互性”特征僅僅展現了對用戶的一種被動式回應,而且恰恰是人類輸入的內容在很大程度上決定了生成式人工智能的產出,在人機交互過程中,生成式人工智能帶來的看似原創性的內容,是在學習、分析和提煉無數個人類用戶創造的信息和數據的基礎上演繹而來,并不是與用戶進行互動時的一種即時性、主動性和創造性的結果。
第三,通用性。通用性是衡量一個模型對多樣化輸入的處理能力,以及在解決廣泛問題時的性能表現。生成式人工智能的通用性,一般指的是模型具有在多個任務、領域或數據分布上的適應能力,可以覆蓋更廣泛的應用場景。目前,以ChatGPT、DeepSeek等為代表的生成式人工智能不是局限于某個具體領域或專注于某一種數據類型,而是可以適應不同領域的數據分布和任務要求,在跨模態任務上展現出更強的適應性。這種適應性和靈活性使得生成式人工智能模型展現出較強的遷移學習能力,這對于處理新問題或新領域非常重要。不過,雖然目前生成式人工智能在特定任務上取得了顯著進展,在處理語言、圖像和視頻時可以生成具有一定上下文和邏輯關系的內容,但在全面理解和推理、跨領域適應等方面還存在局限,尚不具備主動學習的能力和自我意識,較真正的通用人工智能還相差甚遠。盡管如此,生成式人工智能無疑已經拉開了通用人工智能的序幕,引發人類對人工智能未來可能性的無限遐想。
總之,作為人工智能技術的最新發展階段,生成式人工智能“可重構現有工作方式,在內容創作、自動駕駛、零售、醫療等諸多領域改變著人們的生活和生產方式,同時帶來了更大的市場機會”①。正如《人工智能時代與人類未來》一書中所言,與以往技術截然不同的是,人工智能很可能會改變社會的軌跡和歷史的進程,不斷融入我們的生活,將帶來一個新世界。②可以說,生成式人工智能雖然以其特有的創造性、交互性和通用性正在引領我們進入一個嶄新的技術世界,深刻地改變著我們與現實的關系,但是尚處于發展初期,其功能發揮還不穩定,給社會帶來的影響錯綜復雜,具有極高的不確定性,潛藏巨大的倫理風險。
二、生成式人工智能具有潛在的倫理風險
所謂風險,一般是指可能出現的有害事件及其概率,風險與不確定性密切相關,通常包括結果的不確定性和發生概率的不確定性。③倫理風險關涉的是倫理、道德層面的負面后果發生的概率,由于人工智能技術研發與應用所帶來的不確定的倫理負效應即為倫理風險,諸如倫理關系失調、社會失序、行為失范等。④由此,生成式人工智能的倫理風險,就是指在生成式人工智能開發應用過程中具有潛在的關涉倫理道德負面效應的不確定性和可能性,是人類對生成式人工智能創新應用所不期望的結果出現的概率??傮w而言,生成式人工智能的倫理風險主要包括以下幾個方面:
第一,存在偏見和歧視內容產生和傳播風險。隨著數字技術、信息技術的創新應用,借助于技術路徑,社會偏見、歧視的產生和傳播較傳統時代更便捷也更迅速,其消極影響也更為廣泛,尤其是計算機算法的出現,使得算法歧視成為一個普遍關注的技術倫理問題。而生成式人工智能在賦能人們的生產生活、提升工作效率的同時,則可能大大加劇偏見和歧視內容的產生和傳播風險,并且較以往更為隱蔽。生成式人工智能的自然語言模型是建立在算法和海量數據基礎上的,如果模型開發者將個人的偏好或含有某種偏見的特定價值觀植入訓練數據,那么模型就可能學習和反映出訓練數據中存在的偏見,導致生成的內容或決策中存在社會不平等、偏見或歧視。也就是說,“如果用于開發人工智能算法和模型的訓練數據有偏見,算法和模型也會有偏見,從而導致生成式人工智能的回應和建議出現歧視性的結果”①。例如,如果在算法中嵌入種族歧視、性別歧視等內容的隱藏代碼,便可能會使生成的內容中帶有隱蔽的歧視傾向和觀點,或者在生成的文本、圖像等內容中反映社會中對某些群體的刻板印象和偏見,有時這種歧視和偏見并不直接呈現在訓練數據中,模型又難以察覺和修正這些潛在的問題,極易導致偏見和歧視隨著生成式人工智能的使用而得以廣泛傳播和擴散。例如,當用戶要求生成高薪白領職業的圖像時,生成式人工智能輸出的圖片人物幾乎都是白人形象。②這種情況可能在文本、圖像、音頻和視頻等多個生成內容領域出現,對使用者群體的觀點帶來負面引導。
第二,存在隱私侵犯和數據泄露風險。隨著數字技術應用的日益普遍,如何獲取數據、處理數據、在數據使用中是否設置知情同意等,日益成為關涉隱私安全的重要問題,而生成式人工智能的廣泛使用,則使隱私安全問題更為突出,潛藏巨大的個人信息泄露的倫理風險。生成式人工智能的開發需要對海量數據進行訓練,借助對這些數據的學習形成模型的知識儲備和語料庫,并在此基礎上構建能夠理解自然語言并生成目標內容的互動模式。在此過程中,生成式人工智能不僅通過數據爬蟲技術從網絡中迅速、高效地抓取數據,而且還將用戶輸入的信息作為數據的來源,這些訓練數據包括個人身份信息、圖像、語音等敏感數據,在一系列數據抓取和使用中,個人信息獲取的正當性尚未有明晰的邊界,模型在訓練過程中往往會學習、保留這些信息,并在用戶互動過程中加以釋放,這就可能導致用戶隱私信息的泄露和擴散,帶來更加嚴峻的隱私侵犯和數據安全方面的風險,甚至“可能發酵為人肉搜索、惡意攻擊、敲詐勒索等安全隱患”③,給人們的生活、財產安全甚至人身安全帶來威脅,而且,“由于非法爬取獲得的數據常常具有機密性、高密度性和保護性等特征,非法行為不僅侵害了個人的信息權益,而且也涉及國家的數據安全和數據主權問題”④。
第三,存在虛假信息傳播和認知操縱風險。生成式人工智能基于巨大的算力對海量數據進行學習,能夠為用戶提供某種建議或答案。通常而言,人們對生成式人工智能這種側重數據挖掘、看似客觀中立的概率性歸納往往比較信任,但是模型生成的內容并非由邏輯思考推理出來的結果,而是基于經驗學習的一種篩選和提煉,其自身無法判斷生成的內容是否準確或真實,因而生成式人工智能的廣泛使用可能產生大量虛假或錯誤的信息,諸如訓練數據中的錯誤信息會使模型生成相應的錯誤內容,模型會給出看似合理但不正確、無意義和虛構的答案,這種現象被稱為人工智能幻覺(AI hallucination),即人工智能產生出聽起來合理實則錯誤或虛構的內容,這就帶來了錯誤信息傳播的風險,很可能對社會產生誤導,導致錯誤的判斷和決策①,而視頻生成模型Sora可能為深度偽造(Deepfake)技術推波助瀾,甚至帶來人身安全或財產安全方面的風險。美國新聞可信度評估與研究機構NewsGurd對ChatGPT進行測試發現,ChatGPT能在幾秒鐘內改變信息并產生大量令人信服卻無信源的內容②,而當生成式人工智能被故意利用生成錯誤內容時,虛假信息傳播的風險則會變得更加復雜,模型開發者出于某種特殊觀念、偏好和目的在訓練數據中添加特定信息,在生成內容中不恰當地強化某些觀點或某種價值觀,或者通過生成引人注目的內容、評論或反饋,影響社交媒體上人們對特定議題的看法,操縱目標人群的認知,從而影響文化、價值的多樣性,導致認知操縱,破壞信息可信度。
第四,存在科研倫理失范風險。生成式人工智能的廣泛使用也可能帶來科研倫理失范的風險,加大科研不端治理的難度。由于生成式人工智能會生成看似合理實則虛假的內容,因而可能會被用于創造虛假的研究結果或數據,這會導致研究結論不準確和錯誤信息的產生和傳播,損害科研的客觀性和可信度。而且,模型生成的內容有時涉及個人隱私信息,而研究人員在沒有獲得相關人員知情同意的情況下使用這些數據,則會違反知情同意的學術倫理原則,使研究活動缺失倫理合法性。如果研究人員利用生成式人工智能的數據轉碼功能,將他人作品中的原創性文本轉換為不同于原文的結構和文字,便可以生成新穎的內容并將其作為自己的作品。“人們不僅可以利用生成式人工智能在更加龐大的數據庫中進行數據采集,還能在互動反饋中不斷‘完善’文本的表述和內容,使用者甚至能‘教唆’生成式人工智能以特定風格撰寫論文,使文章具有使用者本身的寫作風格,達到以假亂真的地步?!雹郛斶@些“深度贗品”公開出版或在網絡上發布,不僅會帶來著作權歸屬上的法律爭議問題,而且必然會對社會誠信帶來極大的負面效應,還可能使研究者產生工具依賴,進而造成思維能力淺薄、認知能力退化、資本意識殖民等問題。④
三、生成式人工智能倫理風險產生的根源
作為一種給社會帶來顛覆性影響的新技術,生成式人工智能成為推動經濟和社會發展的新動力,但也潛藏極為復雜的倫理風險。只有準確分析研判生成式人工智能倫理風險產生的根源,才能更好地探尋風險治理之策。風險是技術的內在屬性,任何技術都具有不確定性、風險屬性,風險是客觀實在性與主觀建構性的統一。①縱觀現代技術發展史,一項新技術的社會應用所帶來的倫理風險具有高度不確定性,這既源于技術本身的客觀屬性,也與人類對技術的主觀認知和社會建構密切相關,人類總是在不斷認識新技術發展規律的基礎上,相應地調整技術與社會的互動關系,進而尋求規避和應對風險的有效策略。生成式人工智能倫理風險的產生,也是由該技術自身的特點以及人類的技術決策、治理措施以及主觀認知等多種因素所決定。
第一,生成式人工智能技術的快速迭代和“黑箱”效應帶來技術后果的不確定性和風險的復雜性。生成式人工智能模型通常具有非常復雜的結構和數量巨大的參數,不僅其內部操作和運作機制難以直觀理解,而且對其工作原理進行逆向工程或解釋也變得非常困難,這就不可避免地造成了生成式模型的“黑箱”效應,人們難以準確理解模型參數是如何影響模型行為的,在評估生成模型的可靠性和穩健性方面也困難重重,在這種不透明的交互作用下,模型在處理數據時便極易在不可控的狀態下泄露敏感信息或者產生虛假的或帶有社會偏見的信息。一般而言,“技術的可控程度與其風險高低是成反比的,技術越難控制則風險越高。大語言模型和思維鏈在賦予生成式人工智能邏輯推導能力的同時,也使得其輸出內容越來越難以預測”②,而隨著生成式人工智能技術的迅速迭代更新,在人們還沒有完全了解原有技術相關風險知識的情況下,又不斷涌現出新的問題和挑戰,出現新的不確定性和風險。例如,Sora文生視頻模型可能會在很大程度上顛覆現有的短視頻行業、廣告業和電影預告片等行業,而由于模型的決策過程不透明,可能會導致責任歸屬問題,當生成的視頻出現問題時,就難以確定責任方③,進而帶來復雜的倫理風險。
第二,生成式人工智能倫理規制的相對滯后弱化了技術發展的可預見性和可控性。回顧人類技術發展史,一項新技術的出現也往往伴隨著不可預知的技術后果,正是這種“雙刃劍”效應使得人類利用技術提升效率和便利的同時,也要不斷探尋技術發展的規律以規避技術風險,從倫理道德視角考量技術的社會影響也成為技術創新的一個重要維度和選項,人類對技術發展的前瞻性了解和倫理預見越深入,就越能夠對技術發展趨勢和后果進行更大程度的控制。目前,一些國家和地區已經制定了嚴格的隱私法規,一些政府和非營利組織正在制定指南和標準,力圖促進人工智能系統的公平性和公正性。例如,美國參議員提出《2023年人工智能研究、創新和責任法案》,歐盟27國代表于2024年2月2日投票一致通過《人工智能法案》文本,標志歐盟向立法監管人工智能邁出了重要一步④,中國則先后發布《關于加強科技倫理治理的意見》(2022)、《生成式人工智能服務管理暫行辦法》(2023)等政策文件,在促進技術向善方面發揮了重要作用。但是,由于生成式人工智能仍處于發展初期,迭代更新速度非???,新問題不斷涌現,倫理規制系統和責任追究機制仍需要進一步健全。“作為復雜的技術系統之一,人工智能技術背后的算法數據極為龐雜,當前人類尚未能有效解決算法邏輯的不確定性”①,技術所帶來的社會收益與風險權衡尚不明晰,因應技術發展的倫理價值觀和法律適應性等也有待構建和完善,人類對于生成式人工智能社會應用的后果尚缺乏明確和全面的認識。而且,生成式人工智能的應用和擴散具有全球性,倫理風險治理需要各國協同推進,但是“不同國家對人工智能有不同的戰略利益解讀,目標上的分歧正制造國際社會的分裂,破壞國際合作”②,這無疑會在一定程度上降低人類對生成式人工智能倫理風險的應對和控制能力,加劇風險后果的不確定性。
第三,對生成式人工智能倫理風險的主觀認知強化了對風險可能性的判斷。一般而言,風險的存在既有客觀根源也有主觀因素,技術風險的主觀性認知受社會環境、大眾媒體等的影響,而風險認知主體的心理機制、認知策略也可能影響技術主體對技術風險的認知。③就生成式人工智能倫理風險問題而言,人們對生成式人工智能技術的了解程度可能會影響他們對其倫理風險的感知,對技術的運行機理和發展趨勢比較了解的科技人員,可能更加清楚技術的潛在風險,如隱私泄露、數據偏見和誤導性信息的產生等,而對該技術了解較少的人可能對其風險認識不足。不同的文化、宗教信仰、個人背景和教育經歷等會使人們對倫理風險的感知和判斷產生差異,對隱私權的重視程度、對公平和平等的理解以及對個體自主權的尊重程度等,都會影響人們對生成式人工智能倫理風險的主觀認知。而且,利益的關涉和風險認知偏差也可能影響對倫理風險的判斷,社會公眾或政府機構可能由于關注公眾福祉而對倫理風險更加敏感和重視,而生成式人工智能創新公司則可能會因為受益于該技術而傾向于低估倫理風險,科技企業甚至可能為了實現利潤最大化,將資本力量與算法相結合,大規模收集用戶數據與數字痕跡來形成算法模型,做出諸如精準價格歧視、勞工剝削等行為,從而引發倫理風險。④總之,人們對風險的主觀認知構成了倫理風險的建構性原因,在很大程度上決定了風險判斷和風險治理決策。
四、生成式人工智能倫理風險防范的可能對策
當前,生成式人工智能正在加速向行業和社會生活領域滲透,新的發展機遇和潛在風險構成了生成式人工智能創新發展的雙面特征。“現代技術正在使人的境況發生一種世界性的歷史轉變,這種轉變超出了其使用者的特定意圖?!绻夹g的影響超出了其使用者的意圖,就不能把它說成是一種中性的手段?!雹儆纱耍覀儾荒軆H僅將生成式人工智能理解成增進生活和生產效率的工具和手段,而是要從技術與人的交互存在視角看待生成式人工智能給人類帶來的影響,為防范風險尋找切實可行的應對之策。
第一,強化增進人類福祉的倫理規范。2021年9月26日,中國新一代人工智能治理專業委員會發布了《新一代人工智能倫理規范》,提出“增進人類福祉”“促進公平公正”等基本倫理規范,為人工智能活動提供了倫理指引和價值方向,體現了從公共治理層面對人工智能發展的倫理規制要求。技術創新的最前沿,往往也是商業利益追逐最為激烈的陣地,生成式人工智能創新可能為相關科技企業帶來巨大的商業效益前景,堅持增進人類福祉的倫理規范能夠為企業和政府平衡效益與風險提供價值評判標準。不論是人工智能技術創新企業還是政府的科技決策部門,以及使用生成式人工智能的社會公眾,均應以增進人類福祉為推動技術創新和技術社會應用的核心價值旨趣。莫雷拉在《超人類密碼》中提出,我們是在宏偉技術的幫助下為人類建設更美好的未來,還是以犧牲人類為代價建設一個更好的技術的未來?②問題的關鍵是要確保我們分配給技術的優先事項和我們賦予它的管理方法符合全人類的最佳利益。③因此,在生成式人工智能變革和風險并存的發展態勢下,在其創新、部署和應用過程中必須秉持“人工智能服務人類,服務社會”的主旨,堅持和強化“增進人類福祉”的基本倫理規范,并將其轉化為模型開發、政策響應、社會教育和國際治理等全方位、全過程的倫理行動。
第二,提高生成式人工智能的可解釋性和透明度。在生成式人工智能應用場景中,可解釋性至關重要,用戶將更加信任那些他們更了解的內容,借助于技術手段來提高生成式人工智能的可解釋性和透明度,使其研究結果更易理解和驗證,有利于更好地防范算法歧視、社會偏見以及侵犯隱私等倫理風險。歐洲《通用數據保護條例》(“General Data Protection Regulation”,GDPR)規定,用戶在使用算法過程中擁有獲得解釋的權利,以降低技術黑箱效應所帶來的隱私泄露風險。④中國發布的《生成式人工智能服務管理暫行辦法》也強調應提升生成式人工智能服務的透明度,提高生成內容的準確性和可靠性,為防范生成式人工智能倫理風險帶來了規范指引。⑤因此,應將增進人類福祉、滿足公眾利益等價值訴求以編碼形式嵌入生成式人工智能算法設計、模型構建中,明確和規范生成式模型的設計標準,通過持續的可解釋性評估對生成式模型進行過程優化和動態調整,對于大模型訓練的數據來源要有回溯性機制,提高生成內容的可解釋性和可追溯性,以更好地理解和控制模型的行為,致力于構建安全、保護隱私、透明、可解釋、公平和負責任的生成式人工智能系統,以避免可能產生對個人、企業和社會的有害影響。①
第三,注重生成式人工智能的倫理規制。生成式人工智能的技術創新迭代周期正在持續縮短,亟需在政策層面加強治理措施。除了制定針對生成式人工智能的法律法規,明確規定其開發、部署和使用的條件,以及對生成式人工智能系統透明度、公平性、責任追究和隱私保護等方面的規定,還應注重加強倫理規制措施、規范倫理審查流程,平衡技術創新與社會責任之間的關系,促進生成式人工智能的發展符合倫理價值。一是設立專門的倫理審查機構或委員會,負責審核生成式人工智能項目的倫理合規性。這些機構審查生成式人工智能系統的設計、數據使用,規范生成式人工智能系統對個人數據的采集、存儲和處理,使數據使用符合倫理標準和要求。中國于2023年12月施行《科技倫理審查辦法(試行)》,為規范科學研究、技術開發等科技活動提供了指南,有助于強化科技倫理風險防控,促進負責任創新。②二是建立持續倫理監測和政策調整機制。由于生成式人工智能技術的發展日新月異,對其風險防范的政策機制應是一種適應性的動態更新狀態,應建立持續的倫理監測和倫理審查,及時更新和完善倫理規制政策。三是建立健全生成式人工智能倫理風險的多元主體協同治理機制,促進倫理學者、科技工作者和政策制定者等主體的對話和溝通,綜合考慮技術、法規、倫理準則以及社會參與,在生成式人工智能的設計、開發和應用全過程采取相應的防范治理措施。
第四,加強生成式人工智能科技企業的創新責任和行業自律。一是企業應成立專門的倫理委員會或專家團隊,負責審查和指導生成式人工智能項目。這些委員會或團隊應該包括倫理學家、法律專家、技術專家等,促進企業合乎倫理地訓練、開發和應用生成式人工智能技術,將倫理要素嵌入技術創新開發和使用全過程,將相應倫理規范轉譯到技術路徑之中,使生成式人工智能成為一種實現道德目的的手段,“使得通過技術和設計保護個人隱私成為數據保護機制中不可或缺的組成部分,加密、匿名化、差分隱私等技術機制發揮著重要的作用”③。二是加強對企業技術人員的倫理培訓,提高其對生成式人工智能倫理風險的認識和敏感度,培訓內容可以包括倫理原則、案例分析、決策模型等,將具有實操性的倫理原則嵌入人工智能產品的設計之中,并做好流程監管,使用公平的訓練數據,強調算法透明和隱私保護。三是促進相關行業組織或機構制定生成式人工智能技術創新的倫理準則和標準,建立行業自律機制。倫理準則應涵蓋數據隱私、公平性、透明度、責任追究等方面,規范技術人員在生成式人工智能項目中的行為,提升社會責任意識;建立企業內部審查機制,包括項目評估、風險管理、投訴處理等環節,發現和解決潛在的倫理風險和問題。四是企業應該保持透明度,公開生成式人工智能項目的設計原則、數據使用方式、算法邏輯等關鍵信息,與利益相關者(如政府、學術界、社會團體等)加強溝通和合作,共同探討生成式人工智能的倫理和社會責任問題,推動行業自律和創新責任的落實。
第五,推進生成式人工智能倫理風險治理的社會宣傳和教育。一是借助傳統媒體和新媒體的力量,開展生成式人工智能倫理風險知識的宣傳和報道,通過報紙、電視、網絡等渠道向公眾傳遞相關信息和警示,“提高公眾對AI生成內容的辨識能力,培養批判性思維,以應對假新聞和誤導性內容的問題”①;二是充分發揮科技社團的作用,鼓勵社會組織、非營利機構和非政府組織等開展相關教育和宣傳活動,組織研討會、工作坊等針對公眾的教育活動,向廣大民眾介紹生成式人工智能的基本原理、應用領域和倫理風險,吸引更多社會力量參與生成式人工智能倫理風險知識的普及工作,形成多方共同努力的局面;三是加強生成式人工智能倫理風險及其規制的社會討論,通過公開聽證會、研討會等形式,建立生成式人工智能倫理風險咨詢熱線和在線服務平臺,為公眾提供咨詢和解答服務,幫助他們解決相關問題和困惑,擴大公眾對生成式人工智能倫理規制制定和施行的參與度,提升政策制定過程的透明度和民主性;四是將生成式人工智能倫理風險知識納入學校的課程體系和科研體系,培養學生的倫理思維和責任意識,注重將生成式人工智能倫理風險研究與中國社會現實相結合,針對中國的實際情況進行合理的風險預測評估、良性風險溝通和風險管理。
第六,構建生成式人工智能倫理風險治理的國際合作機制。當前,生成式人工智能技術正在全球范圍內擴散和應用,其倫理風險治理必然需要跨越國界開展國際合作。應促進各國共同制定和執行跨國范圍的倫理標準和規范,包括技術標準、倫理準則、法律框架等,為各國制定政策提供參考和支持,并防止生成式人工智能技術被濫用或用于跨國犯罪活動。近年來,中國相繼發布《中國關于規范人工智能軍事應用的立場文件》《中國關于加強人工智能倫理治理的立場文件》《全球人工智能治理倡議》等政策文件,向世界提出了人工智能治理的基本思路和建設性方案,為促進“智能向善”提供了重要指南。在推進生成式人工智能倫理風險治理的國際合作過程中,應建立健全國際合作機制,促進國際社會多方主體參與,“多元治理主體在人工智能社會技術系統中擁有不同的權威、資源、利益與限制,通過各種正式與非正式渠道進行廣泛互動,構成治理機制復合體”②,共享生成式人工智能技術和倫理風險的信息,開展合作研究和技術創新,加強跨國監管合作,共同應對生成式人工智能的風險治理挑戰,推動生成式人工智能的安全、可靠和可控發展。2021年11月,聯合國教科文組織通過了《人工智能倫理問題建議書》,這份人工智能倫理問題全球性協議在一定程度上促進了國際人工智能治理的多邊合作。2024年2月,第二屆全球人工智能(AI)倫理論壇的召開,促進了參與論壇的全球性科技機構和公司達成“構建促進公共利益的AI”的共同承諾。③此外,應積極推進國際組織和機構開展生成式人工智能領域的國際交流活動和人才培訓項目,共同推動生成式人工智能技術的發展和應用達成向善目標。
五、結語
當前,全球范圍新一輪科技革命和產業變革正蓬勃興起,生成式人工智能創新迭代迅速推進,在多個領域賦能人類社會,既成為數字化時代促進創新、提升效率的重要推動力,又以其高度不確定性、風險性以及對社會影響的復雜性和顛覆性引發社會倫理關切。對生成式人工智能倫理風險的研判和應對,對于保護個人權利、維護公平正義、促進社會和諧發展極為重要,我們應以審慎前瞻的倫理態度對待技術進步,促進生成式人工智能真正為人類造福。
①OpenAI推出AI系統,將文本轉換為逼真的視頻[EB/OL].(2024-02-10)[2024-12-10]. https://baijiahao.baidu.com/s? id=1818006825475957257wfr=spiderfor=pc.
②任鵬,顏維琦.生成式人工智能“飛入尋常百姓家”[N].光明日報,2023-07-08(4).
①李白楊,白云,詹希旎,等.人工智能生成內容(AIGC)的技術特征與形態演進[J].圖書情報知識,2023(1):66-74.
②RIOS-CAMPOS C,LUZURIAGA VITERI J D C,PALMA BATALLA E A,et al. Generative artificial intelligence[J]. South Florida journal of development,2023,4(6):2305-2320.
③秦天弘.全球論壇探討人工智能治理格局[N].經濟參考報,2024-02-07(4).
④ZOHNY H,MCMILLAN J,KING M. Ethics of generative AI[J]. Journal of medical ethics,2023,49(2):79-80.
①孟凌霄.生成式人工智能引發算力產業“三變”[N].中國科學報,2023-12-13(3).
②亨利·基辛格,埃里克·施密特,丹尼爾·胡滕洛赫爾.人工智能時代與人類未來[M].胡利平,風君,譯.北京:中信出版集團,2023:19-20.
③HANSSON S O. Risk and safety in technology[M]// MEIJERS A. Handbook of the philosophy of science,philosophy of technology and engineering sciences,Oxford:Elsevier,2009:1069-1102.
④趙志耘,徐峰,高芳,等.關于人工智能倫理風險的若干認識[J].中國軟科學,2021(6):1-12.
①段偉文.準確研判生成式人工智能的社會倫理風險[J].中國黨政干部論壇,2023(4):76-77.
②陳永偉.超越ChatGPT:生成式AI的機遇、風險與挑戰[J].山東大學學報(哲學社會科學版),2023(3):127-143.
③趙志耘,徐峰,高芳,等.關于人工智能倫理風險的若干認識[J].中國軟科學,2021(6):1-12.
④鈄曉東.論生成式人工智能的數據安全風險及回應型治理[J].東方法學,2023(5):106-116.
①FARINA M,YU X,LAVAZZA A. Ethical considerations and policy interventions concerning the impact of generative AI tools in the economy and in society[J]. AI and ethics,2025,5:737-745.
②鈄曉東.論生成式人工智能的數據安全風險及回應型治理[J].東方法學,2023(5):106-116.
③王少.生成式人工智能對學術不端治理的妨礙及對策[J].科學學研究,2024(7):1361-1368.
④徐嵐,魏慶義,嚴弋.學術倫理視角下高校使用生成式人工智能的策略與原則[J].教育發展研究,2023(19):49-60.
①閆坤如.可解釋人工智能:本源、進路與實踐[J].探索與爭鳴,2022(8):102-109,178.
②程樂.生成式人工智能治理的態勢、挑戰與展望[J].人民論壇,2024(2):76-81.
③邢燦.文生視頻模型Sora問世變革與風險并存[N].中國城市報,2024-02-26(4).
④歐盟27國代表一致支持《人工智能法案》文本[EB/OL].(2024-02-03)[2024-05-08]. https://baijiahao.baidu.com/s?id=1789848941640499406wfr=spiderfor=pc.
①張鋌.人工智能的倫理風險治理探析[J].中州學刊,2022(1):114-118.
②羅會鈞,查云龍.人工智能時代的全球治理轉型與中國應對[J].上海交通大學學報(哲學社會科學版),2023(12):13-24.
③閆坤如.技術風險的研究嬗變及其研究趨勢探析[J].學術研究,2017(2):26-32.
④孟天廣,李珍珍.治理算法:算法風險的倫理原則及其治理邏輯[J].學術論壇,2022(1):9-20.
①吳國盛.技術哲學經典文本[M].北京:清華大學出版社,2022:6.
②卡洛斯·莫雷拉,戴維·弗格森.超人類密碼[M].張羿,譯.北京:中信出版集團,2021:4.
③卡洛斯·莫雷拉,戴維·弗格森.超人類密碼[M].張羿,譯.北京:中信出版集團,2021:10.
④GOODMAN B,FLAXMAN S. European Union regulations on algorithmic decision-making and a right to explanation[J]. AI magazine,2017,38(3):50-57.
⑤中華人民共和國工業和信息化部.生成式人工智能服務管理暫行辦法[EB/OL] .(2023-08-30)[2024-12-02].https:// www.miit.gov.cn/gyhxxhb/jgsj/cyzcyfgs/bmgz/xxtxl/art/2023/art_4248f433b62143d8a0222a7db8873822.html.
①KENTHAPADI K,LAKKARAJU H,RAJANI N. Generative AI meets responsible AI:practical challenges and opportunities[C]// Proceedings of the 29th ACM SIGKDD Conference on Knowledge Discovery and Data Mining,2023:5805-5806.
②關于印發《科技倫理審查辦法(試行)》的通知[EB/OL].(2023-09-07)[2024-12-02]. https://www.gov.cn/gongbao/2023/ issue_10826/202311/content_6915814.html.
③曹建峰.歐盟人工智能倫理與治理的路徑及啟示[J].人工智能,2019(4):39-47.
①邢燦.文生視頻模型Sora問世變革與風險并存[N].中國城市報,2024-02-26(4).
②薛瀾.如何構建一個平衡包容的人工智能治理體系[EB/OL].(2021-12-11)[2024-03-17]. https://mp.weixin.qq.com/s/ vAdOea-IX-3aBQOosKPXiQ.
③全球論壇探討人工智能治理格局[EB/OL].(2024-02-07)[2024-12-20]. https://tech. huanqiu. com/article/ 4GUG3d5zcFm.
(責任編輯古東)
Ethical Risks of Generative Artificial Intelligence and Preventive Strategies
XUE Guibo
(School of Marxism,Nanjing Forestry University)
Abstract:As the latest stage in the development of artificial intelligence(AI)technology,generative AI exhibits distinct characteristics compared to traditional AI in terms of creativity,interactivity,and generality. However,its innovative applications come with high uncertainty and pose significant ethical risks,such as spreading bias and discrimination,infringing on privacy,generating 1 information,manipulating cognition,and leading to ethical misconduct in scientific research. The author believes that preventive strategies for the ethical risks of generative AI should be explored based on an analysis of their roots in both technological logic and social construction. These strategies should include strengthening the value concept of“enhancing human well-being”,improving the explainability of technology,establishing sound ethical regulations,reinforcing corporate self-discipline,and building a global cooperation mechanism for risk governance.
Key words:generative AI;ethical risk;technology for good;ethical governance of technology