中圖分類號:F49 文獻標(biāo)識碼:A文章編號:1001-7348(2025)12-0038-11
0 引言
從語言模型ChatGPT、文心一言到視頻生成模型Sora,一系列生成式人工智能(AIGC)應(yīng)用相繼問世、更新迭代,影響面越來越廣。然而,AIGC的復(fù)雜性和不確定性亦帶來諸多倫理風(fēng)險。例如,ChatGPT可以為科研人員提供研究輔助,但也引發(fā)抄襲、數(shù)據(jù)偽造等學(xué)術(shù)不端行為,部分教育機構(gòu)已對其使用作出嚴(yán)格限制。OpenAI在接受采訪時也公開承認(rèn),其開發(fā)的語言生成模型GPT-4并不是完美無缺的,也存在產(chǎn)生錯誤、具有某種偏見的信息或者泄露用戶隱私等風(fēng)險。2023年4月中共中央政治局召開會議并指出,“要重視通用人工智能發(fā)展,營造創(chuàng)新生態(tài),重視防范風(fēng)險”。2023年7月,國家網(wǎng)信辦等七部門聯(lián)合發(fā)布《生成式人工智能服務(wù)管理暫行辦法》,明確了AIGC的適用范圍、責(zé)任主體認(rèn)定、服務(wù)規(guī)范等方面內(nèi)容。
學(xué)界對AIGC風(fēng)險治理亦展開了一定研究。有學(xué)者從宏觀層面分析了AIGC的風(fēng)險與規(guī)制[1]、法治基礎(chǔ)[2]等內(nèi)容,也有學(xué)者從微觀角度剖析了AIGC的算法、數(shù)據(jù)、侵權(quán)等風(fēng)險[3-4]。這些研究奠定了AIGC倫理風(fēng)險治理的基礎(chǔ),但仍有值得商榷之處:第一,倫理風(fēng)險的界定不夠清晰,容易陷入冠以倫理風(fēng)險之名卻講一般風(fēng)險之實的困境;第二,倫理風(fēng)險生成機理的解釋有待進一步深化;第三,倫理風(fēng)險治理對策的系統(tǒng)性把握有待加強。當(dāng)前大多數(shù)研究僅在分析AIGC時附帶提到倫理風(fēng)險治理問題,即使有所研究也較為零碎,缺少體系化研究,未能深人闡釋AIGC倫理風(fēng)險治理的特殊性,難以提供具有針對性、精準(zhǔn)性的治理方案。……