中圖分類號:F49 文獻標識碼:A文章編號:1001-7348(2025)12-0038-11
0 引言
從語言模型ChatGPT、文心一言到視頻生成模型Sora,一系列生成式人工智能(AIGC)應用相繼問世、更新迭代,影響面越來越廣。然而,AIGC的復雜性和不確定性亦帶來諸多倫理風險。例如,ChatGPT可以為科研人員提供研究輔助,但也引發抄襲、數據偽造等學術不端行為,部分教育機構已對其使用作出嚴格限制。OpenAI在接受采訪時也公開承認,其開發的語言生成模型GPT-4并不是完美無缺的,也存在產生錯誤、具有某種偏見的信息或者泄露用戶隱私等風險。2023年4月中共中央政治局召開會議并指出,“要重視通用人工智能發展,營造創新生態,重視防范風險”。2023年7月,國家網信辦等七部門聯合發布《生成式人工智能服務管理暫行辦法》,明確了AIGC的適用范圍、責任主體認定、服務規范等方面內容。
學界對AIGC風險治理亦展開了一定研究。有學者從宏觀層面分析了AIGC的風險與規制[1]、法治基礎[2]等內容,也有學者從微觀角度剖析了AIGC的算法、數據、侵權等風險[3-4]。這些研究奠定了AIGC倫理風險治理的基礎,但仍有值得商榷之處:第一,倫理風險的界定不夠清晰,容易陷入冠以倫理風險之名卻講一般風險之實的困境;第二,倫理風險生成機理的解釋有待進一步深化;第三,倫理風險治理對策的系統性把握有待加強。當前大多數研究僅在分析AIGC時附帶提到倫理風險治理問題,即使有所研究也較為零碎,缺少體系化研究,未能深人闡釋AIGC倫理風險治理的特殊性,難以提供具有針對性、精準性的治理方案。……