摘要:以ChatGPT4為代表的生成式人工智能,預示了強人工智能時代的到來。該技術的多功能性和強大的智能性引發了廣泛關注,然而,其潛在風險亦不容忽視。鑒于生成式人工智能在不同運行階段的使用主體和所采用的算法有所差異,故對其進行分階段風險分析顯得尤為重要。針對生成式人工智能的數據風險,文章從其運行邏輯入手,深入剖析數據收集、模型訓練和輸出階段的運行機制,并在此基礎上,對各階段的風險進行了詳盡分析。針對每一階段的特點,文章提出了治理路徑:在數據收集階段,以開發者為主導,多方主體協同參與治理;在模型訓練階段,需要開發者與政府采取軟硬并施的策略;在輸出階段,構建以用戶為中心的內容治理體系。
關鍵詞:ChatGPT4;生成式人工智能;大語言模型;算法治理;法律規制
中圖分類號:TP18;D922.17 文獻標識碼:A 文章編號:1673-4580(2024)02-0121-(08)
DOI:10.19717/j.cnki.jjus.2024.02.021
隨著生成式人工智能的不斷壯大,其潛在的法律風險以及對社會的巨大影響也引起了人們的關注。生成式人工智能帶來的風險是多方面的,對于算法而言,有算法風險。不公開的算法可能會引起算法黑箱、算法歧視等風險;對于數據而言,生成式人工智能處理的數據量極為龐大,開發過程中的訓練數據和用戶使用產生的數據等等數據如果不加以規范,容易產生數據泄露、數據被動出境等數據風險。除此之外,生成式人工智能作為新一代人工智能的代表,其迅速發展也引發了人們對科技倫理、人類主體性、失業等風險的擔憂。……