李緒青 朱閣
[摘要] ChatGPT是人工智能生成內容的典型應用成果。這項技術以大數據學習作為基礎并通過相應算法不斷優化而成,其風險主要體現在數據和算法的使用上。同時其所展現的強大能力將對人類社會的方方面面以及個人權益造成嚴重影響。本次技術革新的延展性甚至超過20世紀初的互聯網技術,任何國家不可能對此置身事外。人工智能系大勢所趨,開展風險認知、治理策略研究刻不容緩,同時應以高效的機制體制建設規范其健康發展。
[關鍵詞] 人工智能;? 數據安全;? 治理與監管
[中圖分類號] TP18? ? ? ? ?[文獻標識碼] A? ? ? ? ?[文章編號] 0529-1445(2023)06-0049-03
ChatGPT向世人展現了人工智能技術在文本處理領域的極致效率和巨大潛力,使得AIGC(Artificial Intelligence Generated Content,即人工智能生成內容)這一賽道受到各國廣泛關注,頭部公司蜂擁進入,訓練并推出自己的AIGC應用。AIGC在本質上是一種生產方式的變革,推動內容生產方式從“作坊式”走向“流水線”。今后,熟練掌握各個AIGC產品使用方式的人,就像一個指揮官,通過發送指令的方式指揮AI產出不同的內容。
當前,從圖像、語音、文本、視頻、設計、音樂、代碼、數字人、游戲等多個方向看,AIGC技術已經在各個領域得到廣泛應用和發展。未來兩三年,AIGC的初創公司和商業落地案例將持續增加。目前由人工智能生成的內容占所有內容的比例不到1%,根據Gartner預測,到2025年,這一比例將達到10%。1鑒于AIGC爆發出來的巨大生產力,人工智能生成的內容占所有內容的比例將會呈現指數型增長。
AIGC技術應用潛藏多種風險
AIGC技術在通過大數據學習賦能各領域發展的同時,其自帶的風險及被惡意使用的后果也可以帶來毀滅性的影響。AIGC技術系以大數據學習作為基礎并通過相應算法不斷優化而成,因此其自身風險首先體現在數據和算法的使用上。
數據安全問題首當其沖。目前,ChatGPT并未公開其訓練數據的來源和具體細節,而其他公司也將預訓練時所使用的數據作為商業機密未向社會公開,不禁讓人質疑其所使用的訓練數據是否為合法方式獲取,是否獲得相關權利人的授權。同時,用戶在使用ChatGPT過程中,會被收集個人信息或其他資料,因此,存在泄露個人信息、商業秘密或國家秘密的風險。前不久,韓國某公司就爆出三起因員工使用ChatGPT,導致該公司的半導體設備測量數據、產品良率等內容傳輸到ChatGPT訓練數據庫的事件。
算法歧視和偏見需要重視。已有實例表明,ChatGPT存在一定的歧視性因素。美國加州大學計算機認知科學家對ChatGPT進行測試,發現輸出結果存在種族偏見和性別偏見問題。比如,ChatGPT在對話中表示,只有白人男性才會成為科學家。此外,研究表明ChatGPT具有政治傾向和立場,這可能會對普通人的思維模式和認知產生影響,引發不同階層的對立和日常矛盾的激化。
自然人人身權利易受侵害。隨著AIGC技術在繪畫、聲音等與人身權利密切相關的領域大放異彩,許多人便動起了歪心思。在北京互聯網法院審理的“AI陪伴”案件中,用戶可以通過涉案軟件,使用原告的姓名、肖像創設虛擬人物,同時還可以與該AI角色設定身份關系,設定任意相互稱謂,通過制作素材“調教”角色,從而獲得與原告近乎真實的互動體驗。法院經審理認定,被告未經同意使用原告的姓名、肖像,設定涉及原告人格自由和人格尊嚴的系統功能,構成對原告姓名權、肖像權、一般人格權的侵害。
學術規范風險凸顯。自2022年底發布以來,ChatGPT被許多學生用于完成作業或撰寫論文,對學術研究工作造成了重大沖擊。利用ChatGPT完成學習任務可以很好地避開論文查重等問題,且質量效率遠超此前許多商家開發的解題軟件,對學生極具誘惑力。考慮到在教育科研領域可能引發的問題,許多學校、組織陸續發出聲明,禁止或嚴格限制學生使用ChatGPT進行論文寫作。
對社會運行的沖擊不容忽視。隨著AIGC技術被不斷深挖,并與教育、醫療、繪畫等領域相融合,可以預見在不久的將來,各行各業都將接入AI大模型。這勢必導致行業內原本從事較為簡單和重復性工作的勞動崗位被取代,同時也會加劇不同層次人員之間的信息差。
堵與疏的抉擇
對于ChatGPT技術的發展,不同國家采取了不一樣的監管措施。2023年3月31日起,意大利禁止使用ChatGPT,德國、加拿大等國也表示出于數據保護方面的考慮,將禁止使用ChatGPT或對人工智能采取更加嚴格的監管。
早在2021年,歐盟為積極應對人工智能的高速發展,提出《歐洲議會和理事會關于制定人工智能統一規則》,這是世界范圍內最為系統的人工智能立法探索,該法案已經經歷多輪討論和修改。其最新草案提出,應該嚴格禁止“對人類安全造成不可接受風險的人工智能系統”,包括有目的地操縱技術,利用人性弱點或根據行為、社會地位和個人特征等進行評價的系統等。該草案還要求人工智能公司對其算法保持人為控制,提供技術文件,并為高風險應用建立風險管理系統。
美國于2022年秋季公布《人工智能權利法案藍圖》,確定五個原則,涉及系統的安全有效性、算法歧視的保護、數據隱私問題、通知和解釋問題以及人工替代方案、考慮和退路等方面,意在指導規范人工智能系統的設計、使用和部署。2023年1月,美國發布《人工智能風險管理框架》,將可信度考量納入設計、開發、使用和評估AI產品、服務和系統中,并基于其他機構的AI風險管理工作,要求確保制定過程公開、透明。
事實上,我國一直高度重視人工智能技術的發展和治理,從2017年國務院發布《新一代人工智能發展規劃》,到2022年《最高人民法院關于規范和加強人工智能司法應用的意見》,我國人工智能治理各級文件中均提出了“安全可控”的治理目標,具體制度層面均提到建立公開透明的制度體系、建立相應問責機制、加強技術和應用全流程監管等。2023年4月,國家網信辦發布《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《管理辦法》),面向社會公開征求意見。《管理辦法》共21條,對生成內容、責任主體、訓練數據、算法設計、用戶管理等方面均制定了監管要求。
發展與監管并駕齊驅
科技治理為科技創新保駕護航,人工智能治理已成為重要的國際科技競爭力。我國是最早對人工智能進行監管治理的國家之一,對于如何通過制度設計平衡科技發展和風險防范之間的關系,至今仍是擺在我們面前迫切需要解決的難題。
大力發展人工智能基礎設施建設。人工智能技術的發展離不開三個核心要素:數據、算法、算力。AI大模型的訓練離不開大量合法、優質的數據;AI大模型輸出優質的內容離不開優秀的算法;AI大模型進行大規模運算離不開強大的算力支持。對于基礎設施建設,必須在體制機制、人才培養、資金投入方面共同發力,同時鼓勵企業將相應的產品商業化,反哺企業的科研創新。
確定人工智能技術發展的元規則。人工智能的迅猛發展以及可能給人類社會帶來的顛覆性改變是可以預見的,開發者在編程之初應提前做好規范設計。人工智能作為人類的生產工具,其所產出的內容不得損害人類發展,因此需要對損害國家安全、社會公共利益、個人權利的內容進行限制。可控性與倫理性應當作為規范人工智能技術發展中的元規則,這樣才能避免開發者為了自身利益盲目無序地開發人工智能技術,對人類社會產生不可逆的損害后果。
建立數據登記、流轉制度。人工智能技術的發展水平,很大程度上取決于其進行預訓練的數據規模和質量。除公開可查閱的數據外,大量優質的數據掌握在不同的公司手中,如何確定其權屬、權利類型以及公司是否享有使用權、能否進行流轉,目前尚未明確規定。建立數據登記制度,一方面可以審核數據來源的合法性、安全性,另一方面可以明確數據的權利方。建立數據流轉制度,是解決人工智能科技公司合法合規獲取優質數據問題的有效途徑,能夠提高優質數據的利用程度。
構建完備的治理機制。對于人工智能技術的監管,需要從源頭進行嚴格把關,在確保數據的合法性、安全性之外,還應確保所運行的算法安全可靠、符合人倫常理等要求。《管理辦法》第6條對算法備案提出要求,即對進入市場的大數據模型嚴格把關。此外,還需要建立健全投訴反饋機制,以公眾監督方式提升對大數據模型運行過程的監管力度,對于利用AI大模型進行違反法律法規活動的開發者和使用者,應予以相應處罰,從而構建起一套事前備案、事中監督、事后懲罰的治理機制。
厘清責任主體。當前,大多數人工智能公司為了規避風險,在服務協議中將生成內容的權益和責任轉移給用戶,這似乎符合權責利相統一的原則。但由于ChatGPT算法模型的復雜性和“算法黑箱”的存在,普通用戶難以充分理解其運行邏輯,對生成內容缺乏相應的預期。在此背景下,要求用戶對ChatGPT生成內容承擔全部責任,有失公平。因此,在侵權行為發生后,如何劃定開發者和使用者的責任,是立法、執法、司法部門需要共同面對的挑戰。
AI生成內容須標識。當前AI大模型在文本、繪畫、聲音等方面生成的內容,人類已經難以分辨,甚至在某些特定場景下超出了一般人的創作能力。而隨著AI大模型的開發,其所創造的內容勢必將遠超一般人的辨別能力。對于AI大模型生成的內容進行標識已經取得共識,《管理辦法》第16條要求,對生成或者編輯的信息內容采取技術措施進行標識。但目前對于標識方式還沒有具體規定,市場上大部分AI大模型生成的內容也沒有進行標注,需要有關部門基于內容市場流轉及治理的考慮,進一步出臺更加細致的規范性文件。
[參考文獻]
[1]國家互聯網信息辦公室.生成式人工智能服務管理辦法(征求意見稿)[EB/OL].http://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm.
(作者簡介:李緒青,北京互聯網法院綜合審判一庭法官助理;朱閣,北京互聯網法院綜合審判一庭副庭長)
責任編輯 / 任? ?征