999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能的風險迭代與規制革新

2023-01-01 00:00:00王洋閆海
理論月刊 2023年6期

[摘 要] 以ChatGPT為代表的生成式人工智能橫空出世,普及之迅廣,超出了人類技術史上的任何一次科技進步。生成式人工智能的技術躍進引發了人的主體性、公私法益受損和技術風險黑箱識別困難的廣泛風險迭代問題。傳統規制模式面臨政府規制遲滯和資源匱乏、市場自治動力缺失和協調不足的困境。元規制模式倡導框架性法律引導下的企業自我規制,可回應生成式人工智能的風險規制需求。我國應集中針對生成式人工智能在算法模型、龐大的數據集和訓練機制方面的風險源頭,由政府規制承擔掌舵者的風險防控職責,協調人工智能企業、第三方機構和社會公眾參與風險治理,構建框架性的軟硬法混合規范體系,形成從人工智能企業內部到認證機構、關聯企業以及社會公眾的風險合規監督機制。

[關鍵詞] 生成式人工智能;ChatGPT;風險規制;元規制;人工智能法

[DOI編號] 10.14180/j.cnki.1004-0544.2023.06.002

[中圖分類號] D922.16; TP18" " " " " "[文獻標識碼] A" " " "[文章編號] 1004-0544(2023)06-0014-11

基金項目:遼寧省社會科學規劃基金青年項目“新時代政府引導行業自我規制的法治化研究”(L22CFX001);遼寧省社會科學規劃基金重點建設學科項目“統一大市場背景下的公平競爭審查法治建設研究”(L22ZD060)。

作者簡介:王洋(1991—),男,法學博士,遼寧大學法學院講師;閆海(1976—),男,法學博士,遼寧大學法學院教授、博士生導師。

人類在進入工業化時代后,已逐步適應風險社會帶來的不確定性。政府作為公民的委托人承擔風險防控和安全保障的職責,“對實際或可能的技術運用中產生的風險在政治和科學層面加以操控”[1](p4),而基本手段是運用法律對技術企業的行為實施規制。在工業化時代的大部分時間內,新興技術漸進推廣運用,人們可以較為穩妥地認識、處理逐步暴露的技術風險。但是,以ChatGPT為代表的生成式人工智能技術的橫空出世,迅速地改變了以往風險社會的風險認知及其規制的節奏。

伴隨神經網絡、大數據和深度學習等技術的發展和運用,人工智能(Artificial Intelligence,AI)技術在近十年里取得顯著成就,以機器翻譯、人臉識別、自動駕駛、疾病監測等多種方式從學術研究走向現實應用。AI進入人類社會的速度和廣度正突飛猛進:一方面,AI技術的迅速迭代發展引發人們對未來科技世界的憧憬。AI無疑是當代人類社會科技領域皇冠上的明珠,這是因為“幾千年來,我們一直試圖理解我們是如何思考和行動的”,“人工智能領域不僅涉及理解,還涉及構建智能實體”[2](p2)。ChatGPT的誕生讓這顆明珠大放異彩,它所展示的顛覆性創新可被視為人工智能發展史上的重要里程碑。另一方面,風險亦隨著AI技術的普及而突如其來地擺在人們眼前——ChatGPT的使用已產生詐騙等損害公私權益的案件,基于互聯網且更加通用的AI呈現出與工業時代截然不同的風險面貌。ChatGPT迫使人們重新審視傳統風險社會中的風險規制問題。技術和人類的主客體關系如何界定?AI引發的風險及其源頭在哪里?政府在AI的技術黑箱面前能做什么?誰應當承擔風險防控的主要職責?規制風險的法律框架應做何種調整以適應技術發展的形勢?

AI已然成為國際競爭的關鍵領域,歐盟、美國已針對AI技術可能引發的風險問題啟動立法進程。在促進高新科技發展和落實總體國家安全觀的雙重任務下,我國有必要審視和重新確立與AI技術特征相適應的法律規制模式。在此過程中,如何在風險預防和創設自由發展空間之間取得適度平衡,提升規制的敏捷性、適應性,是當下科技規制亟待解決的法律問題。

一、生成式人工智能及其風險迭代

(一)人工智能的技術迭代:從決策式AI到生成式AI

自AI之父艾倫·圖靈在1950年發表《機器能夠思考嗎?》以來[3],研究人員一直在預測人類距離創建真正能夠獨立思考的通用型機器還有多遠的距離,結果是一再證明“預測是很難的,尤其是對未來的預測”。但是,在進入21世紀后,隨著相關的基礎科學和技術研究不斷深入,以及大數據、算法和互聯網等關聯技術的迅猛發展,AI愈發脫離小說和影視作品的虛構情節,在專業領域嶄露頭角。2016年,能夠自主決策的阿爾法圍棋(AlphaGo)擊敗人類頂級棋手,技驚全球。21世紀10年代的AI技術還僅在安全監控、醫療、交通、游戲等有限領域各行其是,在特定事項上輔助人們作出決斷,例如AlphaGo只會思考圍棋游戲。但是,“游戲是開發和測試這些人工智能算法的最佳途徑……關鍵在于,它必須是一種通用人工智能,可以根據自身的經驗和數據來學習如何做事”[4],換言之,通用人工智能才是人工智能發展的真正目標。

令人意外的是,從決策式AI發展到通用型的生成式AI僅用了短短幾年時間。剛進入21世紀20年代,由微軟公司投資開發,能夠從事人機對話和相對復雜語言工作的ChatGPT出乎意料地進入尋常百姓家。在底層模型算法和訓練機制的技術創新支持下,ChatGPT具備了之前決策式AI所不具備的知識遷移能力,可以在所有知識領域生成有邏輯的對話文本①。盡管目前ChatGPT向用戶反饋生成的文本信息還無法達到理想的質量水平,但它確實在很大程度上實現了人工智能從專家實驗室和專業活動擴展至公眾使用的迭代發展,人類向通用人工智能的愿景邁出了堅實的一大步。

從決策式AI到生成式AI演進所展現的技術迭代之迅速、普及范圍之廣泛、對人的主體性影響之大,乃是人類技術發展史上所罕見,由此帶來規制立法和政策能否應對其中潛在風險的隱憂。應當明確的是,AI技術本身的迭代發展并非市場失靈的特殊類別,不是規制的正當性理由。但是,“隨著技術實踐的轉變,新的危害、風險、市場失靈和體系架構都會實際或者潛在存在。同時,基于當下作出的可能性判斷時,現有的社會規范、規則和規制力量往往被錯誤定位”[5](p575)。在早前決策式AI背景下,相對寬松的規制環境和較少的法律約束是否依然適應生成式AI的技術環境,尚需時日加以實踐檢驗。換言之,規制者經過仔細評估,協商一致并決定采取規制決策,必然滯后于生成式AI早已產生的風險及其損害。況且,未來的規制立法能否真正有效應對決策式AI的風險也存在較大的不確定性。

ChatGPT展現的當代人工智能迭代發展能力給人們敲響警鐘,使人們意識到必須調整規制模式以靈活應對技術迭代引發的未知風險,以往基于實踐經驗的事后規制,或者依賴于政府主導制定強制性規范,已然無法應對迅速迭代發展的AI技術。

(二)風險客體:從對象工具到共情伙伴

AI究竟是“人”還是“物”的本質屬性問題,關系到人們對待AI風險的認知基礎。所謂AI的“人格化”,早在1950年阿西莫夫創作的科幻小說《我,機器人》中就有鮮活的描述。AI題材的文學和影視作品容易引發對AI可能具備人格屬性的無限遐想和倫理探討,但此類想象與AI的現實發展水平相去甚遠。包括決策式AI在內的技術具有典型的工具屬性和技術客體特征,它們在設計者或用戶給定的條件、選項下運行,輔助用戶快速得到理想化的結果。換言之,設計者或用戶的主觀意志在很大程度上決定了AI的“行為”空間,人們并不認為決策式AI具備人格屬性,或者能夠取代人類的思考,削弱自主意志。

但是,生成式AI的普及使用可能改變公眾對于人工智能的主客關系認知。ChatGPT在人機對話中表現出較高的邏輯水平,可以回答用戶在各領域的問題,乃至表達人文關懷。在用戶質疑生成文本的內容時,ChatGPT甚至能夠自我糾正,將自己的不足之處明白地傳遞給用戶。這些特征使其儼如文質彬彬、謙虛有禮的博學之士,而非由程序代碼組成的冰冷的工具程序。可以想象,如果ChatGPT裝備在人體形態的機器人身上,它完全可以成為能夠與用戶“共情”且睿智的伙伴,以致用戶可能在潛移默化之中將之視為人格化的主體,引發主客體關系模糊的認知風險。

生成式AI還可能削弱用戶的主體意志,影響人們控制AI這一工具客體的能力,甚至反被AI所利用。ChatGPT強大的文本生成能力使之成為傳統搜索引擎的有力競爭品。人們在使用傳統搜索引擎時,需要對搜索結果進行比對、篩選和判斷,這一過程反映了人們獨立思考的能力和自主意志。ChatGPT則直接向用戶生成問題的答案,大部分用戶傾向于認可答案的權威性和準確性,不假思索地完全采信,忽略了ChatGPT可能在“一本正經地說假話”。長此以往,用戶基于主體意志的獨立思考和批判意識會被削弱,人類社會因自由意志迸發出的多樣性和創新也會隨之枯竭。例如,在對于人類心智成長至關重要的教育領域,假設學生不受限制地使用ChatGPT生成的內容來完成作業,而不主動學習思考,這將對人類的思維意志,乃至主體性產生深遠的負面影響。

因此,生成式AI最為深刻的風險在于對人的主體性提出挑戰——模糊的主客關系認知以及被削弱的主體意志,甚至出現科學家預言中的景象:“真正的問題是計算機太愚蠢了,并且它們已經接管了世界。”[6](p285-286)事實上,在人類社會的自然法秩序上,無論AI發展到何種水平,“只能被定格在無法反映與確證自我的客觀類存在物,以及法權模型中的法律關系客體上”[7](p53)。AI與用戶之間應有清晰的“主體—客體”二分性質,AI迭代進步能夠使之更像協同伙伴,而不應取代人類的主體地位。但是,ChatGPT引發的公眾“主客認知”現實風險可能與法理認知之間出現脫節問題。

(三)風險類型:對公私法益的全面沖擊

生成式AI產生的主體性風險仍是潛在的、長遠的,相較而言,它對法律保護的公共利益和私人權益的沖擊影響已成為現實,且沖擊影響之廣泛是之前AI技術不可比的,這也是當下AI的風險規制迫切需要解決的問題。

1.生成式AI對公共利益的沖擊

一方面,如果生成式AI被不當設計或使用,可能對公共安全秩序造成負面影響。ChatGPT的運行依賴于從網絡獲取的海量信息集,并且基于人類反饋的強化學習方法使ChatGPT具備較高的文本生成和人機對話能力。因此,ChatGPT傳遞給用戶的信息內容的質量取決于信息集和人工訓練(反饋)兩方面的質量。從研發管理者角度看,如果生成式AI的程序研發者未對不良信息進行有效的篩查訓練,將會導致生成的文本存在諸多問題,例如包含與倫理道德或者社會公共秩序相悖的暴力、色情、歧視、傳播犯罪技術等不良信息。從用戶角度看,如果研發管理者之前未對產品被如何使用加以識別、控制,或者不能建立有效的防火墻以防止其被惡意攻擊、篡改,一些違法犯罪者可能利用生成式AI從事破壞公共利益的行為。例如,已有人利用ChatGPT自然語言編寫的能力,編寫惡意軟件逃避防病毒軟件的檢測,也有“網絡水軍”利用ChatGPT以低成本編造虛假信息乃至恐怖信息,并在網絡上迅速傳播。

另一方面,生成式AI也將對信息技術市場的良性競爭秩序產生沖擊。生成式AI的研發運營需要高昂的技術資金成本,容易形成技術壁壘和市場壟斷。ChatGPT的研發運營商OpenAI之所以能夠較早實現技術突破,主要是依靠微軟的巨額投資、多輪融資以及并購小型專門技術企業①。ChatGPT的運行成本也十分高昂——每次用戶與ChatGPT互動均須消耗一美分的算力云服務成本。由此可見,生成式AI的研發運營對技術和資本要素提出了非常高的要求,極易引發AI市場的寡頭壟斷風險。互聯網領域的寡頭壟斷可能延續到生成式AI市場,只有少數互聯網巨頭企業才能掌控生成式AI這一關鍵技術工具的“權杖”,擠壓新興科技企業參與競爭和獨立生存的空間。

2.生成式AI對私人權益的沖擊

私人權益可能因生成式AI技術產生的風險而遭受損害:一是個人信息、數據可能被盜竊或不當使用。例如,生成式AI程序未經用戶同意或者超越授權范圍抓取個人信息數據,從而引發侵犯個人信息、隱私、商業秘密的風險。又如,生成式AI暗中在數據庫中使用包含著作權的作品信息,用以支持生成的文本質量,但未通知作者并支付報酬。二是違法犯罪者可能利用生成式AI編造詐騙信息,制作釣魚軟件,生成由大量用戶名和密碼構成的組合攻擊在線賬戶,對個人財產安全造成嚴重損害風險。三是用戶可能會向生成式AI詢問有關個人健康的問題,但生成式AI對此類專業問題往往存在知識信息的局限,反饋給用戶的信息或建議可能會對個人健康相關的行為選擇造成誤導。例如,醫療診斷是建立在循證、檢查和學術參考基礎上的專業領域,這與生成式AI運作的數據基礎存在本質區別,生成式AI若是被運用到個人的醫療咨詢上,必然對個人健康權益產生損害風險。

(四)風險識別:AI技術的黑箱升級

生成式AI引發的外在風險并非難以識別,既有的法律責任體系仍具備可解釋性和適用性,難以識別和應對的是引發外在風險的內在風險因素。換言之,外在、可識別的風險往往是由一系列內在的技術控制——所謂技術黑箱引發的。全面規制生成式AI引發的風險,必須追根溯源于程序設計、運作的底層邏輯。但是,相較于傳統的終端應用程序,生成式AI的運作機制含有更為復雜的技術黑箱,這給規制過程的源頭——對風險根源的識別,以及進一步采取規制措施帶來困難。

“黑箱”是社會發展歷史的基本特征,各類政治統治、團體組織、工作職業都有一定程度的黑箱性質②。在農業社會或工業社會,法律可用自然語言反映并規定社會關系,一定程度上將社會中的黑箱轉化為白箱,從而增進平等主體之間的互動,監督制約黑箱中的權力。隨著人類社會進入數字時代,信息技術介入社會各領域,算法成為計算機程序運行的基本規則。但是,算法使用的計算機編程語言與法律的自然語言之間存在信息轉化的鴻溝,由此帶來當代社會算法黑箱的規制難題。面對算法黑箱引發的歧視、信息控制、隱私侵犯等外在風險,法律規制常常運用算法公開或可解釋性原則的方法,使得算法本身變得更加公開透明、易于理解,從而有助于防控算法黑箱這一內在風險引發的外在風險,但面臨“可行性”和“可欲性”的障礙。

算法黑箱的規制難題在生成式AI技術上有增無減,甚至算法黑箱被進一步放大,導致風險源頭更難識別。ChatGPT集合了當今計算機領域的尖端技術,加之屬于通用型AI,可被社會公眾廣泛使用,因此ChatGPT可謂刷新了人類社會歷史上的技術黑箱紀錄。一方面,ChatGPT著眼于通用型AI,越通用的原理規律越具有簡約的特征,其解釋或適用的空間也是巨大甚至沒有邊界的,ChatGPT等通用型人工智能的算法亦是如此,“GPT系列越寫越短,和GPT的越來越大成正比”[8],由此導致潛藏的風險及其解釋難以聚焦到特定問題上。另一方面,生成式AI采用大規模人工語言模型訓練機制,訓練者是否秉持客觀中立的態度或者夾雜違背公序良俗的成分,同樣構成一個抽象且影響廣泛的技術黑箱。此外,就生成式AI的算法公開的規制路徑而言,運用于基礎研究的基本算法是公開的,而具體到應用環節的算法作為商業秘密是絕不公開的。例如,GPT3.0僅公開了簡化版本,完整版被微軟以排他方式取得。這意味著生成式AI的算法黑箱將始終存在。

總之,生成式AI實現了AI技術從專用向通用的迭代進步,但其文本生成過程極不透明,這使得生成式AI成為迄今最深不可測的技術黑箱,風險規制中的風險識別因而困難,以致后續的風險評估、交流、預警等程序更難展開。

二、生成式人工智能的風險規制挑戰

每一次技術革新都會給人類社會帶來新風險,法律必須對之作出應對調整。與以往技術革新相比,生成式AI的技術迭代引發了全新的風險問題,給風險規制帶來新挑戰,同時也產生了規制模式革新的新需求。

(一)政府規制:規制遲滯與資源局限

政府作為公共利益的代言人和保障者自然應當承擔起對生成式AI技術發展引發風險的防控職責。有效規制這些風險取決于規制的機構、模式、工具、時機等多重因素,一眾變量的選擇調試應依據生成式AI技術風險的特定環境以及由此帶來的規制困境,從而減少政府的風險規制失靈。

為技術變革而調整的法律必然遲緩于技術變革本身。遲到的原因除了認識論上的局限性外,更重要的在于貝克指出的“現代化權力的分工結構使國家陷入多重遲滯”。具言之,ChatGPT的誕生是技術決策和投資決策緊密結合的產物,科技巨頭出于競爭需要只會在暗中“自作主張”,在公眾、政府不知情或不注意的情況下技驚全球。這并非AI技術發展的特有現象,而是自工業化時代就已采取的商業習慣,知識產權、商業秘密法、技術投資協議等私法工具確認了此類行為的商業理性。至于其副作用——生成式AI的潛在風險,企業在研發決策時未必或者現實中很少會對之充分考量。政府既有責任減小生成式AI的風險,還要在一定程度上包容AI的發展,確保技術與資本的結盟以推動技術創新和經濟繁榮。換言之,政府同時面臨生成式AI帶來的風險威脅和發展機遇,處于公共領域職責壓力與經濟創新政策考量之間。因此,政府在推進風險規制過程中往往躊躇不前,加之不排除規制俘獲的可能性,導致規制延誤和風險擴大。

規制遲滯主要歸因于政府的主觀決策,而有限的規制資源在客觀上導致規制能力的缺失。政府針對特定行業展開風險規制,需要自身具備較高的專業性,這也是當代政府內專設食品、藥品、勞動、基礎設施等專門公共規制機關的原因。政府規制生成式AI需要科技、數據以及互聯網等相關公共規制機關相互配合。但是,生成式AI是高度專業化的技術,公共規制機關本來就存在的人力資源和信息資源不足的問題將會更加突出。相關公共規制機關的有限工作人員需要關注職責范圍內的廣泛技術問題,生成式AI帶來的深刻的新風險也只是眾多需要被規制的技術風險之一。與此同時,對于公共規制機關的工作人員而言,他們與生成式AI的技術黑箱之間存在難以逾越的認知障礙。盡管咨詢專家可以提供技術支持,但能否彌補工作人員自身的能力缺陷,使之有效認知、追蹤生成式AI的發展運行軌跡,準確識別其中的風險,仍有較大的不確定性。

在應對生成式AI風險過程中,潛在的規制遲滯和有限的規制資源構成進一步的規制失靈風險,僅依賴政府一方的風險規制難以達成理想目標。政府是公共利益的執行者,并且相較代議機關,在應對變化中的經濟社會問題上,更具有政策和規制手段的敏捷性。因此,需要重新定位政府在生成式AI技術風險規制中的角色功能,即政府應是“掌舵者”而非“劃槳者”①。為此,政府應當減少AI技術風險規制上的親力親為,避免被風險規制的細節問題掣肘,同時,增強政府在實現技術安全目標上的政策掌控能力,以便及時應對技術發展和風險迭代的新形勢。

(二)市場自治:動力缺失與協調不足

生成式AI的研發運營處于風險產生的源頭位置,最接近風險本身,也是唯一有能力知曉和改變生成式AI黑箱運作規則的主體。顯然,在規制資源上,AI企業比公共規制機關具備更強的風險防控能力,作為風險制造者理應成為風險防控的第一責任人。例如,ChatGPT生成文本存在意識形態和價值取向的風險,主要原因在于作為語言模型訓練者的Open AI的自身立場。如果在語言訓練中能夠保持足夠的客觀中立,可以在很大程度上抑制這一風險。因此,生成式AI的風險規制應當充分調動存在于AI企業內部的規制資源,推動AI企業開展風險自我規制。

但是,以AI企業為中心的風險自我規制面臨動力缺失和集體協調機制不充足的障礙。一方面,充分競爭是企業實施良好治理的重要外在動力,但生成式AI已呈現寡頭壟斷的局面。事實上,ChatGPT的投資研發模式印證了數字時代的“兩種相互強化的趨勢:數據的金融化和金融的數據化”[9](pXIX),只是其中的“數據”擴展到生成式AI技術的數據庫和算法模型。在缺少巨額風險投資或先進數據、算法技術支持的情況下,生成式AI市場難以產生新的競爭對手,這意味著未來生成式或通用型的AI技術市場容易形成少數科技巨頭壟斷的局面。另一方面,ChatGPT產生的風險與食品安全等傳統風險相比,對用戶的影響更具有潛藏性、間接性。即便有來自其他主體的風險提示,用戶仍可能無法清晰認識,諸如怠于查證生成的醫療建議是否科學可信。可以預見,在缺少來自競爭對手和用戶監督壓力的情況下,規制者(政府)、被規制者(AI企業)與公眾之間的風險利益格局難以獲得市場競爭機制的平衡調節,進而導致AI企業缺少實施自我規制的動力。

從AI行業內部的規制協調看,如果企業之間基于行業的良性發展目標,能夠自發形成組織協調,也可以對風險起到規制作用,但這一理想化市場內部規制場景難以自動形成。一般認為,以行業協會為代表的市場自治組織可以“形成組織化私序”,在與政府保持溝通的同時,“在與社會公共利益保持一致的前提下, 注重維護行業協會全體會員的利益”[10](p96)。行業的內部協調需要較多企業以會員身份參與,實行民主化的協商治理,但生成式AI的高技術和資本門檻使得這一愿景難以實現。可能的情況是在少數大型互聯網公司進入這一市場后,為應對生成式AI的風險而協商制定標準規范。這應當由具備權威和利益平衡的主體推動實現,這一主體只能是政府及其規制機關。事實上,如果缺少政府規制的干預,AI技術企業難以在短期內達成AI技術風險防控的一致,甚至拖延觀望中的企業進入這一技術領域。有研究指出,由于 ChatGPT生成錯誤信息造成的損害難以判定責任方,這是“其他大型互聯網公司可能也有類似的產品,但出于謹慎考慮沒有率先推出的原因之一”[11]。

總之,針對生成式AI的迭代風險,來自政府的外部規制和市場的內部規制都各自存在規制能力、動力等諸多不足。政府規制需要專業性的支持,發揮掌舵者的指引功能,市場或AI企業則需要外部力量推動其實施全面自我規制,自主防控技術引發的一系列風險。這也表明,伴隨技術進步引發的風險迭代升級,規制對象高度復雜化、黑箱化,單純的政府規制或市場自治都有其局限性,只能運用更加復合的規制模式。與此同時,生成式AI誕生于信息傳播迅捷、公開透明程度較高的數字時代,對其風險的疑慮及其規制探索跟隨生成式AI一道進入政府和公眾視野,引發了廣泛探討。這為引入新型規制模式,由更多元主體參與規制,形成AI技術風險社會共治的局面創造了良好的實施環境。

三、基于元規制模式的生成式人工智能風險規制

Open AI首席技術穆拉蒂坦言,若要ChatGPT走得更遠,就需要對其進行合規性改造。對于在未來將廣泛使用的AI技術進行風險規制,“所需追問的不是如何‘規制技術’,而是現有的法律和規制框架應該如何變革”[5](p575)。新型的規制框架必須反映政府規制、市場自治、社會參與的合力規制需求,展現對AI科技研發的包容性,這不僅有助于風險投資和自由創新,同時也不失風險規制的審慎。

(一)基于元規制的風險規制框架

生成式AI引發的風險防控問題可被視為社會性規制在數字時代的最新體現①,從風險規制的模式選擇看,有效整合多方主體規制資源的規制治理勢在必行②。在多元主體參與的規制治理過程中,需要滿足AI法律框架設定、促進主體之間合作學習、提升AI企業自我規制效率以及應對潛在自我規制失靈的安全保障需求。因此,應將以往社會性規制當中的不同模式關聯起來,進行融合和再規制,由此形成元規制(Meta-regulation),也稱“后設規制”③。所謂“元規制”是指經政府設計、引導和保障的自我規制,或更簡要地概括為“對自我規制的規制”。這里的“元”既可以理解為框架性的規制法律,在法律框定之下引導市場主體制定豐富的自我規制規范;亦可理解為具有優先實施地位和目標性的市場主體自我規制,在自我規制不能有效實施,有風險外溢的可能或者現實損害時,會引發政府的強制性后設規制。因此,框架性法律和自我規制都具有“元”地位的先導性,政府和立法居于風險防控的指導地位,盡其職責之內和力所能及之事,同時倡導企業履行風險防控第一責任人的職責。元規制理念展現了當代公法的輔助原則以及公法私法相互融合的現代法治發展趨勢④,回應了當下復雜的風險規制環境和規制資源分布的基本現實。

在風險元規制的模式下,規制的基本框架包含四個方面:一是廓清規制對象范圍,這是任何立法活動或風險規制都要解決的先決問題;二是完善規范的體系,整合法律、標準和其他規范的約束功能;三是確立公共規制機關、被規制者(企業)、具有規制功能的第三方機構(認證機構等)以及社會公眾之間的主體關系,明確各自的功能角色及權利義務;四是構建一套合規監督的程序,確保企業有足夠的動力和明確的機制來主動實施風險防控措施,并預設在自我規制失靈——發生違規行為或風險外溢導致現實損害時,應當如何應對。由此形成客體范圍、主體關系、規范體系和程序控制的風險元規制模式。

(二)生成式AI風險規制對象范圍的廓清

防控生成式AI可能帶來的風險,基本前提是明確風險的來源,廓清規制的對象范圍。以ChatGPT為例,其關鍵技術支撐來自算法模型、龐大的數據集和訓練機制,這也是生成式AI的主要風險源頭,應當著重對三者及其終端產品展開規制,構建規范體系和防控程序。

首先,就數據而言,應當在靜態層面基于數據的敏感度和重要性等標準進行數據分類分級管理。根據《中華人民共和國數據安全法》第21條規定,政府核心數據、個人隱私、商業秘密的信息應當禁止生成式AI的使用,對其他類別的信息則采取不同程度的限制性要求,諸如個人信息數據的授權使用等。在動態流動層面,同樣需要采取類似措施使得生成式AI在數據收集、流動過程中有所依循。

其次,算法居于生成式AI設計運行的中心位置,OpenAI使用的Transformer算法模型使得數據集的數量級和模型訓練的效率都大幅提升。囿于算法自身的商業秘密屬性,算法天然缺乏透明度,但這并不意味著不需要將之納入規制范圍,而是應將規制重點放在事前和事中的企業合規環節,將算法合規納入AI企業合規的整體體系,要求企業加強技術管理。

再次,生成式AI的訓練機制是確保文本生成內容質量的關鍵,也是訓練者或AI企業“三觀”的輸出機制。這意味著需要對訓練機制進行公共秩序和倫理上的規制監督。AI企業應當將訓練機制作為產品服務質量控制的關鍵節點,建立不良信息識別和辟謠機制,防止有害公共利益的信息或訓練結果進入AI程序系統。

最后,生成式AI作為數字技術產品具有快速迭代的特征,因而需要建立起一套動態的安全審查機制,包括實時風險監測和定期風險評估,確保向市場投放升級迭代產品前,產品本身均經過全面的風險檢查。

(三)參與規制多元主體的協調

公共規制機關、AI企業、第三方機構和社會公眾都是生成式AI風險的利益攸關者,并且對規制過程產生影響。在元規制模式下,公共規制機關承擔“掌舵人”的角色,是政策決定者和立法推動者,需要協調多方的利益關系。同時,政府作為“公共利益代言人”,需要在促進AI技術發展創新和防控風險損害之間取得平衡,對于潛在、廣泛的AI風險不可能求得絕對安全,應當避免采取過于嚴厲的命令控制規制措施。政府培育AI市場內部自我規制,促進社會系統對AI企業和市場系統的社會監督應是政府規制AI風險的目標。具言之,政府應承擔三方面的職責:一是行使AI法律、標準的規范創制權,推動AI領域的立法,協調風險防控的AI行業標準建設;二是監督AI企業執行規范以及作出的降低潛在風險的承諾;三是對違規AI企業進行調查處罰。

AI企業既是風險的自我規制者,也是被規制者。AI企業為了長遠發展,可以通過主動規制技術風險,積極承擔社會責任的方式獲得社會信任,減少來自公共規制機關和社會公眾的懷疑。元規制模式可利用這一現實,強化AI企業的自我規制義務,賦予其實施自我規制的自由空間,這又可以理解為自我規制的權利。就義務而言,AI企業應當承擔起風險內控義務,對外接受監督,積極糾錯和止損補償。就權利而言,AI企業享有選擇遵守自愿性規范和對外承諾規制風險的權利,參與制定AI風險防控規則的權利,以及因風險損害問題產生糾紛時獲得正當程序的權利。

第三方機構和社會公眾也在生成式AI的元規制模式中扮演重要角色。伴隨未來生成式AI市場參與企業、產品的增多,企業之間不僅有競爭,還可以形成自治型組織,或者產生針對生成式AI產品的認證組織。這些來自市場內部、獨立于AI企業和公共規制機關的組織可就AI產品風險問題展開質量標準的制定和認證監督。生成式AI的用戶同樣可以在督促AI企業防控風險上發揮作用,這是AI技術走向通用型AI的必然結果。例如,行使廣泛的消費者權利,要求AI企業在風險信息披露、內容客觀中立、個人信息保護、數據安全等方面承擔責任,接受公眾咨詢。當然,發揮第三方機構和社會公眾的主體功能,需要政府以及法律框架的確認和支持。

(四)軟硬法混合規范框架性體系的構建

近年來,歐盟和美國已經針對AI技術引發的風險推進規制立法或政策指導,均體現了元規制模式下的框架性法律引導企業自我規制的特點。2021年,歐盟委員會發布的《關于制定人工智能統一規則》將基本權利產生影響的風險劃分為三個級別,除了對少數劃進“不可接受的風險”的AI程序予以禁止外,對于高風險的規制方法只是確立強制性的目標要求,諸如AI企業應當“建立充分的風險管理系統”“確保人類對于AI系統在使用時的有效規制”“達到高水平的準確度、穩健性和網絡安全性”[12]。相較歐盟AI法案的強制性,美國側重不具有法律效力的軟法治理。2022年,美國《人工智能權利法案藍圖》就建立保護所有人免受前述威脅的社會、使用技術強化最高的價值觀提供了一個基本指南,而具體的行為指引反映在2023年美國國家標準與技術研究院(National Institute of Standards and Technology,NIST)制定的《人工智能風險管理框架》①中。

由此可見,圍繞AI風險和權利保護問題,歐盟和美國制定了框架性的目標或者基本路線圖,具體落實主要依靠AI企業自身選擇恰當的方式,拼湊出自己的道路。這一AI風險規制的思路反映了元規制模式下的法律框架性,防控AI風險的具體操作應由AI企業利用自身的資源完成,公共規制機關更多是發揮宏觀目標確立、行為監督以及回應公眾關切的職能?!盀榱嗽谡鐒e和防范風險的同時保護人工智能研發的積極性和創造性,有必要更多地采取軟法方式,而不是簡單地提高硬法的懲戒力度?!盵13](p4)這與針對食品、藥品等安全風險的傳統社會性規制中的細節性硬法規定存在顯著差別。事實上,框架性立法及運用軟法的AI風險規制手段,更適應AI企業及其技術發展的自由空間需求,也緩解了立法中的博弈困境。此外,具體操作細節留給標準規范和AI企業自身選擇,也方便規范跟隨技術進步而作出快速調整。

總之,AI風險規制應當是框架性法律與具體行為標準相互配合的結構:法律解決AI風險規制的目標、基本原則,規制機關的權力、職責,AI企業及其他參與者的權利義務關系,尤其是對AI企業的合規監督機制;行為標準則側重更加具體的風險防控操作,突出自愿性標準的地位,供AI企業自由選擇。在未來,我國可以制定一部框架性的人工智能法,由公共規制機關引導AI企業之間協同制定自愿性的團體標準,AI企業再根據自身產品實際制定內部風險管控方案,形成軟硬法混合規制的規范體系。

(五)全方位合規監督機制的構建

實現生成式AI的風險善治目標,除了制定良法,還需要構建監督機制確保AI企業充分執行風險防控規范。生成式AI的風險元規制模式旨在強化風險的源頭控制,將AI風險防控的成本內部化。為此,除了依靠企業自身提升風險意識,主動承擔風險防控的社會責任外,外部的多重壓力機制也必不可少。為此,應構建從AI企業內部到其他市場參與者以及公共規制機關的全方位合規監督。

首先,AI立法可要求在AI企業內部設置安全官,其法律地位屬于公共事務的“受托人”,輔助公共規制機關實現AI風險規制的公共目標。AI企業的安全官是AI企業的“內部執法者”,也是落實各項規范要求的“守護人”。具言之,AI企業的安全官承擔生成式AI產品的風險防控義務,監督內控規范、標準規范和法律規則的執行,并且在風險議題上與公共規制機關和AI企業的高層決策者保持溝通。

其次,來自市場內部的認證機制也可以發揮監督AI企業持續自主合規的功能。歐盟《關于制定人工智能統一規則》規定,“經提供者評估后被視為符合高風險性AI系統強制性規定范圍內的AI系統,應附有‘CE’合規標志”,這一標志可以由未來發展起來的AI風險管理第三方認證機構來完成。相較公共規制機關而言,認證機構更具有專業性且來自市場系統,對于AI企業自身認證更具有獨立性的優勢。這種第三方認證機制具有持續性,認證機構若發現獲證AI企業在后續不符合風險防控規范的,可以暫停或撤銷認證,并公布結果。

再次,除了AI企業自身外,與生成式AI產品關聯的其他企業也應當對產品的風險承擔責任。例如,ChatGPT的語言模型訓練由其他企業承包完成,后者也應當對產品的最終風險承擔責任,可以要求其監督AI企業符合安全規范。歐盟《關于制定人工智能統一規則》繼承了此前《通用數據保護條例》中對關聯企業的義務,規定“高風險AI系統的進口商、分銷商和使用者有責任確保這些產品在投放市場前符合監管要求,并確保產品的安全使用”。實際上,這一規定促使AI市場中的關聯企業監督AI企業,在市場合作的私人領域推進實現風險防控的公法目標。

最后,廣大用戶乃至社會公眾也是監督AI企業安全合規的重要力量,為此需要提升公眾對AI產品風險的理性認知,強制AI企業對產品及其生成文本進行風險警示。此類警示有助于用戶明確生成式AI的客體工具性,避免“主客混同”的認知障礙。立法還可創設更多的公眾參與監督機制,針對面向大眾的生成式AI,應當要求AI企業的相關重大決策接受公眾咨詢。

以上主體的風險監督均來自AI市場體系內部,與傳統風險規制中以公共規制機關為主導的單向監督機制形成鮮明區別。當然,這并不意味著在元規制模式下,政府不承擔監督AI企業合規守法和防控風險的職責,而是集中有限的規制資源對市場內部的監督者進行再監督,對這些監督行為進行監測、評價,反思框架性立法和標準規范體系對AI風險的可控性,并適時進行規范和政策上的調整。

四、結語

ChatGPT創造了空前的技術應用普及速度,這一生成式AI產品給世人帶來驚艷的技術體驗,但與此同時,也引發了前所未有的風險迭代問題。一方面,生成式AI技術正在趨近人類的語言思維能力,引發主客關系模糊、法益侵害泛化以及技術黑箱化等一系列嚴峻的風險問題。另一方面,在互聯網載體加持下,生成式AI風險的副產品也在未經充分審驗、控制的情況下,在極短時間內擴展至全社會。元規制模式具備適應技術風險迅速迭代的敏捷性治理特征,既強化政府規制的宏觀引導和風險保障職責,又突出AI企業在框架性法律引導下的風險源頭控制和自我規制義務,回應了技術風險迭代引發的規制資源不足難題和規制協調需求。目前,這一模式的具體制度構建還停留在歐美國家立法的探索階段,必然會伴隨未來生成式AI乃至更加通用型AI技術的研發使用而變化調整。我國同樣面臨平衡AI技術自由創新與潛在風險防控的難題,未來可在元規制模式下構建AI風險規制框架,引導AI技術創新發展。

參考文獻:

[1][德]烏爾里?!へ惪?風險社會:新的現代性之路[M].張文杰,何博文,譯.上海:譯林出版社,2018.

[2][美]斯圖爾特·羅素,彼得·諾維格.人工智能現代方法(第四版)[M].張博雅,等譯.北京:人民郵電出版社,2022.

[3]Turing A M. Computing Machinery and Intelligence[J]. Mind, 1950(59).

[4]Iwaniuk P. A Conversation with Demis Hassabis, the Bullfrog Al Prodigy Now Finding Solutions to the Worlds Big Problems [EB/OL].(2016-07-15) [2023-03-21].https://www.pcgamesn.com/demis-hassabis-interview.

[5]Brownsword R, Scotford E,Yeung K. The Oxford Handbook of Law, Regulation and Technology[M]. Oxford: Oxford University Press, 2017.

[6]Domingos P.The Master Algorithm[M].New York: Basic Books, 2015.

[7]張力,陳鵬.機器人“人格”理論批判與人工智能物的法律規制[J].學術界,2018(12).

[8]猛猿.ChatGPT解析系列:GPT1、GPT2與GPT3 [EB/OL].(2023-02-25) [2023-03-21].https://mp.weixin.qq.com/s/iohLXnQy_r1E_a2J6h5Jaw.

[9][美]弗蘭克·帕斯奎爾.黑箱社會:控制金錢和信息的數據法則[M].趙亞男,譯.北京:中信出版社,2015.

[10]汪莉.論行業自治的合法性[J].理論學刊,2012(11).

[11]陳洋,劉璐明.ChatGPT:大力出奇跡[EB/OL].(2023-02-15) [2023-03-21].https://mp.weixin.qq.com/s/Nkl1HFC6au1GNXgwE9iABg.

[12]European Commission Proposes a Risk-Based Approach to Regulate Use of AI[EB/OL]. (2021-04-21) [2023-03-21]. https://www.scl.org/news/12247-european-commission-proposes-a-risk-based-approach-to-regulate-use-of-ai.

[13]季衛東. 人工智能開發的理念、法律以及政策[J].東方法學,2019(5).

責任編輯" "楊" "幸

主站蜘蛛池模板: 伊人激情综合网| 国产精品手机视频| 久草视频精品| 欧美日韩国产高清一区二区三区| 欧美在线中文字幕| 精品99在线观看| 中文无码影院| 亚洲精品视频免费观看| 色婷婷狠狠干| 免费观看三级毛片| 欧美日本在线播放| 58av国产精品| 日本www色视频| 青青草原国产免费av观看| 三级视频中文字幕| 欧美精品色视频| 国产剧情一区二区| 亚洲av无码牛牛影视在线二区| 国产91视频免费观看| 国产日韩久久久久无码精品| 在线精品视频成人网| 精品夜恋影院亚洲欧洲| www.亚洲一区| 国产精品福利导航| 色偷偷av男人的天堂不卡| 伊人久久婷婷五月综合97色| 全部毛片免费看| 久久精品一品道久久精品| 国产不卡网| 又大又硬又爽免费视频| 人人澡人人爽欧美一区| 另类欧美日韩| 亚洲欧美综合另类图片小说区| 国产亚洲一区二区三区在线| 国产精品视频999| 国产精品视频系列专区| 欧美日韩第三页| 亚洲浓毛av| 亚洲第一区精品日韩在线播放| 欧美α片免费观看| 欧美视频在线播放观看免费福利资源| 国产成人区在线观看视频| 九九视频免费看| 亚洲国产av无码综合原创国产| 亚洲日韩精品无码专区| 午夜视频www| 永久免费无码日韩视频| 72种姿势欧美久久久大黄蕉| 在线精品自拍| 国产乱子伦精品视频| 欧美精品1区| 国产女人在线视频| 99热国产这里只有精品无卡顿"| 亚洲一区免费看| 成人一级免费视频| 日韩高清无码免费| 毛片久久久| 亚洲a级在线观看| 午夜啪啪福利| 91成人试看福利体验区| 亚洲嫩模喷白浆| 人禽伦免费交视频网页播放| 爱爱影院18禁免费| 婷婷中文在线| 在线看片免费人成视久网下载| 精品国产成人三级在线观看| 国产美女叼嘿视频免费看| 区国产精品搜索视频| 日韩天堂视频| 免费人成视网站在线不卡| 国产亚洲美日韩AV中文字幕无码成人| 免费国产黄线在线观看| 国产91在线|日本| 亚洲中文字幕国产av| 日本a级免费| 亚洲天堂自拍| 欧美一区二区精品久久久| 精品国产欧美精品v| 国产精品太粉嫩高中在线观看| 97成人在线视频| 91亚洲精品第一| 女人18毛片一级毛片在线|