
摘要:當(dāng)下,生成式人工智能正以前所未有的方式引領(lǐng)技術(shù)革命、傳播知識(shí)和信息,廣泛應(yīng)用于各領(lǐng)域、各行業(yè)。協(xié)同治理模式與我國(guó)生成式人工智能治理具有理念、實(shí)踐方面的高度一致性,從該視角分析,當(dāng)前生成式人工智能存在的協(xié)同治理?xiàng)l件不完善、治理主體分散、治理參量協(xié)同不足等問(wèn)題,需秉承協(xié)同治理監(jiān)管的理念,縱向完善協(xié)同治理?xiàng)l件,橫向推動(dòng)多元主體協(xié)同治理,并全面增強(qiáng)技術(shù)、制度協(xié)同治理參量,逐步完善我國(guó)生成式人工智能監(jiān)管框架。
關(guān)鍵詞:生成式人工智能;協(xié)同治理;監(jiān)管框架;多元主體
一、問(wèn)題的提出
2022年,生成式人工智能大模型迎來(lái)了發(fā)展的高峰期。上半年,OpenAI旗下的大模型DALL·E2只用了兩個(gè)半月,注冊(cè)人數(shù)就突破了100萬(wàn)人;同年11月,OpenAI再度推出的Chat GPT將生成式人工智能大模型的發(fā)展推向了頂峰,而我國(guó)緊隨其后,推出了文心一言、通義千問(wèn)等本土大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型。在海量數(shù)據(jù)與強(qiáng)大算力下,生成式人工智能模型不僅可以 “理解”人類社會(huì)的自然語(yǔ)言 “識(shí)別”圖像、聲音等,還有 “超強(qiáng)大腦”可以記住大量的傳輸信息和數(shù)據(jù),實(shí)現(xiàn)人機(jī)互動(dòng)。
生成式人工智能在釋放技術(shù)紅利、促進(jìn)社會(huì)發(fā)展的同時(shí),也暴露出知識(shí)產(chǎn)權(quán)爭(zhēng)議、技術(shù)倫理歧視、倫理關(guān)系失調(diào)、安全與隱私等問(wèn)題,與之俱來(lái)的各種風(fēng)險(xiǎn)引發(fā)了各國(guó)監(jiān)管部門的廣泛關(guān)注。德國(guó)、西班牙等國(guó)家的數(shù)據(jù)保護(hù)監(jiān)管機(jī)構(gòu)對(duì)生成式人工智能表示擔(dān)憂并采取調(diào)查行動(dòng);我國(guó)也積極應(yīng)對(duì)生成式人工智能帶來(lái)的未知挑戰(zhàn),2023年7月發(fā)布的 《生成式人工智能服務(wù)管理暫行辦法》對(duì)生成式人工智能產(chǎn)權(quán)爭(zhēng)議、虛假信息生成等問(wèn)題做出了回應(yīng)。[1]
各國(guó)都在積極探索治理之策,但何種監(jiān)管方式能夠高效解決問(wèn)題仍有待深入探討。無(wú)論是哪種監(jiān)管模式,都難以憑借單一的治理模式來(lái)有效規(guī)制其深層次的復(fù)雜問(wèn)題。作為解決復(fù)雜問(wèn)題的分析工具和框架,協(xié)同治理理論強(qiáng)調(diào)不同子系統(tǒng)之間的相互合作,打破了單一主體治理的局限性,凸顯各主體間的整體性和協(xié)調(diào)性,以實(shí)現(xiàn)治理效果的全面提升。生成式人工智能基于我國(guó)國(guó)情所需以及治理的復(fù)雜性,需要融入多元主體力量,正契合協(xié)同治理理論所倡導(dǎo)的多元主體合作、協(xié)同關(guān)系等特點(diǎn)。鑒于此,如何從協(xié)同治理視角分析生成式人工智能當(dāng)前的發(fā)展現(xiàn)狀、面臨的問(wèn)題和挑戰(zhàn),探索與其相適應(yīng)的治理和監(jiān)管框架,是一道亟須破解的難題。
二、必然選擇:協(xié)同治理理論與生成式人工智能治理的多維契合
(一)協(xié)同治理視角:與生成式人工智能監(jiān)管的契合點(diǎn)
基于學(xué)術(shù)界研究現(xiàn)狀得知,AI驅(qū)動(dòng)下可以進(jìn)行各式各樣的內(nèi)容生成和創(chuàng)作,伴隨而生的是人工智能生成內(nèi)容的治理問(wèn)題,如著作權(quán)問(wèn)題、數(shù)據(jù)權(quán)益的法律屬性、催生虛假信息傳播等。在眾多理論研究中,協(xié)同治理理論明確指出了政府、企業(yè)、公眾等多方主體參與治理,以及借用法律、技術(shù)等手段輔助治理的作用,成為與生成式人工智能治理的契合點(diǎn)之一。
針對(duì)當(dāng)前我國(guó)人工智能發(fā)展現(xiàn)狀,如何破解生成式人工智能的法律邊界以及如何引導(dǎo)企業(yè)、個(gè)人合理使用人工智能技術(shù)及其產(chǎn)品是亟須治理的問(wèn)題。首先,《生成式人工智能服務(wù)管理暫行辦法 (2023)》明確提出,技術(shù)提供者應(yīng)依法承擔(dān)網(wǎng)絡(luò)安全信息內(nèi)容的責(zé)任,履行網(wǎng)絡(luò)信息安全的義務(wù)。同時(shí),還應(yīng)明確用戶的監(jiān)督角色,通過(guò)要求技術(shù)提供者建立投訴舉報(bào)機(jī)制,暢通用戶監(jiān)督渠道,強(qiáng)調(diào)使用者的投訴舉報(bào)權(quán)利;其次,政府作為具有權(quán)威公信力的主體,要加強(qiáng)對(duì)人工智能產(chǎn)業(yè)的引導(dǎo)、規(guī)范和監(jiān)管,制定完善的法律法規(guī),規(guī)范大模型的開(kāi)發(fā)、部署和使用;最后,根據(jù)既有治理制度的改進(jìn)方案,學(xué)者提出構(gòu)建通用大模型分層治理體系,明確劃分責(zé)任體系,區(qū)分基礎(chǔ)模型開(kāi)發(fā)者、AI服務(wù)提供者和終端用戶,對(duì)前兩者加強(qiáng)技術(shù)監(jiān)管和服務(wù)監(jiān)管,對(duì)后者注重終端用戶行為規(guī)范和個(gè)人素養(yǎng)培育。[2]
(二)中國(guó)治理方案:基于主體治理范式的契合點(diǎn)
作為一種能夠協(xié)同政府、企業(yè)、公民等主體構(gòu)成開(kāi)放的整體系統(tǒng),協(xié)同治理在現(xiàn)實(shí)治理實(shí)踐中符合生成式人工智能的治理現(xiàn)狀,與我國(guó)延續(xù)推行的主體治理范式高度契合,成為我國(guó)生成式人工智能治理與協(xié)同治理理論的契合點(diǎn)之二。
第一,美國(guó)形成基于應(yīng)用的治理范式。從人工智能生態(tài)鏈來(lái)看,基于應(yīng)用場(chǎng)景的治理,其實(shí)質(zhì)主要是面向生成式人工智能嵌入各類場(chǎng)景的終端用戶。如果僅在下游層施力,根本無(wú)法解決上游設(shè)計(jì)層面的問(wèn)題,從而難以帶動(dòng)生成式人工智能整個(gè)生態(tài)鏈的治理。
第二,歐盟形成基于風(fēng)險(xiǎn)的治理范式。從人工智能生態(tài)鏈來(lái)看,生成式人工智能由多個(gè)AI系統(tǒng)組成,涵蓋了圖像、音頻等多個(gè)場(chǎng)景,部署于生態(tài)鏈的上下游領(lǐng)域,劃分為最小風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)和不可接受風(fēng)險(xiǎn)四個(gè)等級(jí)。這阻礙了生成式人工智能在不同類別中的動(dòng)態(tài)轉(zhuǎn)換,無(wú)法實(shí)現(xiàn)連續(xù)監(jiān)督的治理效能。
第三,我國(guó)構(gòu)建基于主體的治理范式。從人工智能生態(tài)鏈來(lái)看,在生成式人工智能的整個(gè)鏈條結(jié)構(gòu)中,責(zé)任主體呈現(xiàn)多元化、分散化的特點(diǎn),難以劃定認(rèn)定邊界。比如,生成式人工智能的風(fēng)險(xiǎn)可能來(lái)自于上游研發(fā)主體的技術(shù)風(fēng)險(xiǎn),也可能來(lái)自終端用戶在與模型的互動(dòng)中提供錯(cuò)誤信息反哺模型黑化。
三、把脈問(wèn)診:我國(guó)生成式人工智能治理的問(wèn)題檢視
(一)治理范圍難框定:過(guò)于依賴分散治理模式
目前,我國(guó)在人工智能的治理上依舊沿用過(guò)去以應(yīng)用場(chǎng)景為基準(zhǔn)的分散治理策略,并對(duì)此針對(duì)性地制定和實(shí)施相應(yīng)的法律法規(guī)。比如,針對(duì)自動(dòng)化駕駛技術(shù)中可能遇到的風(fēng)險(xiǎn),我國(guó)頒布了 《智能網(wǎng)聯(lián)汽車道路測(cè)試與示范應(yīng)用管理規(guī)范 (試行)》專項(xiàng)立法。
與分散場(chǎng)景相反,生成式人工智能是集數(shù)據(jù)、算法和信息內(nèi)容于一體的整體系統(tǒng),模型的智能化在一定程度上仍然取決于初期模型訓(xùn)練時(shí)收集的海量高質(zhì)量數(shù)據(jù),同時(shí),也依賴于模型研發(fā)階段算法的深度學(xué)習(xí)和信息內(nèi)容生成階段人機(jī)互動(dòng)輸入指令、輸出內(nèi)容的收集、生成過(guò)程。從治理范圍來(lái)看,分散治理框架以具有區(qū)隔性的不同場(chǎng)景、不同風(fēng)險(xiǎn)為前提,若僅從人工智能應(yīng)用的下游應(yīng)用層面施力,只能解決一些業(yè)務(wù)模式相對(duì)穩(wěn)定、安全風(fēng)險(xiǎn)較為明晰的專項(xiàng)人工智能技術(shù),而生成式人工智能模型需面向不同主體,完成多種任務(wù),不應(yīng)拘泥于有限使用范圍,應(yīng)該由應(yīng)用場(chǎng)景專用性向通用性轉(zhuǎn)變。
(二)責(zé)任主體難明確:傳統(tǒng)問(wèn)責(zé)框架面臨沖擊
在人工智能1.0時(shí)代,模型開(kāi)發(fā)基于線性流程的生產(chǎn)方式,責(zé)任主體在人工智能模型的研發(fā)、部署和運(yùn)維中定位明確。例如,字節(jié)跳動(dòng)率先開(kāi)發(fā)了智能內(nèi)容推薦算法,同時(shí),基于數(shù)字內(nèi)容智能推薦風(fēng)險(xiǎn)的治理框架也逐漸清晰。
然而,進(jìn)入人工智能2.0時(shí)代,通用預(yù)訓(xùn)練大模型的模塊成為主流,模型能夠輕量接入、協(xié)同部署,使得各傳統(tǒng)企業(yè)的結(jié)構(gòu)和邊界變得模糊,由雙邊組織者和運(yùn)營(yíng)者變?yōu)樘峁┰粕线\(yùn)行、輕量化接入的大模型技術(shù)支撐平臺(tái),這表明,部署應(yīng)用場(chǎng)景的平臺(tái)企業(yè)不再擁有對(duì)算法的終局影響力和全流程控制。實(shí)際上,負(fù)責(zé)大模型研發(fā)的主體根本沒(méi)有與應(yīng)用層用戶直接互動(dòng)。相反,與用戶密切互動(dòng)的服務(wù)提供商卻缺乏對(duì)上游大模型的影響力。因此,繼續(xù)要求服務(wù)提供商承擔(dān)平臺(tái)責(zé)任是不切實(shí)際的,除了徒增企業(yè)負(fù)擔(dān)外毫無(wú)益處。
(三)規(guī)制時(shí)機(jī)難把握:深陷于“科林格里奇困境”
英國(guó)技術(shù)哲學(xué)家大衛(wèi)·科林格里奇指出,新技術(shù)治理往往面臨兩難選擇,需要權(quán)衡治理成本。[3]一種成本是由于憂慮技術(shù)會(huì)產(chǎn)生負(fù)面影響而早于關(guān)鍵規(guī)制時(shí)機(jī)實(shí)施控制,可能損失發(fā)展機(jī)會(huì),帶來(lái)的直接后果就是技術(shù)很可能難以爆發(fā);另一種成本是晚于關(guān)鍵規(guī)制時(shí)機(jī)錯(cuò)失最佳控制機(jī)會(huì),導(dǎo)致對(duì)整個(gè)經(jīng)濟(jì)和社會(huì)結(jié)構(gòu)產(chǎn)生嚴(yán)重影響,甚至可能走向技術(shù)失控。
為應(yīng)對(duì)生成式人工智能風(fēng)險(xiǎn)和治理復(fù)雜性,監(jiān)管者及有關(guān)學(xué)者傾向于事前治理,提出全流程監(jiān)管。我國(guó)算法安全監(jiān)管辦要求實(shí)施算法安全評(píng)估制度,事前評(píng)估算法是否符合行業(yè)安全標(biāo)準(zhǔn)。實(shí)際上,過(guò)早實(shí)施的全流程監(jiān)管可能導(dǎo)致低效甚至無(wú)用的監(jiān)管,反之也可能會(huì)受到行業(yè)沖擊。總之,不合時(shí)機(jī)的監(jiān)管會(huì)阻礙企業(yè)的創(chuàng)新速度,致使企業(yè)浪費(fèi)資源應(yīng)對(duì)監(jiān)管。根據(jù)歐盟立法機(jī)關(guān)的調(diào)研顯示,監(jiān)管合規(guī)成本將于2025年占高風(fēng)險(xiǎn)AI總投資的4%-5%,對(duì)規(guī)模較小的新興初創(chuàng)公司將產(chǎn)生巨大的負(fù)面影響。
四、對(duì)癥下藥:協(xié)同治理視角下我國(guó)生成式人工智能監(jiān)管的優(yōu)化路徑
(一)協(xié)同治理?xiàng)l件的完善:推進(jìn)生成式人工智能的基礎(chǔ)性立法
第一,在立法思路上,我國(guó)應(yīng)立足于生成式人工智能領(lǐng)域,開(kāi)展基礎(chǔ)性立法,為該領(lǐng)域明確治理方向,劃定處理新興技術(shù) “強(qiáng)監(jiān)管”與 “弱監(jiān)管”的尺度。具體來(lái)說(shuō),需要明確生成式人工智能的范圍和分類,制定技術(shù)標(biāo)準(zhǔn)和認(rèn)證機(jī)制,遵循規(guī)避技術(shù)進(jìn)步引致風(fēng)險(xiǎn)的基本認(rèn)知邏輯,以維護(hù)風(fēng)險(xiǎn)底線為前提,不斷加強(qiáng)技術(shù)應(yīng)用,并創(chuàng)造實(shí)現(xiàn)技術(shù)創(chuàng)新的最佳條件。
第二,在法律效用上,促進(jìn)軟硬法的互動(dòng)銜接,健全軟硬法協(xié)同體系。在生成式人工智能治理中,軟法缺乏規(guī)范性,且權(quán)威性和約束力較弱。為充分發(fā)揮軟法的效用,彌補(bǔ)軟法治理的缺陷,應(yīng)建立完善的硬法支撐體系,在創(chuàng)設(shè)、實(shí)施和監(jiān)督等階段提高軟法質(zhì)量、規(guī)范軟法制定程序并為軟法提供執(zhí)行保障機(jī)制,實(shí)現(xiàn)兩者結(jié)構(gòu)性耦合的二元法模式。
(二)多元主體協(xié)同治理:促進(jìn)生成式人工智能的主體化治理
1.上游模型開(kāi)發(fā)者:承擔(dān)維護(hù)整體系統(tǒng)安全的義務(wù)
模型開(kāi)發(fā)者承擔(dān)數(shù)據(jù)收集與處理階段的數(shù)據(jù)合規(guī)義務(wù)以及算法設(shè)計(jì)與訓(xùn)練階段的模型質(zhì)量保證責(zé)任。一方面,要求基礎(chǔ)模型的開(kāi)發(fā)者在收集數(shù)據(jù)時(shí)嚴(yán)格遵循法律法規(guī),遵循目的限制性原則,在盡量減少數(shù)據(jù)收集范圍的同時(shí),構(gòu)建高質(zhì)量的數(shù)據(jù)集,確保用于訓(xùn)練的數(shù)據(jù)準(zhǔn)確、一致、可靠;另一方面,要建立內(nèi)部數(shù)據(jù)存儲(chǔ)和傳輸?shù)娘L(fēng)險(xiǎn)管理機(jī)制,采取必要的技術(shù)或管理措施對(duì)風(fēng)險(xiǎn)進(jìn)行監(jiān)測(cè),并在數(shù)據(jù)泄露后采取補(bǔ)救措施,配合監(jiān)管部門或第三方進(jìn)行數(shù)據(jù)審計(jì)。同時(shí),基礎(chǔ)模型的開(kāi)發(fā)者還應(yīng)當(dāng)承擔(dān)模型部署與應(yīng)用階段全周期的內(nèi)容監(jiān)督義務(wù)。
2.下游應(yīng)用部署者:承擔(dān)所涉信息內(nèi)容安全的義務(wù)
應(yīng)用部署者應(yīng)滿足特定行業(yè)的監(jiān)管要求,承擔(dān)人工智能生成內(nèi)容不當(dāng)擴(kuò)散和使用的監(jiān)管責(zé)任,通過(guò)使用政策條款明確使用范圍,規(guī)定合理合法的使用條件,形成制度規(guī)范。用戶使用大模型時(shí),要限制用戶與生成式人工智能的對(duì)話次數(shù),并能夠自動(dòng)識(shí)別暴力內(nèi)容、惡意軟件等生成內(nèi)容。通過(guò)技術(shù)手段在用戶使用過(guò)程中及時(shí)發(fā)現(xiàn)違規(guī)禁止行為,將違規(guī)者賬號(hào)停用或凍結(jié),規(guī)避不良生成內(nèi)容。此外,用戶使用模型的生成內(nèi)容被接入社交媒體、非法網(wǎng)頁(yè)時(shí),下游具體應(yīng)用部署者應(yīng)引入提示、限流、過(guò)濾等技術(shù)治理手段對(duì)相關(guān)內(nèi)容進(jìn)行審核,甚至啟用人工審核機(jī)制,實(shí)施內(nèi)容治理。
3.終端用戶:促進(jìn)社會(huì)監(jiān)督與政府監(jiān)督的協(xié)同聯(lián)動(dòng)
終端用戶既包括通過(guò)用戶調(diào)查、模擬測(cè)試等外部訪問(wèn)方式開(kāi)展生成式人工智能監(jiān)督的非營(yíng)利組織,也包括切實(shí)參與生成式人工智能應(yīng)用實(shí)踐的社會(huì)公眾和技術(shù)社群用戶,他們共同探索形成符合我國(guó)生成式人工智能發(fā)展的社會(huì)監(jiān)督、政府監(jiān)管的協(xié)同聯(lián)動(dòng)模式。一方面,可以采用志愿者打分的方式來(lái)量化評(píng)分的眾包評(píng)審機(jī)制,以確保外部監(jiān)督的多樣性和準(zhǔn)確性;另一方面,借助技術(shù)社群的力量發(fā)現(xiàn)生成式人工智能存在的技術(shù)漏洞,如技術(shù)社群曾識(shí)別出Twitter圖像裁剪算法存在潛在的歧視危害和倫理問(wèn)題。因此,該領(lǐng)域中 “技術(shù)—社會(huì)”的互動(dòng),凸顯了跨界融合、人機(jī)協(xié)同的新興特點(diǎn),有效促進(jìn)了社會(huì)監(jiān)督與政府監(jiān)管協(xié)同聯(lián)動(dòng)。
(三)增強(qiáng)協(xié)同治理參量:嵌入技術(shù)、制度全過(guò)程的靈活性治理
1.“技術(shù)之治”的引入
第一,重視應(yīng)用技術(shù)手段治理技術(shù)風(fēng)險(xiǎn)。建構(gòu) “以AI治理AI”的技術(shù)治理體系,如人工智能生成內(nèi)容水印標(biāo)記技術(shù),以隨機(jī)方式生成最小的標(biāo)記單元,并進(jìn)行代碼拆分、隨機(jī)植入生成內(nèi)容,即使是隱藏標(biāo)記,最終也能夠檢測(cè)出水印痕跡,并識(shí)別出相應(yīng)內(nèi)容源于人工智能;第二,強(qiáng)調(diào)政府在技術(shù)研發(fā)中的監(jiān)管角色。在技術(shù)博弈中,占據(jù)優(yōu)勢(shì)地位的企業(yè)扮演參賽者和裁判的情況十分常見(jiàn),但面對(duì)技術(shù)帶來(lái)的治理風(fēng)險(xiǎn),僅僅依靠技術(shù)是不充分的。要確保人工智能的風(fēng)險(xiǎn)可控,就需要具有公信力的組織機(jī)構(gòu),而政府無(wú)疑是承擔(dān)監(jiān)管者角色的合適候選主體。
2.“制度之治”的完善
第一,在開(kāi)發(fā)服務(wù)層,構(gòu)建監(jiān)管沙盒制度。監(jiān)管沙盒作為一種豁免機(jī)制,在一開(kāi)始就應(yīng)該明確準(zhǔn)入門檻,充分考察模型開(kāi)發(fā)的創(chuàng)新性及模型風(fēng)險(xiǎn)應(yīng)對(duì)機(jī)制。應(yīng)用過(guò)程中要對(duì)軍事、醫(yī)療等特殊領(lǐng)域以及未成年敏感用戶謹(jǐn)慎使用豁免機(jī)制,嚴(yán)格適用規(guī)則。
第二,在政府監(jiān)管層,建立事前安全規(guī)制與事后損害追賠雙重制度。當(dāng)前被廣泛使用的監(jiān)管方式大多屬于事前安全規(guī)制,極易出現(xiàn)以偏概全、全盤否定技術(shù)準(zhǔn)入資質(zhì)的情況,因此,應(yīng)組合兩類制度工具,視情況進(jìn)行調(diào)配,發(fā)揮事后損害追償機(jī)制的激勵(lì)效用以遏制風(fēng)險(xiǎn)。
第三,在公眾監(jiān)督層,重視終端用戶的行為規(guī)范。一方面,要發(fā)揮合同的規(guī)范作用。通過(guò)與公眾簽訂使用合同,明確劃定終端用戶使用人工智能的底線,規(guī)范終端用戶的使用行為;另一方面,要形成良好的社會(huì)氛圍和社會(huì)秩序,需要各主體相互配合、共同合作。在培養(yǎng)用戶學(xué)習(xí)技術(shù)素養(yǎng)的同時(shí),開(kāi)發(fā)服務(wù)者也應(yīng)掌握使用條例中要求具備的知識(shí)和技能,提高與人工智能技術(shù)發(fā)展相匹配的用戶素養(yǎng)。
五、結(jié)束語(yǔ)
作為一種能夠協(xié)同政府、企業(yè)、公民等主體構(gòu)成開(kāi)放的整體系統(tǒng),協(xié)同治理在現(xiàn)實(shí)治理實(shí)踐中契合生成式人工智能的治理需求,與我國(guó)一直推行的主體治理范式具有理念上的一致性。鑒于此,生成式人工智能應(yīng)當(dāng)遵循協(xié)同治理路徑,完善協(xié)同治理?xiàng)l件,不斷推動(dòng)多元主體協(xié)同治理,增強(qiáng)協(xié)同治理參量,構(gòu)建契合我國(guó)國(guó)情的生成式人工智能監(jiān)管框架。
參考文獻(xiàn):
[1] 生成式人工智能服務(wù)管理暫行辦法[J].中華人民共和國(guó)公安部公報(bào),2023(05):2-5.
[2] 張璐.通用人工智能風(fēng)險(xiǎn)治理與監(jiān)管初探:ChatGPT引發(fā)的問(wèn)題與挑戰(zhàn)[J].電子政務(wù),2023(09):14-24.
[3] 鐘祥銘,方興東,顧燁燁.ChatGPT的治理挑戰(zhàn)與對(duì)策研究:智能傳播的 “科林格里奇困境”與突破路徑[J].傳媒觀察,2023(03): 25-35.
作者簡(jiǎn)介: 王若璇,女,漢族,河北滄州人,碩士研究生在讀,研究方向:行政管理—地方治理。