黨的二十大明確提出,要加快建設“數(shù)字中國”。隨著人工智能技術(shù)的不斷迭代,生成式人工智能逐漸進入人們視野中,這種以數(shù)據(jù)處理、深度學習、內(nèi)容生成為代表的技術(shù)在數(shù)據(jù)涵蓋范圍、算法運算速度與結(jié)果周延程度等方面取得了質(zhì)的突破,并給國家治理、社會治理、生產(chǎn)生活等領域帶來了巨大的變革。所謂生成式人工智能,是指利用深度學習、概率模型等算法學習數(shù)據(jù)的內(nèi)在規(guī)律和概率分布,[1]從而生成新的、具有相似特征的數(shù)據(jù)的處理技術(shù)。生成式人工智能的工作原理主要基于深度神經(jīng)網(wǎng)絡和概率模型,在訓練過程中,模型會不斷調(diào)整其參數(shù)以更好地擬合數(shù)據(jù),一旦訓練完成,模型就能夠根據(jù)輸入的初始條件,完成超大規(guī)模的文本生成、圖像生成、音頻生成、代碼生成、視頻生成等任務。[2顯而易見,生成式人工智能作為一種由人類開發(fā)并用于推動人類社會進步發(fā)展的技術(shù),工具性是其天然屬性,追求效率是其終極目標,助推社會高速發(fā)展是其最高使命。
從目前來看,在市場監(jiān)管、金融創(chuàng)新、數(shù)字化服務等方面,全球范圍內(nèi)生成式人工智能應用正在全面鋪開,數(shù)字經(jīng)濟、數(shù)字政府、數(shù)字文化等一系列新型業(yè)態(tài)應運而生。在此背景下,生成式人工智能也開始悄然嵌入社會治理體系,為社會治理模式帶來了革命性的變化,利用人工智能為社會治理賦能,也已成為智能時代治理轉(zhuǎn)型的必然方向。[3所謂社會治理,是指政府、社會組織、企業(yè)及個人等多個社會主體,通過制定與執(zhí)行規(guī)則、提供公共服務、協(xié)調(diào)社會關系等方式,共同維護社會秩序、促進社會和諧、實現(xiàn)公共利益最大化的過程。[4近年來,隨著我國社會治理結(jié)構(gòu)的不斷變化,社會治理的矛盾也日益突出。在這種情況下,國內(nèi)部分學者認為我國政府應該積極扭轉(zhuǎn)思想觀念,改變單純的以政府為中心的治理模式,采取開放、包容的態(tài)度,鼓勵更多的公民參與到治理活動中,從而實現(xiàn)更為理想的治理效果。①而將生成式人工智能技術(shù)應用于社會治理,則是充分利用生成式人工智能在自然語言處理、圖像識別、深度學習等領域的先進技術(shù),優(yōu)化社會治理流程、提升治理效率、強化治理效果,并嘗試解決那些傳統(tǒng)治理手段難以攻克的難題的過程。誠如有學者所言,生成式人工智能技術(shù)對社會治理具有鮮明的賦能作用,不僅能夠促進多元主體有效參與、提高公共政策的精準度,同時還能全方位升級政府治理系統(tǒng),提升多元主體的互動效能。[5但問題在于,技術(shù)賦能與科技風險從來都是相生相隨的,人工智能技術(shù)在賦能社會治理的同時,也為社會治理增加了潛在風險因子,[進而產(chǎn)生公共價值失靈、算法倫理風險以及數(shù)據(jù)公共安全困境,從而導致數(shù)字技術(shù)賦能社會治理的“懸浮化”。[7在這種情況下,如何通過配套的風險防范機制,充分消解技術(shù)賦能與科技風險的張力,是當下迫切需要解決的問題。
目前,以法治方式規(guī)制人工智能模型已成基本共識,但在具體規(guī)制階段上仍然存有較大爭議,并呈現(xiàn)出明顯的階段性態(tài)勢。[8部分學者聚焦技術(shù)研發(fā)端,認為通過強化技術(shù)研發(fā)的規(guī)范性和倫理性,從源頭上確保人工智能模型的可靠與安全至關重要,有鑒于此,必須在技術(shù)研發(fā)過程中引入系統(tǒng)的倫理審查、安全評估以及資格認定等機制,[9以預防潛在的技術(shù)應用風險。與此同時,部分學者將關注點轉(zhuǎn)向技術(shù)應用端,主張通過嚴格的技術(shù)使用標準和監(jiān)管措施,嘗試通過嵌入知情同意機制、[10]算法可解釋性機制等,確保人工智能模型在實際應用中不侵犯個人隱私、不損害公共利益,進而實現(xiàn)技術(shù)賦能與安全應用的邏輯統(tǒng)一。除此之外,還有一部分學者則聚焦技術(shù)結(jié)果端,主張相比于前期和中期的技術(shù)規(guī)范,配套的責任追究才是最為有效的監(jiān)管方式,[11因此他們主張明確人工智能技術(shù)的責任主體,在為受害者提供法律保障的同時,促使相關主體在技術(shù)應用過程中更加謹慎和負責。[12]上述研究無疑為本研究奠定了重要的基礎,這些階段性的算法規(guī)制方案,不僅有助于及時識別和解決人工智能模型在研發(fā)和使用過程中出現(xiàn)的具體問題,同時也有助于構(gòu)建一套相對完整且靈活的監(jiān)管體系,以適應人工智能技術(shù)的快速發(fā)展和變化。然而,問題的關鍵在于,人工智能技術(shù)的應用從來都不是階段性的,而是貫穿于研發(fā)、使用、應用等各個環(huán)節(jié)的全過程。[13]與之相應,對于人工智能技術(shù)的使用及其規(guī)范,也不能僅僅停留在階段性糾偏的層面,而是要加以規(guī)制,以確保技術(shù)的安全、可靠和可持續(xù)發(fā)展。算法評估作為一種全過程性的規(guī)制方式,“全程”是其最突出的特色,其不僅關注技術(shù)研發(fā)的規(guī)范性和倫理性,確保技術(shù)從源頭上就具備安全性和可靠性,同時還主張將技術(shù)應用端、結(jié)果處理端均納入算法評估的考量范圍,以實現(xiàn)對人工智能技術(shù)的全面、深入和細致的監(jiān)管。這種全過程性的算法評估方式,主張以一種全面、系統(tǒng)、動態(tài)的眼光來看待和評估人工智能技術(shù),不僅關注技術(shù)的當前狀態(tài),還強調(diào)關注其未來的發(fā)展趨勢,并對其潛在風險加以防范。
總之,算法評估作為一種全過程性的規(guī)制方式,為規(guī)制與引導生成式人工智能參與社會治理提供了指引。因此,在將生成式人工智能技術(shù)嵌入社會治理的過程中,應遵循全過程算法評估的理念,明確生成式人工智能與社會治理之間的張力,進而結(jié)合社會治理的價值要求,確立算法評估機制的具體建構(gòu)路徑。
一、生成式人工智能參與社會治理的內(nèi)在張力
以算法評估的方式規(guī)制生成式人工智能參與社會治理,需要從生成式人工智能自身技術(shù)屬性與社會治理現(xiàn)實需求之間存在的張力入手,闡明人工智能算法運用于社會治理所可能引發(fā)的風險,以明確為何需要外部的規(guī)制介入生成式人工智能參與社會治理中。
1.“數(shù)據(jù)喂養(yǎng)”局限性與社會治理全面性間的張力
社會治理全面性體現(xiàn)了社會治理的復雜性和綜合性,是構(gòu)建社會治理體系的重要基礎。何為社會治理全面性?社會治理是一個涵蓋廣泛、深入細致且高度協(xié)同的實踐過程,它涉及社會生活的各個方面,要求治理主體在決策、執(zhí)行、監(jiān)督等各個環(huán)節(jié)中全面考慮,統(tǒng)籌兼顧,進而形成治理合力,共同推動社會的和諧穩(wěn)定與持續(xù)發(fā)展。但是生成式人工智能“數(shù)據(jù)喂養(yǎng)”的局限性會導致其在社會治理方面的功能無法完全和充分地發(fā)揮,甚至會加劇社會治理的風險。生成式人工智能“數(shù)據(jù)喂養(yǎng)”的局限性主要體現(xiàn)在數(shù)據(jù)內(nèi)容、數(shù)據(jù)主體和數(shù)據(jù)價值等方面,其與社會治理的內(nèi)容遙相呼應,兩者之間形成一種張力,由此引發(fā)了生成式人工智能在社會治理方面的風險和挑戰(zhàn)。生成式人工智能之所以能夠進行深度學習、預測建模、自我迭代,就是源于其龐大的數(shù)據(jù)基礎。需要注意的是,這種大數(shù)據(jù)基礎的背后是技術(shù)開發(fā)者有目的的“數(shù)據(jù)喂養(yǎng)”,根據(jù)生成式人工智能當前的使用反饋,在日常生活類的問題上,其一般能夠輸出較為準確的答案,但涉及專業(yè)領域的問題時,便會顯得捉襟見肘。也就是說,這種“數(shù)據(jù)喂養(yǎng)”的局限性在一定程度上決定著生成式人工智能輸出內(nèi)容的真實性與可靠性。
(1)生成式人工智能“數(shù)據(jù)喂養(yǎng)”的失真性與社會治理的精準性之間的張力。生成式人工智能是通過廣泛和大量的文本訓練而生成的內(nèi)容,這種內(nèi)容的生成是基于數(shù)據(jù)主體向其輸入的原始數(shù)據(jù),進行復合加工的結(jié)果,然而數(shù)據(jù)來源本身可能就存在著真實性的問題,且生成式人工智能文本訓練過程是依據(jù)主體設定的功能而實現(xiàn)的。[4因此,數(shù)據(jù)主體、文本訓練過程以及生成式人工智能自身都難以規(guī)避真實性問題,這種主體、過程和內(nèi)容之間形成的疊加效應加劇了生成式人工智能“數(shù)據(jù)喂養(yǎng)”的失真性缺陷。相較于生成式人工智能的失真性缺陷,社會治理無論是政府層面公共利益的最大化過程,抑或企事業(yè)單位,甚至是個人層面的合作、對話和協(xié)商等治理過程,皆需要實現(xiàn)精準性和可靠性的治理。換言之,社會治理是在不同主體之間實現(xiàn)公共利益最大化的實踐過程,治理的各個環(huán)節(jié)、各個鏈條、各個過程都應當有益于且最大化社會整體利益。因此,可靠性治理和精準性治理是社會治理全面性的重要體現(xiàn)和重要內(nèi)核。就此而言,生成式人工智能“數(shù)據(jù)喂養(yǎng)”的失真性與社會治理的可靠性、精準性存在著沖突,這種沖突可能會影響社會治理的成效。
(2)生成式人工智能“數(shù)據(jù)喂養(yǎng)”的守舊性與社會治理的動態(tài)性之間的張力。生成式人工智能“數(shù)據(jù)喂養(yǎng)”過程的守舊特征,即無論是生成式人工智能數(shù)據(jù)的來源還是文本訓練的過程都有賴于過往的原始信息和訓練模式,也就是說生成式人工智能只能根據(jù)既定的數(shù)據(jù)和文本訓練模式生成該框架下的文本信息,而無法超出既定的范疇。換言之,生成式人工智能是在大量的數(shù)據(jù)、超強的計算力以及強大的數(shù)據(jù)處理技術(shù)相互作用的固定模式下運作的,是對數(shù)據(jù)進行篩選、提煉和加工的過程,但囿于技術(shù)和過程的固化性質(zhì)而無法推進到升華、再創(chuàng)造與革新的人類思維環(huán)節(jié),也就造成了文本信息的再生成需要原始數(shù)據(jù)的“投喂”和“滋養(yǎng)”,而不能通過邏輯性和連貫性的應用加以創(chuàng)新。[15]與之相對應的是,社會治理除了要面對過往社會中既有的問題和挑戰(zhàn),更多的是要處理社會生活中無法完全套用既往經(jīng)驗的新問題和新挑戰(zhàn),這就要求社會治理的過程是一個動態(tài)化和不斷革新的過程,應當因地因時因人探索出不同的社會治理方法,取得不同的治理效果。社會治理的動態(tài)化和不斷革新的過程展現(xiàn)出其不拘泥于既有范式的特征,這與生成式人工智能“數(shù)據(jù)喂養(yǎng)”的守舊模式間形成了巨大的張力。
(3)生成式人工智能“數(shù)據(jù)喂養(yǎng)”的逐利性與社會治理的人民性之間的張力。生成式人工智能“數(shù)據(jù)喂養(yǎng)”的價值局限性表現(xiàn)為生成式人工智能的“數(shù)據(jù)喂養(yǎng)”是為利益服務的,實現(xiàn)的是資本最大化的過程。[16]究其原因,生成式人工智能“數(shù)據(jù)喂養(yǎng)”模式以數(shù)據(jù)為核心,數(shù)據(jù)的收集和選擇是由數(shù)據(jù)主體完成的,而數(shù)據(jù)主體本身則受到自身價值因素的影響帶有主觀性,并施加于生成式人工智能,使其具有偏見性甚至歧視性,這種“數(shù)據(jù)喂養(yǎng)”過程也反映了生成式人工智能是以追逐利益最大化為基本特征的。與此相反,社會治理展現(xiàn)的是以人民為中心的價值追求,要求把人民群眾的根本利益放在首位,這種人民性的價值追求與生成式人工智能“數(shù)據(jù)喂養(yǎng)”的逐利性特征存在著本質(zhì)區(qū)別。
2.結(jié)果輸出隨機性與社會治理穩(wěn)定性間的張力
社會治理是一個穩(wěn)定且持續(xù)的過程,即社會各組成部分在既定的法律法規(guī)和制度框架下,保持相對穩(wěn)定的關系和運行狀態(tài),確保社會運行順暢、人民生活安定有序,并通過科學合理的治理手段來維護社會的正常秩序和持續(xù)發(fā)展,實現(xiàn)社會穩(wěn)定和諧的目標。在此過程中,生成式人工智能結(jié)果輸出的內(nèi)在機理是基于其在預訓練階段所建立的模式和統(tǒng)計規(guī)律來生成答案的。這種結(jié)果是難以把握的,預測的準確性是概率性的,但社會治理中的各類行政行為則是合理、合法的,以實現(xiàn)社會穩(wěn)定為目的,因而這二者之間存在著隨機性與穩(wěn)定性的張力。生成式人工智能結(jié)果輸出的隨機性表現(xiàn)在因果關系的隨機性、主客體關系的隨機性以及結(jié)果的風險性上,這與社會治理所要求的穩(wěn)定性、系統(tǒng)性以及合理性存在著不小的張力。
(1)生成式人工智能因果關系的隨機性與社會治理穩(wěn)定性之間的張力。生成式人工智能結(jié)果輸出的隨機性在于其因果關系本身就有隨機性的特征,主要表現(xiàn)為生成式人工智能并不是依賴于嚴謹?shù)倪壿嬻w系和思維框架來建立文本信息的,而是依據(jù)固定指令對數(shù)據(jù)進行排列組合的過程,缺乏對事物之間因果關系的考問。生成式人工智能的隨機性在于缺乏事物之間因果關系的三個核心要素:一是時間性要素,要求事物之間具有先后的時間順序,事物之間互為因果;二是關聯(lián)性要素,要求事物之間具有相關性,即事物之間具有變量關系,一個事物的變化會引起其他事物發(fā)生連鎖反應,具體到生成式人工智能,其依據(jù)并不是基于兩者之間的共變關系,而是基于設定的非相關性因素進行計算的;三是排除其他干擾因素,也即事物之間的因果關系排除了其他解釋結(jié)果的可能性,事物之間存在著直接或間接的因果關系。生成式人工智能結(jié)果輸出并不能完全排除其他干擾變量,即結(jié)果的輸出缺乏事物之間的邏輯關系。相反,社會治理建立起了包括多元主體、立體過程、多種方式等特征在內(nèi)的框架體系,既有相對穩(wěn)定的結(jié)構(gòu),又保持著一定的開放性,社會治理成效的達成是主體之間彼此配合、各個環(huán)節(jié)相互協(xié)調(diào)以及不同內(nèi)容之間相互促進等共同作用的結(jié)果。
(2)生成式人工智能主客體關系的隨機性與社會治理系統(tǒng)性之間的張力。生成式人工智能結(jié)果輸出隨機性的另一表現(xiàn)在于生成式人工智能主客體關系的隨機性,即生成式人工智能當前表現(xiàn)出高度的擬人性和自我主體性特征。[17]這種機器高度人類化的趨勢進一步模糊了主客體之間的原有界限,當人類無法操縱或難以有效控制這種趨勢時,便很難厘清主客體之間的關系,甚至使兩者關系發(fā)生顛倒,主客體之間的隨機性排列不僅存在著身份難以認同、缺乏責任歸屬以及機制體系渙散等問題,還進一步削弱了結(jié)果輸出的穩(wěn)定性。相對于社會治理共同體模式下形成的共商共建共享治理模式,生成式人工智能主客體關系的隨機性將會影響社會公共生活體系的穩(wěn)定性和預期性。
(3)生成式人工智能輸出結(jié)果的風險性與社會治理合理性之間的張力。生成式人工智能結(jié)果輸出隨機性的最后一個特征是輸出結(jié)果的風險性,即生成式人工智能輸出結(jié)果的程序設定并不會對結(jié)果的風險性進行考量,而是更加注重結(jié)果的效率性和量化指標。結(jié)果輸出的隨機特征與前述逐利特征遙相呼應,生成式人工智能追求利益最大化而忽視了風險的最小化。[18而社會治理就是通過組織化、體系化、制度化的措施盡可能降低和化解治理過程中遇到的風險和挑戰(zhàn),通過主體、行為以及過程之間的合理配置和運行降低社會風險。
3.迭代方向效率化與社會治理價值性間的張力
社會治理價值性是指社會治理過程中不僅追求工具理性的效率,更強調(diào)基于價值理性的公平、合理與正義,致力于將倫理道德規(guī)范融入社會發(fā)展中,營造一種全社會范圍內(nèi)的公平、合理、正義的價值環(huán)境,以規(guī)訓社會成員并引導社會向善治方向發(fā)展。概言之,對于社會治理而言,其所追求的并非工具理性考量下的效率優(yōu)先,而是基于價值理性,試圖在發(fā)展中將倫理道德規(guī)范融入社會內(nèi)部,在潛移默化中營造一種公平、合理、正義的價值環(huán)境。這顯然與生成式人工智能的工具性相矛盾,二者之間的張力主要表現(xiàn)在以下幾方面。
(1)社會治理追求公平、合理、正義,不是只發(fā)生在某個階層或者某個領域,而是以全社會為范圍展開秩序的維護與糾偏。生成式人工智能基于效率導向的設計目標在不斷的自我迭代中升級;在追求效率極致化的目標下,依靠機械重復的人力勞動的行業(yè)選擇以人工智能替代傳統(tǒng)勞動力,不可避免地造成結(jié)構(gòu)化失業(yè)現(xiàn)象的出現(xiàn)。此外,算法歧視、算法黑箱所引起的風險,也與社會治理的價值追求相背離。
(2)生成式人工智能參與社會治理時,若仍以效率為導向,容易在治理過程中產(chǎn)生新的風險。如前所述,生成式人工智能作為數(shù)字工具迭代升級是為了追求極致化的效率。效率為先作為其算法編寫的首要考慮因素,在功能取舍中必定會摒棄其他影響效率發(fā)揮的因素。然而社會治理作為對社會發(fā)展的糾偏與引導,善治是其所追求的完美狀態(tài)。善治不僅是治理依據(jù)(法律)的“善”,還包含治理手段的“善”,以及治理過程中損害最小的“善”。社會治理工具不得游離于道德倫理,必須全方位考慮行為所帶來影響的多種可能性。因此,以效率為導向的生成式人工智能在參與社會治理時,可能會產(chǎn)生制約治理效果的內(nèi)生風險。
4.技術(shù)發(fā)展權(quán)力化與社會治理行政性間的張力
社會治理行政性是指在社會治理過程中,政府行政機關扮演著核心和引領角色,通過制定政策、規(guī)劃戰(zhàn)略、調(diào)配資源、監(jiān)督執(zhí)行等手段,對社會公共事務進行管理和調(diào)控。這種模式強調(diào)政府在治理過程中的權(quán)威性和責任性,即行政機關不僅負責維護社會秩序和公共服務,還積極推動社會發(fā)展和進步,確保社會治理目標的實現(xiàn)。然而,生成式人工智能技術(shù)在社會治理系統(tǒng)中的嵌入,很可能會打破這種行政主導地位,進而侵蝕行政權(quán)力的運行空間、弱化行政決策的情感考量、降低治理對象的政治信任。
(1)生成式人工智能廣泛用于社會治理可能會引發(fā)算法權(quán)力侵蝕行政權(quán)力的風險。人工智能技術(shù)的發(fā)展伴隨著一種權(quán)力化的風險,因為人工智能算法本身就是一種技術(shù)權(quán)力。人工智能算法通過數(shù)據(jù)信息數(shù)字化,將社會人轉(zhuǎn)變?yōu)閿?shù)字人,社會人之間的社會行為與交互關系亦被算法以數(shù)字化處理。與其說算法搭建了一個能夠映射現(xiàn)實社會的數(shù)字世界,不如說算法與人類社會融為一體。在與個體無法分割的情況下,社會個體通過算法感知世界,算法嵌入現(xiàn)實社會結(jié)構(gòu),影響甚至牽引社會個體行為。此時,人工智能算法轉(zhuǎn)化為一種技術(shù)權(quán)力,與社會權(quán)力結(jié)構(gòu)相融合。[19]生成式人工智能本質(zhì)上是人工智能算法的產(chǎn)物,自身就已具備成為技術(shù)權(quán)力的可能性。一旦其作為實現(xiàn)數(shù)字治理的工具嵌入社會治理,轉(zhuǎn)變傳統(tǒng)依賴于人力的行政模式,則會逐漸擠壓甚至替代行政權(quán)力,以強人工智能凌駕于人類之上。如果該技術(shù)在社會治理中的應用不斷擴散,就有可能打破社會治理自身的話語體系,進而動搖整個社會治理的政治主導性。申言之,算法在治理體系中的嵌入改變了既有權(quán)力結(jié)構(gòu),平臺通過對技術(shù)、資本和數(shù)據(jù)的掌控形成場域控制,導致政府的主導空間不斷被算法壓縮,一種基于算法的支配權(quán)和控制權(quán)開始在社會治理體系中廣泛運行。[20既有的“國家權(quán)力一社會權(quán)力”二維框架由此轉(zhuǎn)變?yōu)椤皣覚?quán)力一平臺算法權(quán)力一社會權(quán)力”三維框架,稍不留神就會產(chǎn)生算法異化的風險。以行政權(quán)公共性為例,政府具備公共服務職能,在新公共管理理論視角下,行政權(quán)力可以借助市場機制實現(xiàn)公共服務,吸納更多社會主體參與,以提升其服務質(zhì)量。此思路遭到了學界的批判一一絕不能弱化政府在公共服務職能中的地位,否則公共服務會進入市場成為資本競爭的對象,使公共服務流為商品,這無疑不利于公共服務的實現(xiàn)。生成式人工智能融入行政管理之中,其能力、效率較市場機制更強、更高、更具優(yōu)勢,但該模型在應用過程中對治理能力的優(yōu)化,使其不斷嵌入社會治理中。政府部門廣泛使用生成式人工智能,人工智能以自身不可忽視的優(yōu)勢推動行政管理主動轉(zhuǎn)型。
(2)生成式人工智能廣泛用于社會治理可能會弱化行政決策過程中的情感考量。生成式人工智能以龐大的數(shù)據(jù)支持與經(jīng)由無數(shù)實驗建立的算法模型,能夠在短時間內(nèi)整合各方信息,計算事件發(fā)生的所有可能性并判定相關關系,在不斷學習人類智慧的過程中對所有支持決策做出的因素進行拓撲排序,最終綜合計算結(jié)果,得出結(jié)論。毋庸置疑的是,這種由機器深度學習所輸出的決策在外觀上比人類決策更為周延。因此,可進行深度學習的人工智能技術(shù)參與行政決策,無論主觀還是客觀上都會引發(fā)決策機制的檀變。究其原因,社會治理所作用的對象本質(zhì)上是人,他們作為社會個體具有情感和意識,忽視這一因素則會使治理的推進失去治理對象的配合,甚至會引發(fā)對立與沖突。生成式人工智能作為以效率為導向的技術(shù)工具,其運行軌道的搭建依靠的是集成的數(shù)據(jù)與嚴謹?shù)乃惴ǎ谇度胄姓Q策的過程中,難以對人類情感變化進行識別并產(chǎn)生共情。且生成式人工智能的運行與使用并不需要與治理對象有物理上的接觸,在親歷性上有所欠缺。機械化教條式的決策方式使得治理模式公式化,無法回應治理對象的情感訴求。
(3)生成式人工智能廣泛用于社會治理可能會降低行政對象的政治信任。政治信任由行政權(quán)力與人民在雙向互動中累積而成,其重點在于互動。生成式人工智能嵌入社會治理并參與行政決策本身就缺乏對治理事務的親歷,其類人程序是人工智能決策高效率的表現(xiàn),也是人工智能決策高風險的來源。在此情境下,對于群眾而言,很難相信機器做出的決策是設身處地為其著想的最優(yōu)方案;對于政府而言,亦很難相信機器這種類人程序所輸出的結(jié)果能夠準確總結(jié)社會成員的真實表達。社會治理決策的成功推進落實依賴行政權(quán)力與人民之間存在的強烈信任,這種信任作為一種紐帶,無形中將二者聯(lián)結(jié)成共同體,維持行政權(quán)力與公民權(quán)利的二元平衡。目前看來,生成式人工智能技術(shù)強勢介入社會治理,顯然會將這種平衡局面打破,繼而破壞整個社會的治理生態(tài),誘發(fā)新的治理風險,從而阻礙社會發(fā)展。
二、算法評估規(guī)制生成式人工智能參與社會治理的必要性
以算法評估規(guī)制生成式人工智能在社會治理中潛藏的風險,在當今凸顯其深刻的必要性。這一必要性體現(xiàn)為:算法評估能夠精準地平衡生成式人工智能的海量數(shù)據(jù)獲取需求與社會治理中對敏感數(shù)據(jù)的嚴格識別要求;算法評估在平衡生成式人工智能的自然語言處理能力與社會治理話語體系的規(guī)范性表達之間,發(fā)揮著不可或缺的作用;算法評估有助于調(diào)和生成式人工智能對效率優(yōu)化的追求與社會治理對公平公正原則的堅守;算法評估還能夠融貫生成式人工智能的自我迭代方向與社會治理的意識形態(tài)主導。總的來說,以算法評估規(guī)制生成式人工智能社會治理風險具有重要價值,有助于保障社會穩(wěn)定、維護公共利益、促進人工智能技術(shù)與社會治理體系的融合發(fā)展。
1.兼顧海量數(shù)據(jù)獲取與社會治理的敏感數(shù)據(jù)識別
為了克服“數(shù)據(jù)喂養(yǎng)”固有的局限性,我們必須尋求一種更加專業(yè)、精確且與特定需求相匹配的數(shù)據(jù)供給模式。這種高度精細化的數(shù)據(jù)流轉(zhuǎn)機制,需要依賴作為數(shù)據(jù)處理核心工具的算法來有效發(fā)揮其功能。在現(xiàn)代信息處理架構(gòu)中,大模型所依賴的數(shù)據(jù)資源主要源于復雜的互聯(lián)網(wǎng)環(huán)境。然而,鑒于網(wǎng)絡數(shù)據(jù)中存在著大量的混雜性、虛假性以及合規(guī)性風險,我們必須采取一系列有效的數(shù)據(jù)治理措施來應對這些挑戰(zhàn)。對此,通過算法的實質(zhì)性篩選功能,可以對數(shù)據(jù)源進行嚴格的監(jiān)控和過濾,以確保所獲取的數(shù)據(jù)在質(zhì)量和合法性上達到要求。這一步驟至關重要,因為它不僅關系后續(xù)數(shù)據(jù)處理的準確性和有效性,還直接影響整個數(shù)據(jù)供應鏈的可靠性和穩(wěn)定性。在這個過程中,算法的作用不僅僅是簡單的數(shù)據(jù)篩選,更是對整個數(shù)據(jù)生態(tài)系統(tǒng)中信息流動和質(zhì)量的控制。
首先,通過算法評估機制對數(shù)據(jù)輸入端口進行規(guī)范性審查,是確保數(shù)據(jù)質(zhì)量的首要步驟。在大數(shù)據(jù)時代,數(shù)據(jù)的質(zhì)量問題已成為制約人工智能發(fā)展的瓶頸之一,因此,通過算法評估來加強數(shù)據(jù)輸入端口的規(guī)范性審查尤為重要。在此基礎上,數(shù)據(jù)算法過濾技術(shù)展現(xiàn)出強大的效能,特別是在應對日益復雜和多樣化的數(shù)據(jù)環(huán)境方面。這種技術(shù)可以視為一種自動化識別式的“凈水器技術(shù)”,[21]它能夠模擬人類的智能識別過程,對流入的數(shù)據(jù)進行深度分析和處理。通過運用先進的算法和模型,數(shù)據(jù)算法過濾技術(shù)能夠?qū)崿F(xiàn)對數(shù)據(jù)的智能分類、去重、清洗和過濾等,從而確保流入后續(xù)處理環(huán)節(jié)的數(shù)據(jù)是合法且有效的。對于上述目標的實現(xiàn),端口篩查技術(shù)的研發(fā)是一個亟待突破的關鍵領域。當前,隨著數(shù)據(jù)量的爆炸式增長和類型的多樣化,傳統(tǒng)的數(shù)據(jù)過濾技術(shù)已經(jīng)難以滿足需求。因此,需要研發(fā)更加高效、智能的端口篩查技術(shù),以實現(xiàn)對數(shù)據(jù)輸入端口的全面監(jiān)控和審查。通過不斷創(chuàng)新和技術(shù)攻關,我們有望在這一領域取得重要突破,為生成式人工智能的數(shù)據(jù)安全治理提供有力的技術(shù)支撐。
其次,算法評估對于確保數(shù)據(jù)輸入遵循最小必要原則至關重要。這一原則的核心在于,在進行數(shù)據(jù)抓取時,必須嚴格將范圍限定在實現(xiàn)特定處理目標所需的最小數(shù)據(jù)集內(nèi)。這意味著,在確保所采集的數(shù)據(jù)滿足分析需求的前提下,應盡可能控制數(shù)據(jù)的采集量,以防范數(shù)據(jù)的過度采集以及隨之而來的潛在數(shù)據(jù)濫用風險。通過算法評估,可以對數(shù)據(jù)采集的必要性和合理性進行精確衡量,從而確保數(shù)據(jù)輸入的精準性和高效性。此外,算法評估還可借助敏感識別技術(shù),對輸入的數(shù)據(jù)進行深度分析和判斷。這種技術(shù)能夠識別和限制敏感信息的輸入,從而有效避免不必要的隱私泄露風險。在數(shù)據(jù)處理過程中,敏感信息的泄露可能會對個人隱私、商業(yè)機密甚至國家安全造成嚴重威脅。因此,借助算法評估的敏感性識別技術(shù),可以在數(shù)據(jù)輸入階段對敏感信息進行有效識別和隔離,為后續(xù)的數(shù)據(jù)處理提供安全保障。當面對不可避免的敏感數(shù)據(jù)時,可以采用脫敏技術(shù)或加密處理等安全措施。①這些安全措施可以對敏感數(shù)據(jù)進行適當?shù)霓D(zhuǎn)換和處理,從而確保個人數(shù)據(jù)的機密性、完整性和可用性得到充分有效的保障。在算法評估的指導下,這些安全措施的實施將更加精準和有效,為數(shù)據(jù)的安全使用提供堅實保障。
再次,算法評估在數(shù)據(jù)處理流程中發(fā)揮著至關重要的作用,有助于確保輸入系統(tǒng)中的數(shù)據(jù)具備時效性、完整性和系統(tǒng)性。這些特征對于數(shù)據(jù)驅(qū)動的決策和模型訓練至關重要,因為它們直接影響數(shù)據(jù)的質(zhì)量和可用性,進而影響模型的性能和準確性。時效性是指數(shù)據(jù)必須是最新的,能夠反映當前的實際情況和發(fā)展趨勢。在快速發(fā)展的數(shù)字化時代,數(shù)據(jù)的時效性尤為重要。過時的數(shù)據(jù)不僅無法為模型的訓練提供有效的價值,反而可能引入噪聲和誤導,導致模型作出錯誤的決策。此外,過時數(shù)據(jù)還會無謂地增加數(shù)據(jù)存儲和處理的負擔,降低系統(tǒng)的效率。因此,通過算法評估,可以對數(shù)據(jù)的時效性進行嚴格的把控,確保數(shù)據(jù)能夠及時更新,保持與實際情況的一致。完整性則要求數(shù)據(jù)必須是全面的,能夠涵蓋所需要的所有信息和維度。片段數(shù)據(jù)由于語義不完整和信息缺失,往往會導致歧義或錯誤的理解。這種不完整的數(shù)據(jù)會嚴重影響數(shù)據(jù)的質(zhì)量和可用性,使得模型無法準確地學習和預測。因此,算法評估需要對數(shù)據(jù)的完整性進行嚴格的檢查,確保數(shù)據(jù)能夠全面、準確地反映所需要的信息和維度。系統(tǒng)性強調(diào)數(shù)據(jù)之間的關聯(lián)性和一致性,要求數(shù)據(jù)能夠形成一個有機的整體,相互支持、相互驗證。在復雜的數(shù)據(jù)環(huán)境中,數(shù)據(jù)之間的關聯(lián)性和一致性對于模型的訓練至關重要。如果數(shù)據(jù)之間存在矛盾或不一致,那么模型將難以學習到正確的規(guī)律和模式。因此,可以借助算法評估對數(shù)據(jù)的系統(tǒng)性進行深入探究,確保數(shù)據(jù)之間的關聯(lián)性和一致性得到有效的維護和保障。
為實現(xiàn)上述目標,算法評估可以對數(shù)據(jù)來源和采集方式進行全面嚴格的把關。首先,算法評估可以協(xié)助選擇可靠的數(shù)據(jù)來源,確保數(shù)據(jù)的真實性和權(quán)威性。通過評估數(shù)據(jù)來源的可靠性和權(quán)威性,篩選出高質(zhì)量的數(shù)據(jù)源,為后續(xù)的數(shù)據(jù)處理提供堅實的基礎。其次,算法評估能夠規(guī)范采用科學的數(shù)據(jù)采集方法,保障數(shù)據(jù)的準確性和代表性。通過采用科學的數(shù)據(jù)采集方法,可以獲取到準確、全面的數(shù)據(jù)樣本,為模型的學習提供有力的支持。最后,算法評估還需對數(shù)據(jù)進行定期的更新和維護,以保持數(shù)據(jù)的時效性和新鮮度。通過定期的更新和維護,可以確保數(shù)據(jù)始終與實際情況保持一致,為模型的持續(xù)學習和優(yōu)化提供源源不斷之動力。
2.平衡自然語言處理與社會治理的話語體系表達
盡管生成式人工智能在模擬人類社會自然語言方面取得了顯著進步,其語言邏輯日趨成熟,但我們不能忽視其輸出中依然存在的計算機語言痕跡。這種痕跡的存在揭示了從計算語言到社會語言過渡的復雜性和挑戰(zhàn)性。為了更加流暢地完成這一過渡,降低生成式人工智能輸出結(jié)果的模糊性,算法篩選成為一種必要的技術(shù)手段。算法篩選是指設計并實施一種高效的算法,用于從生成式人工智能生成的大量結(jié)果中篩選出符合社會治理要求的優(yōu)質(zhì)結(jié)果。[22]這種篩選不僅有助于提升輸出結(jié)果的質(zhì)量和準確性,還能確保AI系統(tǒng)的行為與社會價值觀和法律法規(guī)保持一致。
具體而言,算法篩選包括進行周密的技術(shù)布局和深入的算法工具開發(fā)。在這一系統(tǒng)性的過程中,數(shù)據(jù)運行所遵循的重要原則一可信性、可負責性、合規(guī)性及倫理性等被確立為整個技術(shù)架構(gòu)的核心指導原則。這些原則不僅是理論上的抽象概念,而且需要落實到具體的技術(shù)實踐中。為此,算法篩選技術(shù)可以將這些原則集成到一個根組件中,該組件在技術(shù)層面扮演著基石的角色,并緊密地嵌入生成式人工智能中。這一根組件不僅構(gòu)成了模型運行的基礎,更是一個持續(xù)監(jiān)控數(shù)據(jù)行為的機制。作為模型的價值中心,它不斷對數(shù)據(jù)運行進行審查和校驗,以確保其符合既定的原則和標準。此外,根組件還具備對可疑、偽造或經(jīng)虛假篡改數(shù)據(jù)的即時檢測和處理能力。這種能力源于其內(nèi)置的熔斷機制,一旦檢測到任何不符合標準的數(shù)據(jù),該機制會立即被觸發(fā),從而中斷數(shù)據(jù)的運行,并對其進行無害化處理。[23通過精心制定合理合法的內(nèi)容分析和轉(zhuǎn)化規(guī)則,我們可以不斷優(yōu)化數(shù)據(jù)的識別機能,進而提高算法處理數(shù)據(jù)的準確性和效率。與此同時,構(gòu)建一個鏈條式的風險防控結(jié)構(gòu)也至關重要,它有助于在各個環(huán)節(jié)中及時發(fā)現(xiàn)潛在的風險因素,迅速采取相應的應對措施,從而確保整個人工智能系統(tǒng)的穩(wěn)定、安全和高效運行。
3.調(diào)和效率優(yōu)化意圖與社會治理的公平公正追求
生成式人工智能與社會治理體系在深層次的價值追求上存在不容忽視的差異。當過度側(cè)重于追求效率時,可能會無意中忽視或犧牲社會的公平與正義原則。為了有效調(diào)和這種潛在的沖突,算法評估作為一種技術(shù)手段,可以為生成式人工智能的自我優(yōu)化和迭代設定一個更為均衡且全面的價值目標體系。這樣的價值目標體系不僅關注計算效率,更強調(diào)與社會公正、道德倫理的和諧統(tǒng)一。
具體而言,在實際操作層面,實現(xiàn)算法評估的良性治理是一項涉及價值觀融入的工程。這就要求算法的設計者和決策者在技術(shù)開發(fā)的每一環(huán)節(jié),都應將社會正義視為不可或缺的核心追求。進一步來說,為了使算法在深度學習過程中能夠真正借鑒和吸收社會正義的原則,算法設計者和決策者需要構(gòu)建一個堅實且有效的道德支撐框架。這個框架不僅為算法提供了明確的道德指南,還確保了算法在面臨復雜決策時能夠做出符合社會期望的選擇。
4.融貫自我迭代方向與社會治理的意識形態(tài)主導
如何有意識地引導技術(shù)的發(fā)展方向,是科技倫理領域討論的熱點,而算法評估的工具屬性是一個可能的抓手,以技術(shù)規(guī)范技術(shù)能夠更加透徹地實現(xiàn)工具上的方向把控。
(1)在智能技術(shù)日新月異的時代背景下,我們需要對技術(shù)革新與社會價值體系之間的關系進行深入的思考和探討。特別是在“數(shù)據(jù)即權(quán)力”“數(shù)據(jù)即利益”觀念日益盛行的當下,[24經(jīng)濟利益對生成式人工智能背后的意識形態(tài)安全產(chǎn)生的沖擊不容忽視。這種沖擊不僅可能引發(fā)技術(shù)風險,還可能對社會的穩(wěn)定與發(fā)展造成潛在威脅。因此,我們迫切需要將社會主義核心價值觀作為技術(shù)革新的重要導向,特別是在生成式人工智能的研發(fā)和應用過程中,應將其視為不可或缺的指導原則。具體而言,我們應將維護社會主義核心價值觀生態(tài)作為平臺信息輸出的重要標準,通過嚴格的監(jiān)管和審核機制,確保平臺內(nèi)容始終符合社會主流價值觀的要求。此外,為了進一步強化社會主義核心價值觀在生成式人工智能技術(shù)發(fā)展中的引領作用,我們還應積極探索和創(chuàng)新融入路徑。如在技術(shù)研發(fā)階段就充分考慮社會主義核心價值觀的要求,在技術(shù)應用階段通過合理的市場機制引導其向符合社會主流價值觀的方向發(fā)展。
(2)在當下技術(shù)浪潮中,對于生成式人工智能類通用大模型中算法評估研發(fā)力度與創(chuàng)新深度的加強顯得尤為重要,這既是技術(shù)進步的必然要求,又是構(gòu)筑社會主義意識形態(tài)全新傳播空間的重要舉措。從技術(shù)維度來說,生成式人工智能所生成的內(nèi)容并非簡單地依靠邏輯推理完成信息的單向度傳遞,而是通過復雜的全域大數(shù)據(jù)采集與人工編碼強化學習的復合機制,實現(xiàn)思想觀念的深度滲透與傳播。鑒于此,我們需要以更高的站位和更寬的視野,大幅提升在人工智能領域算法技術(shù)的自主創(chuàng)新能力,既包括基礎理論的突破,也涵蓋關鍵核心技術(shù)的掌握。進一步來說,通過不懈的自主創(chuàng)新和技術(shù)攻關,能夠有效地識別并化解人機交互模式可能對主流意識形態(tài)認同產(chǎn)生的潛在風險和挑戰(zhàn)。在此基礎上,以社會主義核心價值觀為精神紐帶,凝聚起廣泛而堅實的社會共識,可共同塑造一個健康、積極、向上的社會主義意識形態(tài)網(wǎng)絡傳播新生態(tài)。這不僅有助于提升我國在國際競爭中的話語權(quán)和影響力,更能為構(gòu)建網(wǎng)絡強國、數(shù)字中國提供有力的思想保障和文化支撐。
(3)明確生成式人工智能平臺的權(quán)力運行空間。在現(xiàn)實物理世界中,政府部門是社會治理的核心領導,然而,當視角轉(zhuǎn)向虛擬的數(shù)字空間時,虛擬化的網(wǎng)絡環(huán)境產(chǎn)生了一種新型斌權(quán)場域,沖擊和解構(gòu)了原有的權(quán)力秩序,同時由于新的權(quán)力秩序還在塑造之中,政府部門的絕對主導地位不再如物理世界那般穩(wěn)定且堅固。[25這就意味著將生成式人工智能技術(shù)引入社會治理的框架內(nèi),算法平臺將在虛擬空間中掌握更多的主動權(quán),或多或少主導數(shù)據(jù)的生產(chǎn)、處理、流通以及消費情況,而這些關鍵環(huán)節(jié)很可能因為算法黑箱而面臨被算法平臺控制的風險,進而引發(fā)數(shù)據(jù)隱私泄露、算法偏見、信息繭房效應等一系列社會問題。因此,在這樣的背景下,我們必須要明確政府、數(shù)據(jù)生產(chǎn)者、生成式人工智能平臺以及普通公眾之間的法律關系,探索并建立一套能夠有效平衡各方利益、確保數(shù)據(jù)安全與公正分配的社會治理機制。其中,尤其要明確生成式人工智能平臺的權(quán)力運行空間,對平臺在數(shù)據(jù)收集、處理、使用及分享方面的權(quán)限范圍進行規(guī)范。一方面,在數(shù)據(jù)收集環(huán)節(jié),明確生成式人工智能平臺在收集數(shù)據(jù)時,必須遵循知情同意原則,得到用戶的明確授權(quán),清晰告知用戶數(shù)據(jù)收集的目的、范圍及方式,并嚴格遵守相關法律法規(guī),確保數(shù)據(jù)收集的合法性與必要性;另一方面,在數(shù)據(jù)處理環(huán)節(jié),生成式人工智能平臺應遵循數(shù)據(jù)分類分級原則,即在處理數(shù)據(jù)的過程中,根據(jù)數(shù)據(jù)的敏感度、重要性以及潛在風險等因素,對不同類別和級別的數(shù)據(jù)采取不同的保護措施,進而確保數(shù)據(jù)的安全性與合規(guī)性。
三、算法評估規(guī)制生成式人工智能參與社會治理的路徑構(gòu)建
生成式人工智能與社會治理的深度融合有助于充分發(fā)揮前者的技術(shù)優(yōu)勢,在提升治理效能、減少治理成本方面革新傳統(tǒng)的社會治理方式。但人工智能的深度應用也可能帶來諸多風險,而這些風險恰也表明了對人工智能算法進行規(guī)制的必要性。鑒于此,算法評估機制能夠在準入、運行與結(jié)果篩選的全流程上對算法實行規(guī)制,有助于算法以更為恰當?shù)姆绞饺谌肷鐣卫碇小?/p>
1.準入資格:生成式人工智能技術(shù)邏輯預設的算法審查
自以生成式人工智能為代表的智能技術(shù)面世以來,一場由算法、數(shù)據(jù)以及模型引領的社會變革便悄然而至。生成式人工智能以其強大的通用性為依托,嵌入社會運行與人類生活的方方面面,潛在地改變了社會生產(chǎn)方式乃至人們的思考方式。[26然而,隨著生成式人工智能的落地與發(fā)展,在其運行過程中也悄然出現(xiàn)了諸多問題。如GPT-3模型的輸出中包含針對少數(shù)群體的歧視內(nèi)容,又如算法黑箱帶來的訓練數(shù)據(jù)溯源困難,以及隨之而來的侵犯個人隱私的隱憂。這些都在呼喚監(jiān)管的進一步介入與規(guī)則的進一步完善。由此,對于生成式人工智能的算法審查理應得到重視。有必要建立生成式人工智能算法的準入標準,以確保其推動社會正向發(fā)展。[27]
具體而言,首先,算法審查應關注算法的可解釋性,建立算法的透明性標準。算法的可解釋性是人類理解算法的基礎,是對算法的決策機制進行價值性審查的前提性條件。[28因此,有必要明確算法準入的透明性標準,規(guī)定進入市場運行的算法需要具備的可解釋性程度。此外,由于算法技術(shù)的邏輯性,受限于當前技術(shù)條件而無法具備較高可解釋性,如對于使用深度學習技術(shù)的黑箱算法,監(jiān)管機關可以要求算法設計者建立訓練語料庫、數(shù)據(jù)庫備查,并建立語料、數(shù)據(jù)可溯源性標準。[29]
其次,算法審查應關注算法的公平性,建立算法的反歧視標準。由于算法設計者的主觀偏見,抑或訓練數(shù)據(jù)本身所蘊含的歧視性信息,算法可能會產(chǎn)生對于特定群體的偏見與歧視。[30]由于算法訓練數(shù)據(jù)源于人類社會,人類社會存在的對于特定群體的歧視不可避免地反映在算法中。[31因此,算法設計者有必要采取數(shù)據(jù)清潔等合理措施盡可能避免算法的歧視行為。從監(jiān)管機關的角度來看,對于具備較高可解釋性的算法,應當對算法本身的設計進行反歧視審查。①由于生成式人工智能技術(shù)邏輯本身所導致的黑箱算法,應關注算法設計者訓練數(shù)據(jù)的選取標準和數(shù)據(jù)清潔措施的實施程度。此外,監(jiān)管機關亦可通過對算法生成結(jié)果的審查來對算法歧視風險進行評估,[32]可以通過設置測試題庫、隨機抽查的方式進行審查,對算法生成結(jié)果進行評估。
最后,算法審查應關注算法是否損害他人權(quán)益及國家、社會公共利益,建立算法的安全性標準。由于生成式人工智能在自然語言處理上的強大能力,社會公眾幾乎不需要什么技術(shù)條件就可使用其生成內(nèi)容。然而,其生成內(nèi)容的準確性與安全性無法得到保障。因此,監(jiān)管機關有必要對算法生成有害內(nèi)容的能力進行評估與審查。具體而言,監(jiān)管機關應當對算法訓練數(shù)據(jù)建立安全性標準,并建立數(shù)據(jù)備案及溯源機制,排除存在虛假有害信息的訓練數(shù)據(jù)。此外,監(jiān)管機關亦可參照算法反歧視標準的審查方法,建立測試題庫并評估測試結(jié)果,設定通過閾值。監(jiān)管機關可以設置關鍵詞目錄,要求算法具備對有違法律法規(guī)及公序良俗的內(nèi)容生成請求的自動化拒絕功能。
2.運行監(jiān)督:生成式人工智能自我訓練迭代的算 法引導
(1)合規(guī)性是算法引導的首要要求。自我訓練迭代是開發(fā)和維護大規(guī)模自然語言處理模型的關鍵環(huán)節(jié)。生成式人工智能的自我訓練是一個復雜且動態(tài)的過程,一般包括初始訓練一生成對話數(shù)據(jù)一迭代自我訓練一質(zhì)量評估一模型修正和調(diào)整一用戶參與和反饋等多個步驟。這個過程是一個持續(xù)的循環(huán)過程,通過多次迭代反饋,算法模型不斷改進以適應用戶需求,提供更高質(zhì)量的對話體驗。[33將上述流程簡化,即為訓練一運行一再訓練的迭代流程。由于自我訓練迭代基于算法而實現(xiàn),而算法黑箱可能導致數(shù)據(jù)不可解釋性、不可預測性和缺乏透明度等問題,最終出現(xiàn)低質(zhì)量、有害或存在偏見和歧視的內(nèi)容,也可能導致欺詐、侵犯隱私等問題。同時,由于自我訓練迭代是一個不斷循環(huán)往復的過程,可能會不斷放大上述結(jié)果所造成的風險與危害。
自我訓練迭代是生成式人工智能的運行環(huán)節(jié),也是關鍵環(huán)節(jié),合規(guī)性是對其算法引導的首要要求。為促進生成式人工智能健康發(fā)展和規(guī)范應用,國家互聯(lián)網(wǎng)信息辦公室等部門于2023年7月發(fā)布《生成式人工智能服務管理暫行辦法》,其中第四條規(guī)定了提供和使用生成式人工智能服務,應當遵守法律、行政法規(guī),尊重社會公德和倫理道德,明確指出了提供生成式人工智能應當合法合規(guī)的要求。按照合規(guī)性要求,基于生成式人工智能自我訓練迭代運行的各環(huán)節(jié)可以有針對性地進行算法引導。在數(shù)據(jù)收集和篩選階段,使用關鍵詞過濾、內(nèi)容審核和敏感內(nèi)容檢測等方法,篩選和排除不適當或有害的數(shù)據(jù),這可以幫助減少低質(zhì)量和不合規(guī)的訓練數(shù)據(jù)。在自監(jiān)督預訓練階段,引導模型生成高質(zhì)量、多樣性和合規(guī)性的內(nèi)容,可以使用多樣性探索算法來確保模型不會陷入單一偏見。
在每個自我訓練迭代環(huán)節(jié)中,引導模型在生成內(nèi)容時設置生成模型的條件和規(guī)則,包括設置生成內(nèi)容的合規(guī)性標準,禁止生成虛假信息或歧視性言論等。為了更好地實現(xiàn)自我訓練迭代,生成式人工智能服務商應當為用戶提供反饋界面,使用戶可以報告不當內(nèi)容或提供反饋,使用算法來自動處理和分類用戶反饋,以便快速響應。此外還應當加強監(jiān)測和審核,使用自動化審核算法,監(jiān)測生成內(nèi)容,及時發(fā)現(xiàn)不當或有害的內(nèi)容,如使用自然語言處理技術(shù)來檢測問題內(nèi)容。在審核機制層面,應當建立多層級審核機制,包括自動化審核和人工審核。[34]自動化審核可以使用算法來標記潛在問題,人工審核可用于最終決策。同時,建立自動化反饋回路,將用戶反饋用于模型的改進。使用算法來處理大量的用戶反饋數(shù)據(jù),并根據(jù)反饋進行模型的動態(tài)調(diào)整和更新。最后,在整個訓練和部署過程中,遵守法律合規(guī)性和倫理準則。引導算法考慮法規(guī)和倫理要求,以確保生成內(nèi)容的合法性和倫理性。
(2)算法引導的多重治理機制。社會治理強調(diào)社會中各種力量、機構(gòu)共同協(xié)作,以管理社會中的各類事務、沖突和問題,實現(xiàn)社會的有序和可持續(xù)發(fā)展。政府是社會治理的核心機構(gòu),但受制于技術(shù)知識和理解局限性、監(jiān)管滯后性、監(jiān)管資源有限性等因素,針對生成式人工智能的運行監(jiān)督需要行業(yè)自律、公眾參與和多方合作相結(jié)合,以實現(xiàn)社會治理目標。[35首先,應當加快生成式人工智能自我訓練迭代算法的國家標準的制定,確保迭代算法在合規(guī)性、安全性和可靠性方面得到保障。其次,為應對自我訓練迭代算法的不透明度與不可理解性帶來的危害,監(jiān)管機構(gòu)可以對開發(fā)者使用的算法提出可解釋性和透明度要求,以確保用戶和監(jiān)管者能夠了解算法的運作方式,保護用戶知情權(quán),降低監(jiān)管成本,提高監(jiān)管效率。而具體的透明度與可解釋性標準則需要在相關監(jiān)管機構(gòu)的指導下鼓勵市場自主制定。[3行業(yè)協(xié)會作為溝通政府與平臺企業(yè)的橋梁與紐帶,需積極推動行業(yè)自律,促進政企合作。2023年7月7日召開的世界人工智能大會“科技倫理治理”論壇發(fā)布了《生成式人工智能倫理自律公約(征求意見稿)》,其中就提到了“生成式人工智能創(chuàng)新主體積極采取具有針對性的技術(shù)和管理措施,防范和應對生成式人工智能生成內(nèi)容的不可靠性、歧視性、有害性,生成式人工智能被誤用濫用等倫理風險”。[37社會公眾是生成式人工智能治理的重要主體,監(jiān)管者應當要求產(chǎn)品服務商提供反饋,賦予公眾自主行使對生成式人工智能算法及算法研發(fā)應用各主體的監(jiān)督、投訴、舉報和申訴權(quán),完善算法引導的外部監(jiān)督機制。
3.結(jié)果篩選:生成式人工智能深度治理應用的算法把控
生成式人工智能作為自然語言處理模型,文本生成是其運行的關鍵環(huán)節(jié)。由于算法輸出的文本并不完全可控,算法系統(tǒng)中的數(shù)據(jù)單一、不完整或帶有社會偏見都將引發(fā)社會治理歧視現(xiàn)象。結(jié)果篩選是確保生成式人工智能文本輸出結(jié)果合規(guī)的關鍵環(huán)節(jié)。[38]
通過結(jié)果篩選保障生成文本的合規(guī)性也需要依靠法治方式來實現(xiàn)。然而目前針對生成式人工智能的法律規(guī)定更多體現(xiàn)原則性,現(xiàn)有的立法多從宏觀的頂層設計角度出發(fā),旨在促進生成式人工智能健康發(fā)展和規(guī)范應用,但往往難以在具體層面產(chǎn)生直接的法律規(guī)制效果。[39]
鑒于結(jié)果篩選是保證生成文本合規(guī)性的關鍵環(huán)節(jié),首先可以制定針對生成式人工智能結(jié)果篩選算法的國家標準目錄,包括禁止性詞匯、主題、敏感信息等,避免算法自動生成違反倫理或法律的有害信息。針對結(jié)果篩選的算法標準應當強制適用于任何生成式人工智能產(chǎn)品,以避免缺乏結(jié)果篩選機制的生成式人工智能產(chǎn)品被濫用。但強制的結(jié)果篩選算法僅適用于滿足生成文本的合規(guī)性目標,屬于最基礎的算法規(guī)制環(huán)節(jié),并不能保證生成文本的正確性。在強制結(jié)果篩選算法之外,鼓勵開發(fā)者研究應用其他結(jié)果篩選算法,提高產(chǎn)品競爭力,優(yōu)化輸出文本內(nèi)容,生成積極健康、向上向善的優(yōu)質(zhì)內(nèi)容。同樣受制于政府治理資源的有限性、技術(shù)的復雜性等因素,相關標準的制定需要政府、企業(yè)和社會各方共同合作才能夠?qū)崿F(xiàn)。此外,在結(jié)果篩選環(huán)節(jié),對于一些復雜和有爭議的信息,還可以進行人工審核,以彌補算法審核的不足。[40前文提到,社會公眾是生成式人工智能治理的重要主體。盡管通過算法控制生成式人工智能的結(jié)果篩選能夠在一定程度上滿足合規(guī)性要求,但這并不意味著經(jīng)過篩選輸出的結(jié)果就是無風險的。建立篩選結(jié)果的用戶反饋機制是算法篩選后的另一道保障,使得用戶能夠及時報告錯誤信息和不適當?shù)膬?nèi)容,避免模型在錯誤或不適當信息基礎上進行自我訓練迭代,從而進一步擴大風險。總而言之,結(jié)果篩選是生成式人工智能算法監(jiān)管的重要環(huán)節(jié),其不僅決定了生成式人工智能生成文本的質(zhì)量與合規(guī)性,對于自我訓練迭代同樣具有重要作用,完善結(jié)果篩選機制能夠使得自我訓練迭代進入良性循環(huán)。
結(jié)語
生成式人工智能的出現(xiàn)與廣泛應用為社會治理提供了一種智慧化的形態(tài)。但怎樣認識、面對、適應智慧化或者數(shù)字化的現(xiàn)狀,還是一個巨大的課題。筆者梳理發(fā)現(xiàn),將生成式人工智能嵌入社會治理體系,存在著“數(shù)據(jù)喂養(yǎng)”局限性與社會治理全面性、結(jié)果輸出隨機性與社會治理穩(wěn)定性、迭代方向效率化與社會治理價值性、技術(shù)發(fā)展權(quán)力化與社會治理政治性等多重張力。為確保最大限度地發(fā)揮算法評估規(guī)制的制度效能,今后必須在準入資格、運行監(jiān)督以及結(jié)果篩選等維度對生成式人工智能參與社會治理進行算法審查、引導把控,從而最終將其融入法治軌道之中。但需要注意的是,算法評估并非萬能的解決方案,其適用本身也應存有一定的邊界。一方面,算法評估難以準確捕捉社會價值的多元性。社會治理是一個系統(tǒng)工程,不僅涉及政府、平臺、公眾等多元利益主體,同時還關涉道德、倫理、法律、經(jīng)濟等多重價值。算法評估作為一種量化分析方式,理解社會治理所蘊含的深層次價值博弈和多元化倫理沖突并非易事。另一方面,算法評估難以全面反映社會治理需求的層次性。算法評估試圖通過結(jié)果篩選來保障生成文本的合規(guī)性,但問題在于這種篩選機制本身就存在一定隨機性,如果用于評估生成式人工智能數(shù)據(jù)集,則存在一定的偏見或不完整情形,那么算法評估結(jié)果也將不可避免地帶有這些不足,影響算法評估的公正性與客觀性。不過,就現(xiàn)階段而言,盡管算法評估機制本身確實存在著一定的局限性和不足之處,但這并不能成為我們否定其固有價值和重要性的理由。畢竟,生成式人工智能作為一種新興的技術(shù),在探索其應用前景以及制定相應的規(guī)制措施時,必然會經(jīng)歷一個相對漫長且復雜的摸索過程。在這個過程中,算法評估機制在某種程度上發(fā)揮著至關重要的作用。其不僅是衡量生成式人工智能技術(shù)性能和效果的重要工具,更是當前消解技術(shù)賦能與科技風險之間矛盾的重要機制之一,對于規(guī)范人工智能的設計、運用,引導其在良性的軌道上發(fā)展,從而真正實現(xiàn)公共治理能力與治理體系的現(xiàn)代化,具有重要的理論和實踐價值。
參考文獻:
[1]畢文軒.生成式人工智能的風險規(guī)制困境及其化解:以ChatGPT的規(guī)制為視角[J].比較法研究,2023(3):155-172
[2]李白楊,白云,詹希旎,等.人工智能生成內(nèi)容(AIGC)的技術(shù)特征與形態(tài)演進[J].圖書情報知識,2023,40(1):66-74.
[3]趙豪.人工智能賦能社會治理的法治路徑[J].法律適用,2024(9):148-163.
[4]王佃利,滕蕾.數(shù)字社會治理的場景構(gòu)建、運行邏輯與公共價值實現(xiàn)[J].山東大學學報(哲學社會科學版),2024(5):125-133.
[5]楊福忠,姚鳳梅.人工智能賦能社會治理之維度及風險法律防治[J].河北法學,2022,40(11):89-102.
[6]陳雙泉,韓璞庚.人工智能技術(shù)嵌入社會治理:創(chuàng)新、風險與防范[J].學習與探索,2024(7):142-149.
[7]孫賓.數(shù)字技術(shù)賦能社會治理現(xiàn)代化的作用機理、梗阻與路徑[J].四川行政學院學報,2025(1):18-28,100-101.
[8]鄒開亮,劉祖兵.論類ChatGPT通用人工智能治理—基于算法安全審查視角[J].河海大學學報(哲學社會科學版),2023,25(6):46-59.
[9]下素.人工智能中的“算法歧視”問題及其審查標準[J].山西大學學報(哲學社會科學版),2019,42(4):124-129.
[10]高志宏.大數(shù)據(jù)時代“知情一同意”機制的實踐困境與制度優(yōu)化[J].法學評論,2023,41(2):117-126.
[11]丁國峰,壽曉明.生成式人工智能算法的法律風險及其規(guī)范化防控[J].云南大學學報(社會科學版),2024,23(3):107-119.
[12]黃鋯.數(shù)字平臺算法侵害的行政法律責任論綱[J].比較法研(6):55-66.究,2023(6):184-198.
[13]胡小偉,劉麗.人工智能風險的全流程規(guī)制邏輯及制度因應[J].學習與實踐,2024(5):22-30.
[14]王俊秀.ChatGPT與人工智能時代:突破、風險與治理[J].東北師大學報(哲學社會科學版),2023(4):19-28.
[15]劉霜,張瀟月.生成式人工智能數(shù)據(jù)風險的法律保護與規(guī)制研究——以ChatGPT潛在數(shù)據(jù)風險為例[J].貴州大學學報(社會科學版),2023,41(5):87-97.
[16]孟慶麗.ChatGPT對社會治理的影響及政策建議[J].中國電信業(yè),2023(4):35-37.
[17]何哲,曾潤喜,秦維,等.ChatGPT等新一代人工智能技術(shù)的社會影響及其治理[J].電子政務,2023(4):2-24.
[18]顧男飛.生成式人工智能的智能涌現(xiàn)、風險規(guī)制與產(chǎn)業(yè)調(diào)控[J].荊楚法學,2023(3):70-83.
[19]鄧伯軍.人工智能的算法權(quán)力及其意識形態(tài)批判[J].當代世界與社會主義,2023(5):24-32.
[20]許曉東,鄺巖.算法權(quán)力在治理體系中的產(chǎn)生與規(guī)制[J].社會科學文摘,2024(10):100-102.
[21]李森.風險防范視閾下生成式人工智能數(shù)據(jù)安全的治理路徑——以GPT類模型為例[J].西藏民族大學學報(哲學社會科學版),2023,44(6):139-145.
[22]李向華.三個平面視角下科學術(shù)語泛化概念整合與討論[J].中國科技術(shù)語,2023,25(3):11-17.
[23]陳海霞,梁紅.術(shù)語變異的認知社會語言學探究[J].中國科技術(shù)語,2023,25(3):3-10.
[24]楊章文.ChatGPT類生成式人工智能的意識形態(tài)屬性及其風險規(guī)制[J].內(nèi)蒙古社會科學,2024,45(1):57-64.
[25]趙麗濤.網(wǎng)絡空間治理的倫理秩序建構(gòu)[J].中國特色社會主義研究,2018(3):85-89.
[26]JBurrellJ,F(xiàn)ourcade M.The societyofalgorithms[J].AnnualReview of Sociology,2021,47(1):213-237.
[27]黃尹旭.平臺經(jīng)濟用戶的責任規(guī)則重構(gòu)一—基于未授權(quán)支付的研究[J].華東政法大學學報,2022,25(3):80-90.
[28]紀守領,李進鋒,杜天宇,等.機器學習模型可解釋性方法、應用與安全研究綜述[J].計算機研究與發(fā)展,2019,56(10):2071-2096.
[29]張欣.生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管[J].現(xiàn)代法學,2023,45(3):108-123.
[30]章小杉.人工智能算法歧視的法律規(guī)制:歐美經(jīng)驗與中國路徑[J].華東理工大學學報(社會科學版),2019,34(6):63-72.
[31]王夙.人工智能發(fā)展中的“算法公開”能否解決“算法歧視”?[J].機器人產(chǎn)業(yè),2019(3):17-22.
[32]Gillis T B,Spiess J L.Big data and discrimination[J].TheUniversity of Chicago Law Review,2019,86(2):459-488.
[33]黃尹旭.Web3.0時代重構(gòu)競爭法治的開放和統(tǒng)一[J].東方法學,2023(3):98-107.
[34]黃尹旭,楊東.金融科技功能型治理變革[J].山東社會科學,
[35]楊東,黃尹旭.元平臺:數(shù)字經(jīng)濟反壟斷法新論[J].中國人民大學學報,2022,36(2):117-127.
[36]張凌寒.算法自動化決策與行政正當程序制度的沖突與調(diào)和[J].社會科學文摘,2021(2):69-71.
[37]《生成式人工智能倫理自律公約(征求意見稿)》發(fā)布[EB/OL].[2023-07-08].https://news.qq.com/rain/a/20230708A06IK000.
[38]劉友華.算法偏見及其規(guī)制路徑研究[J].法學雜志,2019,40
[39]丁曉東.基于信任的自動化決策:算法解釋權(quán)的原理反思與制度重構(gòu)[J].中國法學,2022(1):99-118.
[40]張凌寒.算法規(guī)制的迭代與革新[J].法學論壇,2019,34(2):16-26.2021(7):140-145.
Risk Regulation of Generative Artificial Intelligence in Social Governance: Taking Algorithm Evaluation as the Starting Point
LI De-jin',LIAi-min(1.LawSchool/LawyerSchool,GuangxiNormalUniversityGuilin541004,China;2.chool of Marxism,GuiLin Tourism University,Guilin ,China)
Abstract:The deep involvementof generativeartificial intelligence insocial governance is somewhat inevitable. However,duetothetechnicalcharacteristicsofartificialintellgencealgorithms,thereexistsacertaintensionbetween thecomprehensiveness,stability,fairness,and administrative naturerequiredfor social governance,which holds further value and significanceforexploration.The establishmentofanalgorithm evaluationmechanismcan effectively alleviate thetension betweenartificial inteligenceandsocial governance.Throughalgorithmevaluation,itis possible to balancethemassivedataacquisitionof generativeartificial intellgence withthesensitivedataidentificationofsocial governance,harmonize thenatural language processing of generative artificial intellgence with the discourse system expressionofsocialgovernance,reconciletheefciencyoptimization intentionofgenerativeartificialintelligence with the pursuitoffairnessand justice insocial govermance,and integratetheself-iterationdirectionof generativeartificial intelligencewiththeideologicaldominanceofsocial governance.Therefore,itisnecessrytoestablishanalgorithm evaluation mechanismthroughouttheentireprocessof integration,application,andresultoutputofgenerativeartificial intellgenceand social governance.This includesalgorithmreviewandrecord-keepingduringtheaccess stage,technical operationsupervision during theapplication stage,andresult screeingguided by socialistcore values during theresult output stage.
Keywords:generativeartificial intelligence;social governance;algorithmevaluation;algorithmregulation
(責任編輯:侯苗苗)