


【摘要】人工智能正在引發一場遠超乎于技術場域的時代變革,以大模型為代表的生成式人工智能塑造著未來的主要技術進路。盡管我國已成為一個人工智能大國,但在核心理論創新、基礎底座建設、關鍵軟硬件和生態方面還有待提升,邁向人工智能強國還有很長的路要走。在此情況下,如何在保障人工智能有力、有序、有益發展的同時,實現對人工智能的善治是亟需回應的關鍵問題。因此,平衡好發展與治理之間的關系,踐行價值對齊的倫理思路,吸收人工智能國際治理有益經驗,探索一條理念開放、主體多元、對象分層、工具靈活的治理新思路,成為探索人工智能善治路徑的核心命題。
【關鍵詞】生成式人工智能 新興技術治理 價值對齊 敏捷治理
【中圖分類號】F49/TP18 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2024.14.002
引言
任何技術發展都會經歷開始孕育—快速發展—成熟完善—穩定并趨于退化的生命周期。[1]任何新技術的成長都不是一蹴而就的。新技術從舊技術中孕育,汲取舊技術優勢將其保留,摒棄舊技術的劣弊。技術進步的本質在于從一種技術系統到另一種技dmEj82KFI5saHnifgrchmfc9K6UG0THSSTCkPgBV/1Q=術系統的過渡。[2]從來也沒有孤立存在的“一種技術”,一種技術總是與其他技術聯系在一起。人工智能技術正在塑造新的技術體系,引領以其為核心的技術“中心環繞體系”變革,成為變革社會的力量。人工智能作為一種新興的顛覆性技術,其技術治理也難以擺脫科林格里奇困境,這使決策者面臨兩難選擇。尤其是對生成式人工智能(AIGC)而言,一方面,在技術得到深度開發和廣泛應用之前,我們無法預知技術可能產生的后果;另一方面,當技術已經深刻地改變了人類社會時,我們又無法確保對其的控制和掌控。這樣一種現實性迫切呼吁適應性的治理方式,敏捷治理作為應對生成式人工智能新態勢的治理模式,正是在這樣的背景中產生,并成為被持續探索的治理路徑。
生成式人工智能技術發展現狀概述
人工智能研究既是人類對外部世界的求知,更是破解人類編碼、深刻地自我認知的探索過程。對人工智能的理解也隨著這一探索過程不斷深化:從最初的計算智能(快速邏輯運算、海量儲存能力),發展到感知智能(“聽”“說”“看”“觸”能力),再到更高級的認知智能(理解、詮釋能力)階段。數理邏輯推理、人工神經網絡的構建、獎懲機制的行為仿生等分別將人工智能研究向前推進。丹尼特(D. C. Dennett)拋出輪子是否存在于自然界這一問題引出了人工智能發展的“認知之輪”問題。[3]不過,實踐表明任何單一進路通向成功的可能性都是微乎其微的,基于多重思路的融貫,才有了當今的人工智能大模型。縱觀生成式人工智能的創新與發展,總體而言可以有如下概括。
其一,生成式人工智能自其發布以來在技術上已經取得了長足的進步。從數量上看,自2019年以來,全球已發布基礎大模型百余個,其中美國發布模型多達182個,中國發布30余個。[4]從模型質量看,人工智能系統的推理能力已經有了極大的提升。美國和加拿大的研究人員開發了MMMU系統(Massive Multy-Discipline Multimodal Understanding and Reasoning Benchmark for Expert AGI),即面向專業AGI大規模多學科多模態理解和推理基準測量。它包含約11500道大學水平的問題,涉及六個核心學科(藝術與設計、商業、科學、健康和醫學、人文和社會科學以及技術和工程),問題形式多樣,是迄今為止對人工智能感知、知識和推理最嚴格的測試之一。通過該測試可以看出,其中多個大模型都表現良好,甚至在一些領域大模型能力逐漸接近人類專家(如圖1所示)。這充分展現了大模型的技術潛力和未來可見的發展前景。從模型應用角度看,大模型的進化速度和能力提升也是驚人的。例如,圖像生成模型Midjourney短時間內已經迭代數次,顯示出生成超現實主義圖像能力的顯著提升,如今其所創建的圖像已逼真度驚人。
其二,產學研合作日益緊密,產業界作為大模型發布的主力軍扮演著越來越重要的角色。從模型發布看,自2019年以來,谷歌在基礎模型發布數量上領先,共計40個,其次是OpenAI,共計20個。清華大學在非西方機構中排名第一,發布基礎模型共計7個,而斯坦福大學在美國學術機構中排名第一,發布基礎模型共計5個。[5]值得注意的是,2014年前后,學術界在機器學習模型的發布方面還處于領先地位。此后,產業界便占據了主導地位。2023年,產業界發布了51個引人關注的機器學習模型,而學術界只有15個。特別需要指出,2023年有21個優質大模型來自產學研合作,創下新高。現在,創建尖端的人工智能模型需要大量的數據、計算能力和財務資源,而學術界單方面已無法保障這些資源供給,這也促成了在大模型研究和發布上的產學研合作。
其三,大模型的模型訓練不僅耗資巨大,其過程也不環保,這也使得模型建構競爭飽受環保主義的詬病。圖2直觀地顯示了AI指數估算的所有AI模型的訓練成本,模型訓練成本隨著時間的推移急劇增加。AI模型的訓練成本與其計算要求之間存在直接關聯,計算訓練需求越大的模型,訓練成本就越高。同時,大部分基礎模型開發商(如OpenAI、谷歌、Anthropic和Mistral)都沒有報告訓練中的碳排放量。訓練人工智能模型的環境影響可能難以估量。雖然推理的每次查詢排放量可能相對較低,但當模型每天被查詢數千次甚至數百萬次時,總體應用耗能可能會超過訓練耗能。當前對模型碳排放的研究還很少。Luccioni等人于2023年發表的一項研究是較早全面評估模型排放的研究之一。圖3展示了各種模型任務中1000次推理的碳排放量,表明圖像生成等任務的碳足跡遠高于文本分類。
綜合斯坦福大學年度《人工智能指數報告》及相關學術研究不難看出,生成式人工智能呈現井噴式發展的態勢。在國內,各類垂直大模型應用更是如雨后春筍般在市場涌現,該現象表明市場對生成式人工智能應用前景的樂觀估計。但也必須指出,大模型自其誕生以來亦伴隨著諸多隱患和風險。如何平衡發展與治理,構建“兩個輪子走路”的人工智能發展與治理體系迫在眉睫。本文將在總結風險挑戰的基礎上,通過中美歐人工智能治理的比較研究,探索適合我國國情的人工智能治理之路。
人工智能應用的風險挑戰及綜合效應
生成式人工智能通用性、涌現性、多模態的新特征勢必帶來新一輪的革命性變化,其影響不僅是技術層面的,更是經濟、政治、社會等各層面的。生成式人工智能具有強滲透性,對社會變革的整體影響是系統性的。它勢必推動產業的數智化轉型升級,產業布局面臨又一次新的重大調整,數據、算力、算法相關產業發展將大幅加速。AIGC促進了內容生產方式的顛覆性變革,通過降低內容創作門檻使技術“平民化”,人機分工的混合勞動力形式將成為勞動主導范式。生成式人工智能將助推智力密集型服務產業規模化發展,使人工智能成為專用領域“顧問”,并作為“外腦”賦能專業場景高效作業,通過建模、訓練、優化等步驟推動知識模型生成。然而,也正是因為其勢如破竹的變革力,導致風險挑戰一直伴隨技術發展并日益凸顯。
總體看,人工智能的潛在風險可以主要劃分為兩類。一類是綜合性風險,涵蓋了個體、社會、國家、人類四個層面。從個體層面看,包括算法歧視和偏見、錯誤信息、隱私泄露、深度偽造和詐騙、知識產權爭議等;從社會層面看,主要有勞動力結構挑戰、數字鴻溝和社會不公、引發勞動者心理問題、資源消耗增加碳排放量等;從國家層面看,包括意識形態滲透、武器制造引發失控風險、國際權力分布不均衡加劇等;從人類層面看,引發了對人類未來地位的思考、硅基和碳基沖突、人機互構新理念等。另一類是特定場景中的風險,主要有電商場景中的虛假宣傳與欺詐、大數據殺熟、推薦誤導、過度消費等;醫療領域的不可解釋風險、歧視偏見、隱私泄露、反饋與監管風險等;教育領域的沖擊應試教育、學生過度依賴、學術誠信危機、重塑教育生態等;科研領域的沖擊人文社科研究、新的知識生產方式以及相應的科技倫理挑戰。
我們可以從人工智能的產業效應、政治效應、社會效應三個層面對人工智能的社會影響和綜合效應作一相對整體的把握。
人工智能應用的產業風險與效應。人工智能技術已經成為全球經濟增長的新動能和主導力量,對傳統經濟模式的轉型、全面提升勞動生產率、新價值體系下的高質量發展發揮著舉足輕重的作用。宏觀上,“技術奇點”刺激“經濟奇點”。一方面,人工智能技術在制造業等生產領域發揮積極作用,直接影響生產力質的方面;另一方面,人工智能技術通過改變勞動方式變革生產關系,適應新技術推動下的生產力發展。馬克思認為勞動生產力是由多種情況決定的,其中包括:工人的平均熟練程度,科學發展水平和它在工藝上的應用程度,生產過程的社會結合,生產資料的規模和效能,以及自然條件。智能技術滲透于生產活動的部分要素,如生產設備、組織形式、智能供應鏈等,在經濟增長中的貢獻是直接的、強勁的。人工智能技術應用日益成為衡量社會經濟發展的尺度,成為產業結構和社會結構是否跟上時代潮流的重要指標。
智能技術催化生產制造適應智能社會的新變革。智能化生產和定制化生產縮短了生產時間和銷售時間,加速了資本周轉,優化了資本結構。加上大模型的加持,其能夠通過大數據與智能分析平臺,利用云計算將工業機器生產數據轉化為有用信息,實現生產的高效、精確、環保、綠色。大量智能設備的引入提升了工廠生產商品的精確性,優化了產品質量。同時,產銷流程盡在掌握,生產過程的可控性得以提升,生產線數據在智能技術的幫助下被采集、整理、分析,使得生產計劃和生產進度的安排更加合理。此外,智能化還提升了產品的后期服務水平。生產中智能產品與物聯網連接,記錄已進行的加工步驟和質量指標,將產品指引向最優路徑,生產完成后,智能產品通過在線連接的方式與制造企業后臺服務流程保持聯系[6]。
人工智能應用的政治風險與效應。溫納的技術政治學認為,技術對政治力量、政治格局具有影響力。人工智能對政治的影響力是前所未見的。近年來美國挑起了中美之間的科技戰、金融戰、貿易戰、輿論戰等一系列激烈競爭博弈,其中科技戰為核心領域,科技戰中又以芯片制造和通訊安全為中心的技術戰影響巨大,引發了全球供應鏈的動蕩。人工智能已經成為國與國之間、聯盟之間、地區之間的主要競爭內容。與之相伴的是國家安全和軍事實力層面的智能技術競爭,任何一個大國都不想在這場決定命運的競爭中丟失主動權。上述情況使得智能技術的政治性凸顯。
人工智能關系國家安全。隨著國家安全概念被泛化,尤為明顯的是,數據的控制和運用已經不再單純是個經濟問題,而是涉及國家安全,例如,數據可能被他國用于情報分析。數據主權是一個國家對其行政轄區內個人、企業和組織所產生的數據擁有的最高權力。[7]誰掌握了數據,誰就擁有了數據主權。2022年7月,國家互聯網信息辦公室對滴滴全球股份有限公司依法作出網絡安全審查相關行政處罰的決定,其中涉及的一項違法違規行為即“違法違規運營給國家關鍵信息基礎設施安全和數據安全帶來嚴重安全風險隱患”[8]。人工智能在全球范圍內引發了一場史無前例的關系國家安全的科技競爭,經濟全球化面臨前所未有的考驗。
人工智能正在改變國家治理模式。人工智能技術為國家的高效運行提供了新的基礎條件。它有助于完善國家治理體系,使之在剛性治理和柔性治理之間獲得平衡。[9]智能技術或直接或間接地轉變了政府職能。這主要得益于人工智能在很大程度上打開了權力“黑箱”,政府信息公開保障了公民的知情權,權力的運行、流程、決策漸趨開放,民眾開始深入了解政治運行機制。人工智能推動了公民體系的健全發展。民眾擁有了更多渠道以獲取各方面的政治、政策信息,這促進了公民意識的覺醒。這就要求政府必須應對新情況,重塑角色,從傳統的管理者轉變為服務者、協調者甚至合作者,加強與其他治理主體間的信息與資源共享、合作共治。
人工智能發展對全球治理提出了新挑戰。人工智能時代,全球體系的領導權正在出現新變化。從權力邏輯看,美國在人工智能技術領域仍有強大實力,中國雖正在趕超但仍有差距,發達國家特別是美國希望鎖定其在智能技術領域相對于欠發達國家的優勢。[10]因此,西方發達國家在智能技術上仍舊保持著主導權和話語權。從沖突邏輯看,生成式人工智能的多模態發展能夠改善文明間的對話狀況,不同文化群體交流的可能性和概率提升,進而也可能形成新的沖突和適應性問題。這對全球治理提出了新要求和新挑戰。為了應對霸權邏輯,僅靠在國際社會中呼吁平等、公平和正義的價值觀無益于問題的實質性解決。需要在國家之間開展合作,發揮國際組織在全球治理中的功能。為了應對沖突邏輯,要尋求國際社會在智能技術發展中的共識,通過協商機制應對智能化過程中的不和諧因素,提出新的符合全球發展利益的人工智能發展新方向。
人工智能應用的社會風險與效應。社會治理步入智能化時代,人工智能被用于社會治理的各個方面。總體上,人類步入了智能社會。自主系統已經部署在我們最重要的社會機構中,然而,還沒有統一的方法評估此類應用對人類社會的持續性影響。[11]
人工智能重塑了勞動結構以及不同層次勞動者的勞動過程。人工智能可能將會取代體力勞動,甚至部分腦力勞動。隨著智能技術應用的不斷深化,工人的工作形式從主導操作性向輔助操作性轉變。與傳統勞資關系相比,智能技術背景下的勞資關系在勞動條件建立、勞動管理方式和勞動報酬獲取方式上出現了很多新變化。[12]人工智能對就業的影響是顯而易見的,不僅重塑了勞動結構,還在結束某些舊行業、就業崗位的同時,創造新的就業。根據OpenAI的研究,未來受影響最大的行業是數據處理、信息服務、出版業和保險行業,對于80%的美國人而言,至少有10%的工作任務會受到影響[13]。最近備受關注的自動駕駛汽車引發的網約車司機對失業的恐慌,事實上已經傳遞出一個信號,即人工智能引發的失業問題已經不再是未來話題,必然掀起新一輪對人工智能代替勞動就業的討論。也有學者對人工智能對就業的沖擊持樂觀態度。例如,戴文波特(T. H. Davenport)認為增強人工智能應用有利于業務流程和模型的快速創新。一些關于自動化的研究表明:一方面,人工智能傾向于完成自動化任務,而非取代整個工作流程;另一方面,大多數管理人員并不希望大規模的自動化和智能化。[14]這使人類面臨一個艱難的選擇:是改變我們的經濟體制以應對由此產生的社會動蕩并保持經濟增長,還是承受一個非常困難的時期,同時目睹普遍貧困和提高生產力的矛盾。[15]
人工智能正在變革現有分配方式。其一,人工智能正在改變市場結構,使掌控數據的大企業在市場的信息不對稱上占有絕對主動權,進而讓該類企業獲得更多盈利。高技術企業之所以能比以往有更多發展機會,往往是利用了數據優勢地位提升市場份額,少部分人利用智能技術優勢獲取巨額利潤,導致貧富差距進一步拉大。其二,智能化對不同技能水平勞動者收入的影響不同。就目前的情況看,智能化主要取代的是低技能勞動者。隨著智能化的深入,尤其是大模型的推廣,部分高技能勞動者也會在一定程度上受其影響。其三,從生產要素看,資本和技術成為主導要素,財富向少數掌握資本和技術的群體流動。由于前兩點,智能技術對市場結構的沖擊和對勞動力成本的拉低使擁有不同生產要素群體的收入差距進一步拉大。智能技術造成了分配的不均衡,進而影響社會公平。
人工智能引發的一系列社會變化、社會問題都需要再次依靠人類智慧善用智能技術進行社會治理。這從上述智能革命對全球治理、國家治理和政府轉型的影響中便可見一斑。社會結構、勞動結構、社會關系、社會公平從來不是社會發展面臨的新議題,只不過在智能社會背景下,出現了新挑戰。因此,智能時代呼吁智能治理更好地應對新挑戰。智能治理包括反治理(智能低效、技術怠工、智能破壞、官僚主義智能化、過度治理)和再治理(防范專家權力過大的政治風險),對社會的正常運行所發揮的作用是建設性的[16]。繼續在理性與感情、自我與他者的交際中爭論智能革命的社會問題及應對方案問題,是極其有益的。[17]
實現人工智能善治的敏捷治理思路
人工智能的國際治理經驗。人工智能治理日益成為國際競爭的戰略要地。一方面,美國利用其全球霸權進行“長臂管轄”,試圖從芯片管制、標準規則等方面扼制我國人工智能發展;另一方面,各國都在人工智能治理領域積極運作、搶占先機,因為治理背后緊密關聯的是標準與規則制定,治理主動權直接關系發展主動權。歐盟與美國在人工智能治理領域扮演著引領者的角色。
歐盟作為世界范圍內人工智能立法的領跑者,在《數字市場法案》(DMA)、《通用數據保護條例》(CDPR)等文件基礎上,積極推動統一立法工作,近期《人工智能法案》取得重要進展,歐盟委員會和27個會員國就該法案達成協議。該法案自2021年提出以來,經過了長時間的討論、協商談判,為人工智能治理提供了全球首部硬法,使得歐盟在安全、可信、有道德的人工智能領域成為國際規則制定的領跑者。歐盟在技術和產業均不夠發達的情況下,通過規則制定,一方面,填補了人工智能道德領域的空白,成為全球標準制定者;另一方面,也為自身人工智能發展提供了基本保障,以避免其他國家人工智能產品的沖擊和風險。
《人工智能法案》以保護人的基本權利為核心,圍繞6項基本原則:人類主體和監督,技術穩健性和安全性,隱私和數據治理,透明度,多樣性、非歧視和公平,社會和環境福祉。根據人工智能系統對公民基本權利的威脅程度進行分級,采取分級治理的監管模式。該法案將人工智能風險劃分為四個等級:對人類安全和權利有明顯威脅應被徹底禁止的不可接受風險;對個人健康、安全及基本權利有重大危害影響的高風險;使用者能意識到與人工智能互動并自主判斷的有限風險;除上述之外的合規卻存在一定風險的輕微風險。值得注意的是,歐盟提倡實現監管和發展的平衡,對高風險系統的監管是該法案的核心,并將ChatGPT劃定為高風險的人工智能系統。
歐盟的《人工智能法案》也受到了一些質疑,質疑主要集中于高風險人工智能系統監管方式的可操作性上。此前《人工智能法案》推進相對順利的關鍵在于,AI監管和發展并不沖突。歐盟延續GDPR理念,將數據安全治理體系作為監管核心,以用戶個人隱私為主的數據安全保護主要在商業領域,而歐盟國家人工智能介入產業發展并不以商業應用為主。如德國只專注于生產制造業中的人機協同,不會出現個人隱私數據問題;法國以人工智能教育和研發為主,商業應用雖不少,但也并非其主要人工智能布局領域。但當下情況正在發生變化,基礎模型的出現導致歐盟AI監管和發展出現本質沖突。ChatGPT展現的巨大潛力,預示著基礎模型將對產業產生顛覆性影響,很可能導致歐盟原先的人工智能產業布局重新調整。換言之,歐盟不確定未來是否也會需要開發、利用大模型來實現傳統產業的轉型升級,而對于基礎模型的嚴格監管很可能導致歐盟在未來人工智能產業化時代落后甚至被淘汰。
美國對人工智能的監管要求較少,主要以安全原則為主,結合“聯邦—州”二元立法結構,建立符合產業現狀的治理模式。美國的人工智能治理強調個人隱私保護和產業發展的平衡,將提升透明度和反對歧視作為重要準則,利用技術標準和規則指南促進行業自律。相較于歐盟,美國的國家立法意愿并不強烈。
美國的人工智能治理展現出以下三個特征:一是以行政令為主,相比于出臺具有極強約束力的法律文件,更側重于提出AI監管原則和框架,如2020年發布的《人工智能應用監管指南》提出10項AI監管原則,2022年發布的《人工智能權利法案藍圖》提出負責任地使用AI路線圖,2023年發布的《人工智能風險管理框架》提供了可參考的AI風險管理框架。2023年9月,美國第一個嚴格、全面的立法藍圖——《兩黨人工智能立法框架》被提出,但尚未被國會通過。
二是地方立法較多,美國已經有眾多州推出了關于人工智能的立法,其中馬里蘭州、加利福尼亞州、馬薩諸塞州、華盛頓州都已通過超過5部的立法。
三是以行業自律為主,相較于監管,美國更關心人工智能產業的創新發展。2023年以來美國行業自律變得更加主動,科技巨頭主動尋求與相關機構進行合作,如2023年8月,美國白宮與7家頂級人工智能公司,包括谷歌、微軟、亞馬遜、Meta、OpenAI、Anthropic和Inflection達成共識,各公司都同意在開發人工智能方面作出一系列自愿承諾,包括允許獨立專家在公開亮相之前評估工具,研究與人工智能相關的社會風險,并允許第三方測試系統漏洞。
與此同時,美國在人工智能立法方面也有所動作。2023年10月,民主黨和共和黨參議員聯合提出兩黨法案,要求創新主體對AI生成的內容和聊天機器人進行明確標注和披露;要求開發人員在AI生成內容上添加清晰且顯著的標簽;聯合來自政府、學術界、媒體界和AI開發的領導者成立一個工作組,重點關注識別AI生成內容的最佳實踐和披露情況。同月,總統拜登簽署的《關于安全、可靠和值得信賴的開發和使用人工智能行政令》提出了8項目標,要求15家領軍企業自愿承諾推動安全、可靠、可信的人工智能發展。同年11月又推出了《2023年人工智能研究、創新和問責法案》,鼓勵人工智能創新的立法舉措和建立問責框架。該法案提出人工智能系統分類方法、透明度要求及相應監管手段,也透露了未來美國生成式AI的監管方向主要是對“為人類作者和人工智能生成的內容提供真實性和出處信息”的手段的開發和標準化。
我國人工智能治理經驗。我國對人工智能的治理歷經了摸索治理理念、對象、主體、工具的探索式治理;以柔性規制方式為我國人工智能治理的基本態度而面向國際社會的回應式治理;通過多部門聯動出臺法律法規等硬性規制工具的集中式治理;以及適應技術變化,主動采取剛柔并進,增強社會抗風險韌性的敏捷式治理這四個階段。[18]
在回應式治理階段,針對國內行業問題,我國出臺了一系列軟性規則。如《新一代人工智能治理原則——發展負責任的人工智能》《國家新一代人工智能標準體系建設指南》等,堅持以創新發展為導向,積極推動行業發展,塑造了有利于人工智能發展的大氣候;再如《新一代人工智能發展規劃》《促進新一代人工智能產業發展三年行動計劃(2018-2020年)》的出臺,為人工智能發展規劃了明確的時間表與路線圖。在集中式治理階段,我國推動各部門聯動,針對性地采取整治措施,對企業的違規行為進行了規范和整頓,并相繼在數據維度、算法維度、平臺維度頒布了一系列的法律法規,同時及時更新了行業標準與倫理規范。
從全球范圍看,我國較早制定了人工智能國家戰略,積極推動人工智能治理工作,堅持多維度、多領域、多層次的整體治理方針。重視整體規劃,制定了國家級的人工智能發展規劃;加強機構建設,成立了國家新一代人工智能治理專業委員會;關注垂直領域,出臺相關政策和舉措促進發展與治理的平衡;重視法律法規的完善,由國家互聯網信息辦公室主導監管規制;參與國際治理,積極在國際舞臺發出中國聲音。
總而言之,我國現階段人工智能治理采取了軟硬法兼施的路徑。國家立法上,我國先后頒布了《中華人民共和國網絡安全法》《中華人民共和國數據安全法》《中華人民共和國個人信息保護法》,下一步應積極推進人工智能立法工作,集思廣益探討人工智能法草案。監管規制上,我國先后發布了《關于加強科技倫理治理的意見》《生成式人工智能服務管理暫行辦法》《科技倫理審查辦法(暫行)》《全球人工智能治理倡議》,接下來應落實軟法規制,促進原則、標準、指南、意見的落地,助力人工智能健康發展。地方舉措上也有諸多進展,如北京市人民政府辦公廳印發了《促進北京市通用人工智能創新發展若干措施》,杭州市人民政府辦公廳印發《關于加快人工智能產業創新發展的實施意見》等,支撐產業創新生態,發揮典型示范引領作用。總體上,我國人工智能治理形成了中央與地方合作、公共部門與私營部門協調的多層次整體布局。
然而,隨著人工智能時代的到來尤其是生成式人工智能的快速發展,我國人工智能治理工作也面臨著新問題、新挑戰。僅僅沿用過去的治理辦法已難以應對新形勢下人工智能發展的迅猛勢頭,如何規避新一代人工智能帶來的新風險,需要構建適應新一代人工智能發展的治理框架,真正將問題發現與應對措施落到治理實踐中,這也正是敏捷式治理嘗試回答的主要問題。
構建新一代人工智能治理模式——敏捷治理。ChatGPT目前取得的成果為通用人工智能的未來發展注入了一劑強心劑,使人們的注意力轉向人工智能大模型機制中可能產生的“涌現”現象。技術上,“涌現”基于高質量大數據、超強算力、智能算法的基礎技術架構,通過詞向量、句向量的表達將概念問題轉化為數學問題,產生“超以象外,得其環中”的效果。結果上,大模型已經在某種程度上展現出強人工智能的部分能力,甚至在一些領域創造了人工智能替代人的現實可能性。生成式人工智能對治理模式提出了新挑戰和新要求。
敏捷治理旨在構建穩健可行的人工智能倫理與治理框架。[19]它強調監管的節奏和力度,以及治理手段的適應性,是一套兼具柔韌性、流動性、靈活性的模式方法,嘗試突破傳統的監管與被監管思維,構建互動的監管關系,形成協同共治的體系。針對新興技術發展的特性,治理需要重新考慮法律假設、風險研判和利益平衡三個維度的問題。[20]因此,踐行敏捷治理必須在治理理念、治理主體、治理對象、治理工具多個維度形成耦合機制,才能實現真正的善治。
治理理念上,堅持創新導向、風險規制相結合的系統思路,妥善處理技術創新和規范治理之間的矛盾。以確保人工智能安全可靠為底線,鼓勵企業大膽創新,善用生成式人工智能賦能經濟發展。只談治理不談發展必定造成治理的空洞化。雖然人工智能作為顛覆性技術不可避免會帶來風險,但必須防止技術被妖魔化,對新興技術應當保持寬容度,容許其在可控的范圍內發生問題,再糾正問題。從國際經驗上看,美國強調科技創新和產業發展,歐盟重視價值導向的強監管,這說明,維持監管與發展的平衡并不容易。如果在技術發展初期設置過高門檻,勢必阻礙創新,敏捷治理的核心理念就是要保持開放性和靈活度。
治理主體上,堅持多元參與、協同互動的基本導向,需要改變政府與企業在傳統治理模式中的關系,政府與企業不再是監管與被監管的關系,而是以協同合作實現治理目標為導向的互動關系。政企之間搭建溝通渠道,政府需要準確掌握行業動態,企業需要積極參與相關政策動向。在這一過程中,學術界可以作為有效的溝通渠道和交流平臺,推動政策界、學術界、產業界的良性互動,以確保人工智能的良善發展為共識,在政策互動討論中形成解決方案。應建立多方參與的測評體系,搭建風險評估平臺,通過普遍接受和認可的方式測評新一代人工智能,完善標準體系,建立容錯機制,在協同互動中避免安全漏洞和風險。
在治理對象上,應踐行上下結合、分層治理的基本準則,重點做好對數據、算法、平臺的治理。數據方面,要兼顧數據利用和數據保護,保證效率性和規范化的協調,做好一體化和全局性的統籌。算法方面,應將算法嵌入社會體系中進行評估,以體系化的思維為算法向善提供解決方案。平臺方面,建構諸利益相關方共同參與的協同體系,在平臺監管中兼顧好創新和發展之間的關系。總體上要針對共性的數據和算法問題形成普遍的底線約束,對企業和平臺的治理要在充分調查和分析的基礎上形成規范。此外,應針對不同的應用場景采用個性化的治理方法和手段,避免規則泛化導致的治理手段與目標問題不匹配的情況。
治理工具上,踐行靈活運用、剛柔并濟的基本方法,形成方法有梯度、應對有緩急的多重手段。一是要審慎調研我國人工智能專項立法的必要性,在現有法律法規的基礎上完善制度建設。二是要落實目前已經出臺的相應規則和規范,在實踐中考察辦法、準則的可行性。三是在科技倫理的整體規劃下研究人機對齊的實踐路徑,爭取在倫理對齊方面有所突破。四是在國際上通過人工智能治理全球倡議展現我國負責任大國形象。治理工具既包括宏觀層面的法律法規、倫理準則,也包括中觀層面的行為準則,以及微觀層面的技術標準、監管技術和企業自我規制,應根據應用場景的具體情況采用適當的治理工具。
結語
當今人類社會是一個高度技術化的社會,回答如何治理人工智能的問題,就是在回答如何處理好人類與技術關系的問題。人工智能迎來了以大模型為主導的新世代,其顛覆性力量正在改變人類的生產生活方式和思維方式。面對又一輪新興技術治理,需要擺脫傳統的監管與被監管慣性思維。應倡導通過政策界、產業界、學術界的溝通與聯動,在保障創新發展的同時,各方共同參與討論應對風險的治理手段。在這樣的前提之下形成廣泛共識的、切實可行的、靈活調整的治理策略,才能使敏捷治理成為適應時代情境的、擺脫克科林格里奇困境的、能夠有效應對大模型不斷涌現風險挑戰的新興技術治理新模式、新方法。敏捷治理應致力于譜寫和諧的人工智能治理之音。
(本文系新一代人工智能國家科技重大專項和清華大學自主科研計劃的階段性成果,項目編號分別為:2023ZD0121700、20223080026;清華大學公共管理學院博士后李洋對本文亦有貢獻)
注釋
[1]陳昌曙:《技術哲學引論》,北京:科學出版社,1999年,第156頁。
[2]B. Gille, The History of Techniques: Volume 1 Techniques and Civilizations, Montreux: Gordon and Breach Science Publishers, 1986, p. ix.
[3]D. C. Dennett, "Cognitive Wheels: The Frame Problem of AI," in C. Hookway (ed.), Minds, Machines and Evolution, Cambridge: Cambridge University Press, 1984, pp. 129–151.
[4][5]"Artificial Intelligence Index Report 2024," https://aiindex.stanford.edu/report/.
[6]烏爾里希·森德勒等:《工業4.0:即將來襲的第四次工業革命》,鄧敏、李現民譯,北京:機械工業出版社,2014年,第68頁。
[7]沈國麟:《大數據時代的數據主權和國家數據戰略》,《南京社會科學》,2014年第6期。
[8]《國家網信辦:滴滴存在嚴重影響國家安全的數據處理活動》,2022年07月21日,http://finance.people.com.cn/n1/2022/0721/c1004-32482059.html。
[9]高奇琦:《智能革命與國家治理現代化初探》,《中國社會科學》,2020年第7期。
[10]高奇琦:《全球善智與全球合智:人工智能全球治理的未來》,《世界經濟與政治》,2019年第7期。
[11]K. Crawford; R. Calo, "There is a Blind Spot in AI Research," Nature, 2016, 538(7625).
[12]趙敏、王金秋:《新技術革命的政治經濟學研究》,《政治經濟學評論》,2020年第5期。
[13]T. Eloundou et al., "GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models," 22 August 2023, https://arxiv.org/pdf/2303.10130.pdf.
[14]T. H. Davenport, The AI Advantage: How to Put the Artificial Intelligence Revolution to Work, Cambridge: The MIT Press, 2018, p. 133.
[15]J. Kaplan, Artificial Intelligence: What Everyone Needs to Know, New York: Oxford University Press, 2016, p. 129.
[16]劉永謀:《技術治理、反治理與再治理:以智能治理為例》,《云南社會科學》,2019年第2期。
[17]吳彤:《關于人工智能發展與治理的若干哲學思考》,《人民論壇·學術前沿》,2018年第5期。
[18]姜李丹、薛瀾:《我國新一代人工智能治理的時代挑戰與范式變革》,《公共管理學報》,2022年2期。
[19]段偉文:《構建穩健敏捷的人工智能倫理與治理框架》,《科普研究》,2020年第3期。
[20]薛瀾、趙靜:《走向敏捷治理:新興產業發展與監管模式探究》,《中國行政管理》,2019年第8期。
責 編∕桂 琰 美 編∕周群英