摘 "要:技術治理作為一種技術性或技術化的治理活動,更加關注人與技術在治理活動中的互動關系。應用到人工智能治理之中,技術治理的思維不僅要求對人工智能的治理從傳統約束式治理理念向促進式治理理念的轉變,更需要技術擺脫以往作為治理對象的思維慣性,實現人工智能技術的自我治理。然而,以技術治理的思維治理人工智能并非簡單的規則套用,在實踐中容易存在規范思維“陷阱”、技術治理不能以及倫理風險等困境。對這一問題的解決,不僅需要綜合考量技術治理與法律治理之間相互調節的作用,實現“技”與“法”相互調節的規范治理,還應完善以技術標準為主的軟法規范體系,避免技術實施標準的模糊與手段的僵化。同時,強調更加負責任的人工智能倫理規范引導,以實現更加持續、健康的人工智能技術發展。
關鍵詞:技術治理;人工智能治理;法律規范;人工智能倫理
中圖分類號:D 923 " " " 文獻標志碼:A " " " 文章編號:2096-9783(2025)02?0001?10
一、問題的提出
人工智能是當今經濟社會發展的強勁動力,在賦予經濟社會發展新動能的同時,也引發了諸多挑戰。在此環境下,如何依靠現有的治理模式實現人工智能治理成為熱議的話題。從理論層面上看,以“人工智能治理”為主的討論眾說紛紜,但所有的理念均主張嘗試探索人工智能治理的新模式,以期通過正確的理念實現技術發展與國家安全、經濟社會發展的協調統一,如敏捷治理模式[1]、風險治理模式[2]、協同治理模式[3]等。然而,人工智能作為新一代技術,在將人工智能作為治理對象時,卻無法忽略其作為技術本身所具備的治理工具屬性。盡管上述治理模式在一定程度上提及人工智能作為治理工具的措施,但僅局限在對技術工具屬性的強調,并未進一步深挖技術治理的價值屬性。造成這一現象的主要原因在于人工智能技術內涵的豐富性與外延的廣泛性,使得對技術的定義與運用存在較大的不確定性,由此導致現有治理模式難以準確因應人工智能的治理。
需要注意的是,技術治理的理念并非新生事物,而是隨著技術的發展逐漸演變并擴展至公共治理領域,技術治理以提升社會運行效率為目標,追求社會運行的科學化與理性化。在技術治理的視域下,人工智能的出現使得技術治理的手段與治理理念發生轉向,但本質上仍未脫離技術治理的范疇[4]。由于技術治理具備明顯的科學理性價值,使人工智能治理得以在現行技術發展背景與法律治理的現狀下探索潛在的、可行的治理新模式,進而使得技術與法律之間的關系實現良性互動。由此,人工智能將得以擺脫純粹作為治理對象的局限,使人工智能技術以治理方式的新面相參與治理的進程之中,滿足社會對經濟發展效率與技術發展理性的期待。
鑒于此,本文在技術治理理論的基礎上,從治理理念與治理思維入手分析人工智能治理的邏輯轉向,明確對于人工智能的治理應實現促進式的治理理念以及從治理技術到技術治理的思維轉向。同時,基于對技術治理視域下人工智能治理實踐困境的分析,完善人工智能治理的制度建設,強調技術、法律、倫理等多維度因素的協同作用,適應技術的迭代更新和應用場景的多樣化,從而實現對人工智能的全面而有效的治理,確保技術進步與社會福祉的和諧統一。
二、技術治理視域下人工智能治理的邏輯轉向
技術治理作為一種技術性或技術化的治理活動,所研究的對象并非純粹的人或者技術,而是“人與技術在治理活動中的結合”[5]。反映到人工智能治理之中,技術治理的思維要求不能僅關注對于技術的規范性約束,還應注重人與技術之間的互動關系以及基于此種關系下各項價值目標的實現。這意味著,技術治理視域下的人工智能治理需要擺脫傳統治理中對于人工智能的約束式治理,轉向以提高社會運行效率為主的促進式發展。在治理思維上,不能陷入技術作為治理對象的局限性,而是應將技術作為治理工具,實現“人治理技術”向“技術治理技術”思維的轉變。
(一)從約束式治理理念向促進式治理理念的轉變
人工智能技術的出現改變了傳統科技與法律關系的思維定式,以生成式人工智能技術為標志的科學技術在促進經濟社會迅猛發展的同時,也引發了人們關于科技與法律關系的新一輪思考。其中,對于應如何實現人工智能治理已成為當下科技與法律領域熱議的話題。理論層面,基于場景化、風險化的治理模式以不同的治理思路回應技術發展的社會影響,基于法律規范的硬性治理模式希冀通過立法手段實現技術發展的可控性[1]。不可否認的是,這些治理模式的提出符合當下技術發展與經濟社會運行的發展趨勢,在實現技術風險控制的同時,回應了經濟社會發展的切實需求。然而,無論是基于場景化的治理模式,抑或基于風險化、基于法律規范的治理模式,在一定程度上均無法否認將技術作為被約束或被規范的對象。以風險化的治理模式為例,歐盟《人工智能法》作為風險治理的代表性模式1,通過將人工智能風險分類為禁止性風險(prohibited-risk)、高風險(high-risk)、有限風險(limited-risk)以及低風險(minimal-risk),以此將技術作為治理對象,并防范因技術所產生的風險。
本質上,這些治理模式的終極理念仍保持著對技術發展不確定性的謹慎態度,在治理手段上體現為通過限制技術引發的風險,從而引導技術的發展和應用。導致這種約束式治理理念的主要原因在于,人工智能技術創新所產生的不確定性使得現有對技術的態度、需求以及運轉模式產生了溫和,甚至巨大的變化[6]。這種不確定性主要體現在人工智能的自主性以及高度的學習能力,如人工智能大模型算法的“黑箱”效應以及算法失控[7]。因此,為了防控因技術發展不確定性所造成的風險,人工智能治理的理念不可避免地走向“約束”的慣性思維,盡管不同的治理模式仍存在相關的技術促進措施,但終究無法脫離約束式發展的桎梏。
不同于以往的人工智能治理模式,技術治理視域下的人工智能治理更加注重以促進式的治理思維平衡科技發展與經濟社會之間的關系。造成這種差異性的主要原因在于,技術治理的目的在于提高社會運行效率以及實現效用的最大化,進而實現維護社會穩定運行以及提高社會治理能力的價值目標[8]。這種以效率提升、效用實現最大化為導向的價值目標,最終反作用人工智能的治理模式。
具體而言,技術治理視域下人工智能治理促進式治理理念的實現主要采取的是以科學理性原則為遵循、以技術賦能和價值引導為手段、以提升社會整體運行效率為目標的踐行方式。第一,以科學理性原則為遵循要求對于人工智能的治理需確保工具理性與價值理性的協調統一。這意味著,對于人工智能的促進式治理不僅需要保持工具理性層面“手段—目的”的合理性,同時還應注重與價值理性層面“善智”的實現,以轉變治理觀念,消解價值悖論。易言之,科學理性原則的遵循使得人工智能的促進式治理并非僅停留在技術工具的理性運用,更要求在治理的過程中形成價值目標和價值標準[9],以此評價人工智能治理的合理性與否。第二,對于人工智能的促進式治理需要以技術賦能與價值引導為手段。技術賦能要求在人工智能治理的過程中運用技術的手段或者工具,如可理解性人工智能、防御對抗攻擊技術以及實時審計技術等[10],解決因純粹技術演變所導致的不確定性或歧視性風險。此外,通過采取技術手段,提升國家獲取和使用信息的能力,促進國家治理能力現代化。第三,在最終目標實現上,人工智能的促進式治理理念強調社會整體運行效率的提升。這意味著,對于人工智能的促進式治理并非純粹以推動技術發展為主要任務,而是注重技術對于經濟社會的賦能效果以及公共利益的實現與保障。這種理念的倡導既符合技術研發與應用的初心,同時也與社會公共利益福祉緊密契合。
(二)從“治理技術”向“技術治理”思維的轉變
由“技術工具論”所演變的技術使用邏輯往往建立在以人為主體的基礎之上,將技術視為人所主導并控制的工具,并通過技術的使用產生經濟和社會價值。這種邏輯的產生符合傳統工業化時代的生產規律,在實現技術價值發揮的同時,也尊重了人作為社會主體的主觀能動性。然而,技術作為“被使用”對象的邏輯,應用于社會治理的過程之中時,技術不可避免地成了“被治理”的對象,“人治理技術”成為應對技術所產生的經濟社會風險的當然思維。這種治理思維主要體現為將技術作為治理對象,并通過法律規范加以控制,避免因技術發展的不確定性而造成社會損害。盡管這種治理方式仍屬于技術治理的概念范疇,但僅將技術作為治理對象,實則脫離了理解技術治理本質內涵的實踐語境,這種做法忽略了技術可以成為治理方式的另一內涵屬性[9]。不可否認的是,這種思維的采取并非錯誤,而是非智能化時代下消除技術風險和技術發展不確定性的時代選擇。
然而,在技術的發展已經步入智能化時代的情況下,一味通過法律規范治理技術已經無法滿足社會治理的需求。以核技術為例,盡管在核技術投入使用前已經通過社會規范很好預估了技術可能導致的風險,但技術發展的不確定性仍然使得風險無法被完全消解,切爾諾貝利和福島為典型的核泄漏事故依然發生并使得經濟社會遭受巨大損失[11]。因此,在傳統“治理技術”思維無法滿足社會治理需求的前提下,思考將技術作為新型治理方式、妥善發揮技術治理的工具價值具有必要性。在傳統的科技與法律的關系之中,技術往往被視為規范對象予以規制,然而面臨以人工智能為主的顛覆性技術,技術已經逐漸突破作為規制對象的局限性,開始以治理方式的面相參與科技與法律的關系互動之中。技術治理視域下的人工智能治理,通過采取從“治理技術”到“技術治理”的轉向,在減輕技術實現的社會負擔的同時,給予技術迭代升級的發展空間,進而實現“技術作用于經濟社會”的良性循環之中,確保國家核心競爭力與技術競爭話語權的穩定與提升。
在當代社會,技術治理作為一種新興的治理模式,其核心理念在于利用技術手段來優化社會治理結構和提高治理效率。盡管技術治理具體的主張紛繁復雜,但總體上堅持兩個核心的原則:一是科學管理,即通過科學原理與技術方法參與社會的治理活動。科學管理原則意味著將技術納入傳統觀念所認定的治理工具的范圍之中,并以此實現社會的治理,推動社會的理性運行。二是專家政治,即由接受了專業訓練和具備專業知識的專家參與治理活動,從而推動技術治理工具的正確運用,避免技術治理“失控”[12]。以上這兩種原則的提出實則是技術治理思維在制度層面的具體反映,在功能上體現為對高效率的社會規則運轉與高水平的社會治理效果的追求。進入智能時代,以人工智能為代表的顛覆性技術引發了社會治理格局的變動,傳統“治理技術”的思維難以在妥善處理因人工智能所引發的各類實踐問題的同時,兼顧技術創新發展與社會科學治理的平衡。技術治理思維的介入,實則超越了單一化的治理范式,主張在人工智能治理的過程中更加關注治理的工具理性與價值理性之間的協調統一,確保技術發展與社會需求相協調。
三、技術治理視域下人工智能治理的實踐困境
在確定技術治理視域下人工智能治理的應有邏輯后,還應基于此邏輯分析人工智能治理的實踐困境,確保理論邏輯與實踐問題的客觀結合。以人工智能為代表的顛覆性技術,在推動經濟社會高速發展的同時,對技術的治理問題同樣不容忽視。然而,對人工智能實現技術治理并非簡單的規則套用,還應綜合考量人工智能自身的技術特點和現有社會規范體系的復雜影響,探索技術治理視域下人工智能治理可能存在的問題。具體而言,這些問題不僅體現為因預防技術風險慣性所導致的規范思維“陷阱”,還存在因技術手段僵化所可能導致的技術治理實效不佳,以及因人工智能技術發展的不確定性所導致的倫理風險。
(一)因預防技術風險慣性所導致的規范思維“陷阱”
技術引發的社會問題驅動著法律規范的更新,而立法滯后性的存在使得現有法律規范天然無法緊跟技術發展的步伐[13]。反映到人工智能領域,人工智能技術作為一項涵蓋機器學習、大模型算法開發以及計算機視覺與感知的復雜系統,對其治理需要綜合技術、社會、法律以及倫理等多維視角,其中以法律規范實現人工智能治理是目前大多數國家的主流操作。然而,通過法律規范的制定和適用實現技術的治理,盡管能夠有效地劃定技術發展的紅線,防范因技術不確定性所引發的法律風險[14],但是相較于技術發展的迅猛,立法的滯后性使之無法完善地實現技術風險的規范。此外,為了給技術迭代升級留足充分的發展空間,法律也難以對未知的技術風險予以充分規制。以人工智能機器學習內容為例,人工智能技術的發展沖擊著現有法律規范體系,如何在促進技術發展與防范法律風險之間尋找適當的平衡關系成為焦點[15]。因此,為避免立法滯后性影響對技術風險的防控,以風險預防為主的規制思維逐漸成為治理技術的主流,并影響立法的理念與實操。以歐盟《人工智能法》為例,歐盟通過風險類型化的規制思路將人工智能區分為不同風險級別,并基于風險分類分級的思維實現人工智能的針對性治理。盡管歐盟《人工智能法》對于人工智能技術風險體系化的治理思路得到了諸多學者的肯定[16],然而此種做法實際上體現了過度依賴“風險預防控制”的思維慣性,這種思維慣性使得對于新技術的規制趨于統一,在一定程度上反倒是存在抑制創新的可能。
造成這種風險預防慣性的主要原因在于舊有規制思維與現有技術條件之間的沖突。這種沖突直接導致了在新技術出現安全危機時,容易依賴于既有經驗或規則處理技術可能存在的風險。法律層面,這種風險預防式的思維實則是預防法學理念在處理技術安全風險的體現。以算法風險為例,受算法黑箱效應與算法專業化、復雜化特點的影響,對于算法風險的規制實際上采取的是風險預防型的思路,具體體現為針對義務主體設置相應的注意義務以及懲罰性措施,由此規避潛在侵權風險的發生。不可否認的是,這種以行為規制視角為切口所實現的風險預防,在一定程度上杜絕了技術所帶來的侵權風險,克服了僅憑權利與義務的配置所難以克服的技術領域特有的復雜性問題。然而,在智能化時代的背景下,技術發展的不確定性逐漸成為未來技術創新的主要特點,繼續依賴風險預防式的規制思維似乎難以周全地照顧技術創新與產業發展,也無法準確回應當下人工智能產業所需解決的現實問題[17]。進而言之,人工智能的治理并不能僅對技術所造成的風險嚴防死守,還應綜合考量技術背后所關聯的經濟利益與公共利益,通過技術治理為技術的創新發展留足空間。
客觀而言,盡管風險預防的思維能最大化地規避因技術發展不確定性所導致的風險,維護主體的合法權益。然而,一旦形成預防技術風險的慣性思維,難免造成規范上的“陷阱”,這種規范上的“陷阱”實際上體現為盡可能地實現完善的風險預防體系,以防控可能存在的侵權風險。但實際上,這種做法不僅可能會影響新問題的有效解決,也容易阻礙技術的創新發展。一方面,過于依賴風險預防的做法容易忽視真正需要解決的現實問題,降低決策效率。盡管我國人工智能技術已處于快速發展階段,但相較于國外先進水平還存在差距,同時與人工智能相配套的產業鏈仍在搭建之中。此時以風險預防的思維實現技術的規制,雖然能針對性地防范因技術所產生的風險,但容易導致對技術與產業發展的激勵不足,降低企業的決策效率。另一方面,將風險預防作為主要規制思路同樣存在抑制技術創新發展的可能性。這種過度預防技術風險的思維,可能會忽視或拒絕接受新的技術方案,從而成為束縛技術發展的瓶頸,阻礙技術的優化和創新。值得注意的是,對于技術風險的預防并非絕對錯誤,而是應警惕持續堅持風險預防的慣性思維所可能導致的決策偏差。進而言之,在對技術實現規范治理時,應優先思考通過技術實現自身風險排除的可能性措施,在通過技術治理難以完全排除風險時,再通過法律規范予以兜底,從而給予技術“自愈”和發展的空間,推動人工智能技術的健康、可持續發展。
(二)因技術手段僵化所導致的技術治理不能
將技術作為人工智能治理的工具,并非一味強調通過技術治理提高社會效率,還應意識到技術作為治理工具存在的局限性。與傳統科技不同,人工智能作為顛覆性技術難以被人所完全認知并規制。這意味著,在通過技術實現人工智能治理的時候,需警惕利用技術逾越法律底線的行為舉動,避免不負責任的創新治理。在實現技術治理的過程之中,不僅需要滿足“數字化、客觀化、專業化和效率化”的四大訴求[18],同時還應注重技術治理符合現有法律體系中的規范要求。一旦技術治理違背治理初衷,相應技術治理便極有可能導致“反治理”的效果,如技術怠工、智能低效等難題[4],進而導致技術治理失靈,影響人工智能治理的實際效果。進而言之,將技術治理應用于人工智能的治理之中,應警惕技術作為治理手段存在的局限性。這種局限性一方面反映為技術治理內部治理手段的僵化,以及因僵化所導致的新類型風險;另一方面,也需注意在技術治理外部與法律治理模式的銜接問題,以確保在實現人工智能治理之時,避免因技術與法律之間的銜接問題而導致人工智能治理失效。
具體而言,因技術專業性與復雜性所導致的技術治理不能,在技術治理內部體現為治理手段的僵化以及因僵化所導致的新類型風險。就人工智能治理而言,人工智能本身作為一項新類型的技術,在通過技術工具治理人工智能時,容易以傳統的科技思維思考治理的模式。然而,如果治理工具本身的技術基礎存在缺陷,或者治理過程中過度依賴這些工具,則極有可能限制治理的靈活性和創新性,從而導致治理的僵化。本質上,這種治理的僵化實際上是“技術治理技術”陷入“維護”與“批判”的自反性悖論[19],從而導致技術治理“失靈”。
此外,因技術治理手段僵化也同樣可能造成新類型的風險。以人工智能圖像水?。ˋI Watermarking)技術為例子,作為標識人工智能生成內容和解決深度偽造、虛假信息的關鍵技術,人工智能圖像水印技術往往被廣泛應用于人工智能治理之中。無論是歐盟《人工智能法》第50條第2款的規定2,抑或美國聯邦參議員所提出的《保護內容來源和完整性,防止編輯和深度偽造媒體法案》(Content Origin Protection and Integrity from Edited and Deepfaked Media Act)3,均代表著人工智能圖像水印技術已作為治理人工智能的關鍵技術得到了實踐層面的認可。然而,由于欠缺可靠的技術基礎,圖像水印技術的應用實際上難以取得理想的效果[20]。過度依賴圖像水印技術可能導致人們忽視其他形式的錯誤信息,在人工智能生成內容涉及侵犯著作權時,將內容標記為“AI生成”并不能否定其違法性[21]。因此,通過技術治理技術并非十全十美之事,在技術尚未成熟之際將其作為治理工具,難免會導致治理目標與治理效果的偏差。
與此同時,技術治理不能的另一面向還體現為技術治理與外部法律治理之間的銜接問題。由于人工智能技術集合了大模型算法、數據訓練以及內容輸出等多項功能,在技術基礎尚未成熟之時,相應的技術操作指標可能因人工智能系統自身的高度適應性與學習能力,使得人工智能治理存在相應技術操作標準與法律評估標準銜接不暢、價值難以對齊的窘境。以“通知—刪除”規則為例,法律治理層面的“刪除”要求實現“停止侵害”的應然效果4,然而對于人工智能系統中的數據刪除并非簡單、直接的技術操作,從人工智能系統中的“刪除”數據的影響仍是一個定位模糊的問題。這意味著,盡管人工智能已實現了形式上的數據刪除,但如果系統在對與先前刪除數據相似的內容進行微調時,仍可能觸發先前數據的隱性再現,從而挑戰了數據徹底刪除的概念[22]。易言之,在通過技術治理人工智能時,不能將目光僅局限于技術治理的范疇之中,還應確保與外部法律體系的整合與協同,以促進人工智能治理的有效性和連貫性。
(三)因技術發展的不確定性所導致的倫理風險
人工智能作為具備自主學習能力和認知邏輯的顛覆性技術,在通過技術賦能經濟社會發展的同時,其研發與應用也引發了諸如深度偽造、算法偏見,以及數據安全等倫理風險。造成這些倫理風險的主要原因在于,人工智能技術發展的不確定性導致了技術創新偏離技術研發初衷,使得技術無法及時回應社會價值需求和道德期望。以算法黑箱效應為例,由于人工智能的研發和應用與數據緊密相連,導致人工智能的治理也不可避免地涉及數據安全或隱私保護等問題。然而,人工智能大模型算法黑箱效應的存在,使得數據主體無法得知算法運作以及信息利用的過程,進而難以維護自身的個人信息或隱私權益。此外,由于技術治理中“專家政治”的主張,治理過程往往由掌握一定知識的專家所掌控[12],這種專家式的治理主體一旦缺乏相應的責任倫理限制,則極有可能導致技術治理失靈[18]。進而言之,對于人工智能的技術治理難以兼顧倫理風險,無論是技術治理工具還是治理主體責任,技術治理應用于人工智能治理存在局限性。
值得注意的是,這種局限性并沒有在現有倫理規范與倫理審查制度框架內得以妥善消解。以我國的倫理規范為例,盡管我國圍繞著人工智能倫理陸續出臺了《關于加強科技倫理治理的意見》《新一代人工智能倫理規范》和《人工智能倫理治理標準化指南》等一系列政策文件,但并未逃脫“回應式”治理的范疇,相應的倫理舉措仍屬于對已經發生事件的事后修補[23]。盡管這種“回應式”治理模式并非盡善盡美,從人工智能倫理治理的實踐來看,無論是對技術操作流程的價值嵌入,抑或對人工智能產品或智能體的倫理要求,均無法脫離當下技術范疇與思維認知的局限,人工智能倫理的“回應式”治理范式仍是當下人工智能倫理治理的主要模式。此外,由于倫理監管的敏感性,在倫理審查制度的建構上,仍未能有行之有效的操作方案,國際范圍內也未出現專用的人工智能倫理檢測的工具[24]。目前,對于人工智能倫理的要求更多的是在技術流程中輸入相應的倫理或道德指標,典型如公平性、可解釋性、透明度等。
因此,在技術治理存在倫理風險應對的局限性時,有必要將目光超越單一的技術治理范式,不能僅局限在發揮技術治理的工具理性,還應注重與價值理性的協調統一。這意味著,在貫徹人工智能促進式治理理念與技術治理思維之際,不能僅關注技術所引發的法律風險,還應有效回應技術發展中的倫理問題,以此滿足社會對技術發展的創新期待與價值需求。
四、技術治理視域下人工智能治理的制度安排
在思考技術治理視域下人工智能治理的制度安排時,基于促進式治理理念與技術治理思維的要求,不僅應重視因技術治理所可能導致的局限性困境,還應注重科技與社會制度之間的關系協調。建構人工智能治理的制度體系,其關鍵點在于尋找與技術創新發展趨勢相適應的科學治理制度。具體而言,應實現以“技”與“法”相互調節的規范治理,推動技術創新與制度規范之間的有效互動,同時完善以技術標準為主的軟法規范體系,避免技術實施標準的模糊與手段的僵化。在發揮技術治理工具價值的同時,更加強調負責任的人工智能倫理規范引導,以實現更加持續、健康的人工智能技術發展。
(一)實現“技”與“法”相互調節的規范治理
技術治理并非完美無缺,其在實踐中往往面臨著工具理性與價值理性的雙重挑戰。工具理性強調技術手段的效率和實用性,而價值理性則關注技術應用的道德和倫理維度。在這一背景下,技術治理不能僅局限在單一化的范圍之中,而是應保持科技謙遜主義,注重與其他治理方式的協調統一。因此,應對人工智能治理,有必要實現以“技”與“法”相互調節的規范治理,確保通過技術工具與法律工具的綜合介入,平衡技術治理中的工具理性與價值理性,確保技術發展與社會需求相協調。具體而言,“技”與“法”相互調節的規范治理本質上并不違背技術治理所提倡的工具理性與價值理性屬性,而是通過法律規范的介入,避免技術治理出現工具理性的越位以及價值理性的缺位。同時,“技”與“法”相互調節的規范治理還強調不同治理工具之間的相互促進和協同發展。技術治理可以為法律規范提供新的視角和方法,推動法律規范的創新和完善。而法律規范則可以為技術治理提供必要的約束和指導,確保技術治理的方向和目標與社會價值觀和倫理標準相一致。在這一過程中,法律規范不僅為技術治理提供了必要的法律框架和行為準則,還有助于確保技術應用的合法性、合理性和道德性。通過法律規范的介入,可以有效避免技術治理過程中可能出現的權力濫用、隱私侵犯等問題,保障個體權益和社會公共利益。
進而言之,“技”與“法”相互調節下的人工智能治理的制度安排,本質上是技術價值與法律價值相互構建的過程。實現更加有序、高效的人工智能治理,治理者就不可避免地需要面對因技術發展和技術作為治理工具所帶來的風險,以及與技術發展相適應的法律制度構建問題。然而,技術治理與法律治理之間的關系較為復雜。由于技術治理的工具主義傾向,即技術被視為達成既定治理目標的一種手段,與法律治理原則所強調的法律權威及其價值導向之間存在著一種內在的張力。工具主義的過度強調容易使得技術被簡化為單一性、功能性的工具,可能導致技術本身固有的價值和倫理維度被邊緣化,從而使得技術活動在實現目標的過程中,可能忽略了其對社會秩序和人類福祉的深遠影響[25]。這種簡化不僅可能導致技術決策過程中的倫理盲點,也可能使得技術治理無法充分考慮技術活動對人類社會結構、文化價值觀以及自然環境的潛在影響。這種情況下,技術治理缺失了對社會價值與人文的理性關懷,從而違背富勒斯合法性原則中對法律內在道德性的強調[26]。因此,實現“技”與“法”相互調節的規范治理,應在實踐中建立技術治理與法律治理相互協調的平衡機制,以確保技術的發展既能夠推動社會進步,又能夠尊重和維護法律的權威和價值導向。
具體而言,“技”與“法”相互調節的平衡機制具體體現為三重要求:一是發揮技術工具的治理優勢,在法律治理中固化技術解決方案。這要求在人工智能技術產生風險之際,通過技術治理工具的妥善運用,確保在技術可行范圍內發揮技術治理工具的優勢,消除技術本身所帶來的風險。此外,對于技術治理工具的運用并非短期或一次性的治理手段,而是應通過制度規范的建構將其固化為治理的長效機制,使得技術工具優勢得以與法律治理相互協同,確保其在不同階段和不同情境下都能夠發揮預期的作用。二是強調法律治理的價值導向,避免慣性的預防思維。法律治理的核心價值在于維護社會公平正義、保障人權、促進社會和諧穩定,因此在應對因技術所產生的風險時,法律治理應充分發揮公正、秩序和效率的價值導向,引導技術治理價值理性的發揮。同時,在選擇相應治理方式時,盡可能避免因對技術發展不確定性所導致的慣性預防思維,提高制度對技術發展的包容性和適應性。三是實現法律治理與技術治理的深度融合,發揮不同治理工具的協同優勢。技術治理工具的優勢在于高效性、精確性以及可量化性,而法律治理則強調公平、正義等價值導向,通過兩者的深度結合,可以確保在合理運用技術治理工具的同時,避免其可能帶來的倫理風險和社會問題。基于技術治理與法律治理的協同作用不僅能夠提高治理效率,還能夠確保治理過程的合法性和合理性,使得技術的發展與應用更加符合社會的整體利益和長遠發展。
(二)完善以技術標準為主的軟法規范體系
為了平衡技術治理與法律治理之間的要求,應采取一種更為綜合、完善的視角,既通過技術工具提高治理效率與治理水平,又通過與法律治理的銜接融合確保人工智能治理活動取得社會大眾所期待的治理效果。這意味著,需要將治理的目光逡巡于與法律治理聯系密切的軟法規范體系,并以技術標準為切口,通過構建和完善與人工智能相關的技術標準體系,強化技術治理的穩定性??陀^而言,如技術標準、行為準則等軟法規范,雖然不具備法律的強制性,但在實踐中具有重要的指導和約束作用[27]。通過軟法規范的引導,可以為技術治理提供更為靈活和更強適應性的規范框架,使其更好地適應不斷變化的社會需求和技術發展。在這一過程之中,完善以技術標準為主的軟法規范體系應著眼于人工智能技術的系統能力建設、人工智能的過程性安全標準以及技術治理與法律治理的銜接融合之上,確保通過技術標準的構建與完善,強化技術治理的穩定性以及與法律治理的內在融合。具體而言,完善以技術標準為主的軟法規范體系主要包括以下三個方面:
第一,構建人工智能系統能力建設標準,提高人工智能技術治理水平。對于人工智能系統能力的建設不僅應明確技術基礎范圍內技術工具的共性要求,而且還應針對人工智能系統建設能力展開測試與評估。一方面,在基礎共性要求上,通過研制人工智能技術基礎術語定義、模式架構以及關鍵技術的應用標準,落實人工智能技術研發與應用的標準機制,推動技術工具在人工智能治理中的針對性與有效性。另一方面,通過建立完善的人工智能系統能力測試與評估標準,提升技術治理的科學性與客觀性,進一步明確技術治理的限度與風險應對策略,從而實現治理水平與治理能力的提升。
第二,建立完善的人工智能安全流程標準,強化技術風險的抵御能力。對于人工智能安全流程標準的建設應關注人工智能技術研發與應用中所涉及的大模型算法、訓練數據、安全與隱私等方面,加強人工智能系統的全生命周期管理,以更加嚴謹、科學的技術治理手段實現人工智能的透明度、可解釋性、可控性等不同維度的風險防控,提高系統的穩定性和可靠性。
第三,加強技術治理與法律治理的銜接能力,發揮治理工具的協同作用。就人工智能治理而言,不僅需要通過技術治理工具實現治理效率和水平的提升,更需要通過法律價值引導技術治理工具的選擇與應用,校正技術治理的偏差[28]。進而言之,一方面需要在人工智能治理的過程中,注重法律規范與技術治理實踐的深度融合,明確相關技術定義與法律定義之間的互動關系,確保法律規范中的技術標準符合技術發展實踐。另一方面,在技術治理過程中,應當充分發揮法律價值的引導作用,確保技術的應用不僅追求效率和效益,也符合社會的整體利益和長遠發展,從而實現技術治理工具理性與價值理性的協調統一,促進治理實踐與社會價值的更好對接。
(三)強調更加負責任的人工智能倫理規范引導
技術治理在通過運用技術化手段實現人工智能治理的同時,還應確保技術治理價值理性的實現。這一要求揭示了人工智能技術治理的雙重維度:一方面,技術治理需在形式上滿足治理的合理性,即通過有效的技術手段確保治理過程的透明度、公正性和效率。另一方面,技術治理應在實質層面超越單一性、功能性的技術應用,避免技術治理滑向過度工具化的趨勢,推動人工智能治理向“善治”和“善智”的方向發展。進而言之,技術治理價值理性更加關注治理活動的倫理維度,強調了治理活動的價值導向,即人工智能治理不僅要追求治理效率和治理效果,還要關注治理活動對社會、環境和個體的長遠影響。在人工智能的背景下,這意味著技術治理不僅要確保人工智能系統的功能性和效率,還要確保這些系統的設計和應用符合倫理原則和社會價值觀,促進人工智能技術的負責任使用。
此外,人工智能技術的不確定性和快速發展帶來了一系列倫理風險,如隱私侵犯、數據安全、算法偏見等問題。這些風險要求技術治理在追求價值理性時,必須確保技術治理的理性回歸到以人為中心的治理本位。這意味著,技術治理應當以人的福祉和發展為最終目標,確保技術的發展和應用能夠促進社會的整體利益,而不是僅僅追求技術進步本身。對這一目標的實現,不僅需要在技術治理的過程中嵌入以人為本的價值理念,還應采取多元化、綜合化的措施以確保價值理念的落實。
具體而言,一是在技術治理的過程中嵌入以人為本的價值理念[29],確保技術治理的價值理性得以實現。這要求在人工智能治理的過程中,更加關注社會主體性的塑造,堅持守正創新。一方面,通過提高人工智能技術的透明度與可解釋性,使得利益相關者能夠更加準確、客觀地評估技術所造成的影響,維護個體的合法權益;另一方面,以人為本的價值理念也要求在技術創新與應用的過程中,將相關倫理規范作為核心要素,通過“倫理先行”的價值引導,確保人工智能系統的決策過程和結果符合社會倫理和法律規范。二是完善技術治理的責任機制,強調更加負責任的創新治理。在現行人工智能倫理“回應式”治理范式的基礎上,實現更加前瞻式的責任監管[19]。這意味著,技術治理者不僅要對現有技術應用的后果負責,而且要主動識別和評估未來技術發展可能帶來的風險和挑戰。通過這種前瞻式的責任監管,技術治理能夠更好地適應技術的動態變化,及時調整治理策略,以減少不確定性帶來的風險。三是建立完善的技術治理倫理審查制度,加強對技術治理過程中倫理問題的監督。在強調技術治理責任落實的同時,還應建立完善的倫理審查機制,確保對技術的運用不偏離以人為主體的價值導向,同時通過完善倫理審查的監督與救濟制度,加強倫理救濟的程序性規定,從而保障個體的合法權益得以實現。
五、結語
進入智能時代,人工智能技術的迅猛發展及其廣泛應用給經濟社會帶來前所未有的挑戰。面對人工智能所引發的治理難題,不僅需要轉變傳統的約束式治理理念,還應實現從“治理技術”向“技術治理”思維模式的突破。以技術治理思維實現人工智能治理,不僅需要妥善利用科學技術手段發揮技術治理的工具價值,還應確保技術治理不違反以人為主體的價值理念。然而,技術治理視域下的人工智能治理是一個動態的、開放的和持續的過程,僅依靠單一的技術治理思維難以應對紛繁復雜的人工智能治理難題,我們應當結合法律規范、倫理規范等治理模式,整合不同領域的知識和資源,共同推動人工智能治理體系的創新和發展。換言之,在技術治理的過程中,以人工智能為主的治理科學應以遵循技術發展的客觀規律為依歸,并通過“技術治理—法律規范—倫理引導”的綜合治理,滿足人們對經濟社會發展效率與技術發展理性的期待。
參考文獻:
[1] 張凌寒, 于琳. 從傳統治理到敏捷治理:生成式人工智能的治理范式革新[J]. 電子政務, 2023(9): 2?13.
[2] 張富利. 全球風險社會下人工智能的治理之道——復雜性范式與法律應對[J]. 學術論壇, 2019, 42(3): 68?80.
[3] 徐輝. 人工智能在社會治理協同中的應用、問題與對策[J]. 科學管理研究, 2021, 39(5): 32?40.
[4] 劉永謀. 技術治理、反治理與再治理: 以智能治理為例[J]. 云南社會科學, 2019(2): 30?32.
[5] 劉永謀. 技術治理通論[M]. 北京: 北京大學出版社,2023: 33.
[6] LITTLER D, PEARSON A. Uncertainty and technological innovation[J]. Management Decision, 1972, 10(2): 111?116.
[7] 季衛東. 人工智能開發的理念、法律以及政策[J]. 東方法學, 2019(5): 4.
[8] 董禮勝, 李玉耘. 工具—價值理性分野下西方公共行政理論的變遷[J]. 政治學研究, 2010(1):67.
[9] 程海東, 陳凡. 從實踐語境理解技術治理[J]. 中國社會科學評價, 2021(3): 84.
[10] 朝樂門, 尹顯龍. 人工智能治理理論及系統的現狀與趨勢[J]. 計算機科學, 2021, 48(9): 4.
[11] 宋辰熙, 劉錚. 從“治理技術”到“技術治理”:社會治理的范式轉換與路徑選擇[J]. 寧夏社會科學, 2019(6): 125?126.
[12] 劉永謀. 技術治理的邏輯[J]. 中國人民大學學報, 2016, 30(6): 118.
[13] John Perry Barlow:Selling Wine Without Bottles: The Economy of Mind on the Global Net[EB/OL]. (1993)[2024-06-03]. https: //www. eff. org/pages/selling-wine- without-bottles-economy-mind-global-net.
[14] 劉偉斌. 人工智能生成內容保護的行為規制邏輯選擇與路徑建構[J]. 科技與法律(中英文), 2024(5): 100?109.
[15] 辜凌云. 人工智能機器學習內容的著作權合法性基礎——以文本和數據挖掘例外規則為視角[J]. 出版廣角, 2024(15): 54?59.
[16] 丁曉東. 人工智能風險的法律規制——以歐盟《人工智能法》為例[J]. 法律科學(西北政法大學學報), 2024, 42(5): 3?18.
[17] 趙精武. 論人工智能法的多維規制體系[J]. 法學論壇, 2024, 39(3): 57.
[18] 劉翠霞. 邁向“負責任地創新治理”——當代社會技術治理的失靈癥候與療治可能[J]. 社會科學, 2021(10): 90?93.
[19] 張鋌. 技術治理何以失靈?[J]. 自然辯證法研究, 2022, 38(11): 79?80.
[20] KATE KNIBBS. Researchers Tested AI Watermarks—and Broke All of Them[EB/OL].(2023-10-03)[2024-06-11]. https: //www. wired. com/story/artificial-intelligence- watermarking-issues/.
[21] Justyna Lisinska. Watermarking in Images Will Not Solve AI-Generated Content Abuse[EB/OL].(2024-08-15)[2024?8-20]. https: //datainnovation. org/2024/08/watermarking-in-images-will-not-solve-ai-generated- content-abuse/.
[22] FEDER C A. Report of the 1st workshop on generative AI and law[J]. "ArXiv preprint arxiv: "2311. "06477, "2023: "15.
[23] 吳興華. 從“回應式”治理到“前瞻式”治理:人工智能倫理治理模式的變革[J]. 理論導刊, 2024(2): 64.
[24] 國家人工智能標準化總體組, 全國信標委人工智能分委會. 人工智能倫理治理標準化指南[R]. (2023-03-04)[2024-08-11]. https: //hulianhutongshequ. cn/upload/tank/report/2023/202304/1/fbc819dd851246a1b21298b2e0725636. pdf.
[25] 趙鵬, 謝堯雯. 科技治理的倫理之維及其法治化路徑[J]. 學術月刊, 2022, 54(8): 91.
[26] 張智. 論富勒“合法性原則”的道德性與制度化[J]. 河北法學, 2011, 29(6): 171.
[27] 羅豪才, 畢洪海. 通過軟法的治理[J]. 法學家, 2006(1): 2.
[28] 鄭智航. 網絡社會法律治理與技術治理的二元共治[J]. 中國法學, 2018(2): 123.
[29] 張平. 人工智能倫理治理研究[J]. 科技與法律(中英文), 2024(5): 8.
Technical and Legal Governance of Artificial Intelligence
Sun Guorui, Liu Weibin
(School of Law, Beihang University, Beijing 100191, China)
Abstarct: As a technical or technologized governance activity, technical governance places greater emphasis on the interactive relationship between individuals and technology within governance processes.When applied to the governance of artificial intelligence (AI), the framework of technical governance requires not only a reevaluation of traditional constraints surrounding governance philosophy but also an evolution in these philosophies themselves. Furthermore,it requires that technology transcends previous paradigms where it is merely viewed as an object of governance, thereby enabling self-governance within AI technologies.However, governing AI through the lens of technological governance is not merely a matter of applying existing rules. In practice, it often encounters challenges such as the \"trap\" of normative thinking, limitations in technical governance, and ethical risks. To address these challenges effectively, it is essential to comprehensively consider the interplay between technical and legal frameworks for regulation. This involves realizing a normative system that facilitates mutual regulation between \"technology\" and \"law\". Additionally, there is a need to enhance the soft law normative system primarily based on technological standards in order to mitigate ambiguities associated with implementation standards while avoiding rigidity in regulatory approaches.Simultaneously, there should be an emphasis on providing responsible guidance regarding AI ethical norms aimed at fostering sustainable and healthy development within AI technologies.
Keywords: technology governance; AI governance; legalnorms; AI ethics