摘 要:習近平總書記高度重視人工智能等新興領域立法工作,黨和國家已將人工智能立法納入立法工作規劃,應加快推進我國人工智能立法的學術研討已經達成共識,當前的研究重點更多聚焦于以何種模式推進人工智能立法。分析現有人工智能立法實踐,可歸納出促進型立法和規制型立法兩種模式,二者在價值意義、模式特點等方面有所差異。在分析研判這兩種模式的基礎上,以平衡發展與安全為原則,提出我國應探索融合型立法模式。該模式強調人工智能立法在原則上應堅持以人為本、兼顧可執行性與開放性,在思路設計上要構建權益保障機制、完善知識產權規范、規制算法歧視行為、落實多方主體責任,期待以理論研究為立法實踐提供助力。
關鍵詞:人工智能立法;促進型立法;規制型立法;融合型立法
中圖分類號: D922.17 文獻標識碼:A 文章編號:1009 — 2234(2025)06 — 0089 — 06
一、我國人工智能立法模式的研究背景
(一)時代背景
隨著電子化、數字化、智能化的發展,人工智能以其自主學習的新能力取得了各項技術的創新性突破,成為當前國際競爭的重點問題之一。我國在2022年《人工智能白皮書》中提出“以深度學習為核心的人工智能技術正在不斷暴露出由其自身特性引發的風險隱患”。為促進人工智能產業能夠保持良好發展態勢,助力實現人類幸福生活,全球人工智能競爭模式逐漸從技術發展之爭演變到規則與治理之爭。[1]2021年4月,歐盟委員會發布《人工智能法案》(草案),現已于2024年3月在議會全票通過。2022年10月,美國政府科技政策辦公室發布《人工智能權利法案藍圖》,2023年1月美國國家標準與技術研究院發布《人工智能風險管理框架1.0》。推進人工智能立法模式化、體系化研究是回應國家戰略的重要舉措,符合科學立法的應有之義,是順應時代潮流的正確選擇。[2]
(二)立法背景
我國在《法治中國建設規劃(2020—2025年)》中提出,要加強信息技術領域立法,及時跟進研究數字經濟、互聯網金融、人工智能、大數據、云計算等相關法律制度,抓緊補齊短板。①2017年國務院印發《新一代人工智能發展規劃》,提出到2025年初步建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力。2023年,《十四屆全國人大常委會立法規劃》中指出,要貫徹落實黨中央決策部署,推進科技創新和人工智能健康發展,制定、修改、廢止、解釋相關法律,或者需要由全國人大常委會作出相關決定的,適時安排審議。
(三)學術背景
應加快推進我國人工智能立法的學術研討已達成共識,當前學術爭論重點更多聚焦于以何種模式推進人工智能立法。目前現存有促進型立法和規制性立法兩種模式。吳漢東認為立法者必須重視風險防控的法治化[3],張吉豫認為當前人工智能技術的創新發展還遠遠不夠,我們必須通過立法促進人工智能的研發。[4]只有選擇符合人工智能發展規律的立法模式,才能促進技術高速發展、服務社會。本文提出的融合型立法模式是將促進型立法模式與規制型立法模式相融合的新模式,發揮兩種模式的優勢,互補完善雙方的不足,在指導原則和立法精神上發揮促進和激勵作用,在具體懲戒措施中明確責任,增強可操作性。
二、促進型人工智能立法模式
(一)促進型人工智能立法模式的價值
" 促進型立法模式采用鼓勵、激勵、促進等柔性調整手段,發揮價值引導和行為促進的功能。推動科技自主創新并使創新成果高效轉化和產業化,從而實現科技成果的經濟效益和社會價值“雙豐收”,是各國科技立法和政策所追求實現的重要目標。[5]我國憲法規定中的“鼓勵”“支持”和“引導”等綱領性條款為促進型立法模式的產生和發展提供了法律基礎。促進型模式的立法調整對象主要面向社會發展的新趨勢,關注需要獲得支持的新興力量、薄弱產業或者科教文衛等發展性領域,通過發揮立法的激勵鼓勵、正面評價、引導獎賞等功能,達到促進行業發展的效果。作為計算機軟件智能發展的新興行業,人工智能立法采取促進型模式具有以下的適配性:
其一,適應人工智能行業發展特點需要。人工智能技術在計算機操作過程中存在兩種不同的方式,分別是工程學方法(Engineering Methods)和模擬法(Simelatian Techniques)。工程學方法是采用傳統的編程技術,使系統呈現智能的效果,而不考慮其采用方法是否與人還是動物機體所用的方法相同,等同于智能操作,常見于文件智能提取與識別、阿爾法狗電腦下棋等功能。模擬法則要求在達到計算結果的同時,還要采用與人類或其他生物體相同或類似的模式,即智能模擬,如遺傳算法和人工神經網絡。模擬法要求編程者要設計一個類似初生嬰兒一樣什么也不懂的智能系統,通過不斷地學習、犯錯、反饋、適應、修改的系列過程使系統不斷進化完善。在模擬法的發展適用階段,更適合匹配適用柔性的發展促進方式,如果一經出現錯誤就全面叫停或者予以重罰,那么人工智能產業的發展將會面臨巨大的人為瓶頸。
其二,加快發展突破國外人工智能技術封鎖。人工智能產業依托數據資源,整合各項算力、參數、模型資源,不僅能夠提高各項產業的融合利用效率,還能夠形成新興壟斷性資源。為此,西方某些國家十分警惕我國在人工智能領域的技術突破,出臺了針對我國技術領域的封鎖措施[6]“不發展就是最大的不安全”,促進型立法模式能夠為人工智能的產業發展集中優勢力量,為加快突破國外技術封鎖發揮巨大的制度優勢。確保人工智能不對主權國家的政治安全構成威脅,已成為推動人工智能安全治理的廣泛共識。對于發展中國家及新興大國而言,鑒于我們在人工智能創新、發展進度、能力建設和應用領域與發達國家存在的差距,以及歷史上發達國家濫用互聯網技術對政治安全造成的風險記憶,如何在人工智能時代背景下,有效捍衛我們的政治安全,并落實高效的人工智能安全治理策略,應當成為我們首要且核心的關注點。
(二)促進型人工智能立法模式的特點
第一,以促進人工智能發展為核心目標。為了最大程度地激勵創新,促進型立法在法律責任和懲戒手段上做了模糊化處理,法律條款的約束作用主要取決于相關研發和服務主體的自覺。美國《人工智能風險管理框架》與英國《支持創新的人工智能監管方法》均在此列,僅規定原則性要求,不規定具體化的懲罰措施,讓“監管”為“發展”讓步。然而,由于缺乏具體的制度細節和責任機制,企業缺乏足夠的遵守動力,監管效果也略顯不足。
第二,充分發揮市場機制的作用。促進型立法能夠在充分發揮市場機制調節作用的同時彌補其內在缺陷。促進型立法以促進為名,發揮激勵作用,即激勵市場機制充分發揮自身的調節功能,堅定維護市場的主導作用,體現了“看得見的手”對“看不見的手”的支持和尊重。例如,為了有效地激發科技創新及其應用活力,立法機關采取了一系列市場化的激勵措施,其中包括通過立法授予專利權及其他相關科技產權的形式來保護創新成果。這一舉措確保了發明者能夠在一定期限內獨享其智力勞動的成果,從而鼓勵了更多的科研投入和技術突破。同時,立法者還以法律的形式明確了有限責任公司等多種組織形式,這些組織形式適宜于科技產業化過程中可能涉及的大規模風險投資與經營活動,順應市場化需求,對科技進步、產業發展發揮了“定盤星”和“指南針”的作用。
(三)促進型人工智能立法模式的局限性
作為一種重要的、柔性的立法模式,促進型立法是人工智能立法領域的有益舉措,但只談促進也存在一定的局限性。
第一,促進型立法的直接適用難度較大。為了發揮引導性功能,促進型模式的立法內容通常呈現出宏觀與抽象的特點,相對而言,其確定性和具體性則較為薄弱。這種立法模式主要通過提倡、引導等手段來體現國家意志,其中包含大量的宣示性、倡導性條文,諸如“支持”“保障”“援助”以及“獎勵”等相關規定頻繁出現,而法律責任條款的設置則相對較少。以《中華人民共和國電影產業促進法》為例,其第四十四條明確規定:“國家對優秀電影的外語翻譯制作予以支持”,而對于具體的支持方式和手段,法律不予明確指示說明。此外,《中華人民共和國鄉村振興促進法》在“監督檢查”部分中關于“給予處分”“予以處罰”以及“追究刑事責任”等條款中的具體懲罰尺度也未進行詳細規定,這對于懲罰措施的應用帶來了一定的模糊性。這種寬泛的行政裁量空間賦予了基層行政機構更大的執法權力,可能會導致法律適用上的不合理現象。同樣,當前的人工智能立法內容中也普遍存在類似的表述,從而產生了較大的自由裁量空間。
第二,促進型立法的實施難度大。促進型立法立足于全部人工智能行業領域的系統性、規范性和協調性,因此在促進發展的過程中常涉及多個職能部門的統籌協調、互相配合。實踐中,不同部門在推進人工智能領域工作時能夠調動和使用的資源及能力不一,難以避免出現相互掣肘、推諉扯皮的現象,法律的實施效率和效果也會因此產生折扣。同時,促進型模式下對于人工智能行業的監管手段更多要依仗缺乏強制力的原則性表述,缺少明確的法律責任承擔,很難對違法行為進行震懾。要真正發揮促進型立法的促進作用,還要在堅持科學立法、民主立法、依法立法的基礎上,融入適當的“規制性”內容,切實研究和解決這些問題,提升立法質量。
三、規制型人工智能立法模式
(一)規制型人工智能立法模式的價值
規制型立法又稱管理型立法,強調以法律規范的存在為基礎對調整對象的行為進行約束和制約。人工智能依靠其特殊的科技屬性和巨大的經濟潛力帶來了前所未有的飛速發展,同時伴隨著顛覆性的風險挑戰,如果不能對其采取有效的預防和應對措施,其所帶來的負面影響將更為復雜和深遠。因此,規制型人工智能立法模式也具有以下的應用價值:
其一,規制型立法的不可替代性。片面追求科技發展以帶來經濟效益最大化雖然能夠在短時期內激發社會進步與經濟繁榮,但其潛在的風險隱患不容忽視且日益凸顯,這要求我們必須通過規制性立法來規范和約束科技發展路徑。從以往的發展歷程中看,在環境層面,科技的發展帶來了資源的過度開采和環境污染,為此立法加強環境保護條款,規制過度開發行為,明確污染排放標準,推動綠色技術的研發與應用,以確保科技發展不以犧牲環境為代價。在社會層面,科技發展會加劇社會不平等,數字鴻溝的擴大使得信息獲取與利用能力的不均衡更加凸顯,同時人工智能的廣泛應用也可能引發就業結構變化,加劇失業風險。因此,立法規制要致力于縮小數字鴻溝,注重保護弱勢群體利益,以確保科技進步惠及全民,促進社會公平正義為出發點和落腳點。此外,人類健康也面臨人工智能發展所帶來的挑戰,包括電子產品過度使用導致的健康問題、新技術應用的倫理風險等。立法規制需建立嚴格的科技產品安全標準,加強科技倫理審查,確保技術發展符合人類健康與安全要求。由此可見,規制性立法在平衡科技發展與社會、環境、人類健康及文化傳承之間的關系中發揮著至關重要的作用,是確保人工智能健康發展、實現社會全面進步不可或缺的一環。
其二,人工智能產業發展具有負外部性。齊延平提出,人工智能的快速發展導致個人私域加劇萎縮,隱私權、私生活自我決定權不斷受到影響,每一個人已經成為信息上的透明人。[7]盡管人工智能作為新興科技具有顯著的迭代效應、廣闊的應用場景以及巨大的產業化潛力,能夠通過“人工智能+”的模式實現與其他領域聯動增強的效能,但是一旦操作不當,也能夠帶來諸多不可預見的負面外部影響,加劇其他社會問題的嚴重性。其中最根本的是技術結構的自主性滋長,導致技術失去人的控制,對人類自身存在價值構成威脅。馬克思揭示了資本與技術結合導致的社會分化與異化。科技立法對環境問題長期忽視,直到20世紀60年代才開始關注。同時,科技發展的威脅也長期被邊緣化。最根本的后果是技術自主性滋長,技術失去人的控制,成為自主化技術,對個人自主性和人類文化自主性構成威脅,最終促成技術統治。[8]我國2017年7月8日發布《新一代人工智能發展規劃》也關注了人工智能發展的不確定性帶來新挑戰。①因此,必須提前規劃,采取有效措施來預防和應對這些潛在風險,以避免急功近利、引發社會危機。
(二)規制型人工智能立法模式的特點
第一,加強監管屬性。人工智能與其他科學技術相比,具有較強程度的自動化決策技術,表現出更多的復雜性、模糊性、不可預測性與自主學習性等特征,這些特征會導致因人工智能的不當應用而造成社會公共領域的風險危機。各國參與人工智能治理在整體上呈現加速演進態勢,開始推進以“硬法”為保障的風險防控體系。保障安全嚴厲監管的剛性規制模式。歐盟《人工智能方案》中擴大了 “不可接受的風險” 清單, 以免人工智能發展過程中出現不受控制的侵入和歧視行為。歐盟的規制性立法全面禁止公共空間生物識別、情感識別、預測性警務, 以及從網絡隨意抓取面部圖像等六類人工智能系統。[9]
第二,明確法律責任承擔。為確保人工智能安全成為首要考量,相關法律明確規定了違反法案的責任主體需承擔的法律后果。歐盟人工智能法案詳細列出了不同違規情形的處罰措施,明確罰款金額。加拿大人工智能監管機構在AIDA(Artificial Intelligence and Data Act)中指出,要通過立法監管使制度適應人工智能技術的新發展,并為加拿大政府監管人工智能系統(包括生成式人工智能)提供法律基礎,從而解決人工智能系統的潛在風險,以保證加拿大人民對人工智能技術的信任。AIDA提出并明確了行政罰款、違法訴訟和刑罰三種處罰機制來應對違規行為。隨著人工智能的現代化發展,它與社會發展所帶來的各種安全風險問題相互交織。2018年,習近平總書記在中共中央政治局第九次集體學習時強調,要加強人工智能發展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控。
(三)規制型人工智能立法模式的局限性
第一,風險的不可預見性。從會下棋的阿爾法狗到生成式人工智能Chat GPT的問世,人工智能迅猛的發展速度已經遠超人們的心理預期,顯然也讓法律稍顯滯后。如何應對由人工智能帶來的未知風險和挑戰已經成為社會治理的一大難題。目前,除了我們已經熟知的信息泄露、數據殺熟等已知風險,其他領域的技術更迭也早已遠遠超過了我們的認知,人工智能可能在不斷增強自身復雜性和自主性的同時超出人類的控制,進而對人類造成傷害與威脅。在醫療領域,人工智能在面臨算法決策時,會因為權衡患者之間不同的生存利益和生命價值造成歧視,放大人類的偏見;在軍事領域,人工智能武器的殺傷力更強、打擊性更為精準但可能出現無差別的人類攻擊。對于未知風險進行已知約束無疑使規制性立法模式的作用大大減弱,同時,如果稍有不慎不僅不能有效防控風險,還會阻礙技術進步。
第二,立法標準設定困難。基于風險評估的統一監管在處理不同類型的智能技術和應用場景時,面臨標準設定困難及風險動態變化的問題。技術的快速發展與法律的滯后性、人工智能技術的跨界融合與各個領域之間存在差異、缺乏風險評估機制、責任主體認定困難等情況的存在使得立法標準精準設定存在困難。如《歐盟人工智能法案》根據不同的預期用途設定了不同的風險等級,但對于生成式人工智能這類沒有固定預期目標的技術而言,難以直接套用現有的風險框架,只能將其列入高風險監管。
四、融合型人工智能立法模式
(一)融合型人工智能立法模式的價值論證
采用何種立法模式能夠有效應對人工智能風險挑戰,又能激勵技術向善發展成為模式選擇的關鍵問題。融合型立法模式則兼具促進與規制兩種特征。生成式人工智能作為人工智能領域未來發展的重要技術趨勢,在立法考量時,對大型模型數據訓練及其生成內容所涉及的法律責任,應持有一定的靈活性與包容性,因為其在社會生產與生活中的成功融入,有望為眾多行業及開發者帶來廣泛的益處。同時,人工智能發展所帶來的自身風險以及其引發的倫理、道德和公共事務等問題也不容忽視,如果不加以應對和防范,會帶來更強的負面效應,因而融合型立法模式更加適合。融合型人工智能立法模式的價值具體體現在以下方面:
其一,緊密貼合我國制度環境。與歐美相比,我國科研機構與企業更易受政府影響,立法更體現國家治理意愿,并迅速通過行政執法實施。融合型立法模式相較于其他模式,更貼合我國本土的制度環境。我國的國家行政機關在國家治理中扮演著至關重要的角色,要廣泛管理社會經濟的各個領域,以確保社會秩序的穩定和公共利益的實現。然而,過度的管制可能會抑制創新和經濟發展,而過寬松的監管范圍又可能導致監管空白和失序。融合型立法模式恰好能夠在一定程度上平衡這一矛盾,它通過寬容的促進精神與明確的懲罰標準相融合,形成一個有機整體,使得行政機關在行使行政權力時,能夠更加全面、靈活地應對各種復雜情況。這種立法模式既能夠確保政府在關鍵領域的有效監管,又能夠避免過度干預市場和社會自治,從而為我國行政國家的治理提供更為科學的立法框架。
其二,兼顧促進與管理雙重屬性。林洹民認為以人工智能活動為規范對象的人工智能法不應以單一理論為指導,而應遵從科技法與應用法雙重定位。[10]科技法定位下的《人工智能法》以促進科技發展為核心目標,充分尊重科技自主,將科技倫理、制度規范、保障安全等要求內化于人工智能研發活動中,打破制度壁壘,設計促進型規則,推動人工智能技術的發展。應用法定位下的管理性對應規制型立法模式,即關注科技應用過程中產生的失控與異化行為,通過構建彈性規范框架和推行實驗主義治理,回應不同場景的價值差異,滿足靈活治理需求。融合性立法模式在充分尊重科技獨立自主發展的同時還劃定了發展紅線,符合雙重治理標準。
其三,適應高度不確定性。鑒于人工智能技術的顛覆性和快速迭代性,立法需容納并適應這種不確定性。這包括建立積極的社會規范體系,促進合理研發與應用的社會協作與信任,以及制定消極的社會規范,防范和應對潛在社會問題。融合型立法模式既融合了促進型立法模式中柔性的原則性模式,為技術發展留出了充足空間,又根據規制型立法模式中的風險防控要求對于違法行為制定了框架型監管機制。
(二)融合型人工智能立法模式的基本原則
一是堅持以人為本的基本原則。[11]考慮到人工智能所蘊藏的巨大科技潛力,尤其是其日益增強的自我學習能力,這種能力在某種程度上已經能夠與人類相媲美,甚至在某些情境下可能對人類造成混淆或替代的威脅,我們必須對此保持高度的警覺。因此,當科技的進步與人類的核心價值產生沖突時,我們需要堅定地維護人類的基本價值,確保科技價值在必要時向人的核心價值讓步。人工智能的發展路徑必須明確由人類來主導,并且始終堅持以人為本的核心理念。在技術的研發與應用過程中,我們要將尊重人類的基本價值觀放在首位,不能僅追求經濟價值的最大化。人工智能的發展應當是在確保人類尊嚴、權益與福祉的前提下進行的,任何技術的進步都不應成為侵犯或削弱人類核心價值的工具。[12]
二是兼顧法律條款的可執行性與開放性原則。在制定促進性內容時,因其天生具備的前瞻性和導向性特征,要深入論證前瞻性制度,盡可能準確預判并把握未來的發展趨勢和內在規律;對于那些要求保持靈活性、需充分尊重調整對象自主決策權的場景,宜采用鼓勵性、宣告性的條款,適當簡化或原則化處理部分內容,以免過度僵化阻礙相關領域的創新發展;在制定規制性條款時要明確技術應用尺度、具體安全要求以及可融入法律制度的倫理基礎,立法表達、措辭應當明確、具體、有針對性。對相關主體的權利、義務以及責任的設置應當比例相稱。
(三)融合型人工智能立法模式的思路設計
一是構建權益保障機制。通過權益保障機制發揮激勵促進與保障作用,具體可以包括在三個方面:其一,對于數據信息量激增,高質量數據信息稀缺問題,可以通過立法手段建立數據共享平臺,并構建相應的數據開放標準,制定數據權屬與流通規范,同時鼓勵數據交易市場的規范化發展。其二,對于研發主體的激勵,立法應完善知識產權保護體系,明確人工智能研發者、運營者等主體的合法權益,通過稅收優惠、專項基金設立等立法激勵措施,為研發主體提供強有力的法律保障和經濟支持。其三,為解決人工智能生成內容的權益歸屬及算法模型流通中的利益分享問題,立法需確立明確的權益歸屬原則,構建公平合理的利益分享機制,推動算法模型流通的標準化建設,并強化政府監管與行業自律,確保各方權益在法律框架內得到妥善保護與平衡,從而推動人工智能產業的健康、有序發展。
二是完善知識產權規范。在立法層面,應明確數據獲取階段使用作品的合法性標準,包括界定合理使用的范圍,設定合理的授權機制,以及規定必要的版權保護措施。立法可以采取設立數據學習作為知識產權規范中的一項合理使用情形,盡可能為人工智能數據模型的深度學習掃清障礙,同時要求以不影響被挖掘作品自身的正常使用為原則。可以通過建構特定的許可制度,支持利用人工智能生成內容進行科學研究和文化創作活動。[13]對于人工智能領域的知識產權監管,應采取包容審慎的態度。因為科技是不斷創新的,創新總會涉及人類未知的領域,在還不能夠完全掌握的時候,應該有一定的包容性。立法可以通過強化中間商的注意義務,促使其更積極地預防或阻止公眾用戶的侵權活動,同時鼓勵開發出更有效的技術措施,如利用水印、加密、過濾等技術來阻止公眾侵權。對于受知識產權保護的核心領域,立法應明確侵權的法律責任,達到規制性內容的震懾作用。
三是規制算法歧視行為。為確保人工智能技術的有效運用并防范潛在歧視風險,可在立法內容設計中細化下列內容:一確立算法倫理與公平性審查原則,制定算法倫理準則,立法應明確算法設計、開發及應用需遵循的基本倫理原則,包括但不限于透明度、公平性、責任可追溯性及尊重人權等。二建立公平性審查機制,要求所有涉及公共利益或大規模數據處理的算法,在應用前必須通過獨立的公平性審查,確保算法決策過程無歧視性偏見。三細化算法歧視的識別與預防,明確算法歧視內涵,在立法中界定算法歧視的具體表現形式,包括但不限于基于性別、種族、年齡、宗教信仰等受保護特征的直接或間接歧視。提升識別技術,鼓勵并規定使用先進的算法審查工具和技術,以提高在算法設計、測試及運行階段識別歧視性偏差的能力。動態調整受保護特征清單,立法應授權相關監管機構根據社會變遷和技術發展,定期更新并公布包含多樣化受保護特征的清單,確保算法的全面公平性。四強化算法透明度與可解釋性,對算法的設計邏輯、數據來源、處理過程及輸出結果需對用戶和社會公眾保持一定程度的透明,便于監督與評估。立法應設定算法可解釋性的最低標準,確保算法決策過程能被非專業人士理解,便于發現并糾正潛在的歧視問題。
四是落實主體責任。人工智能立法在落實多方主體責任時,應綜合考慮技術的特殊性、社會影響以及法律原則,明確主體界定與責任劃分,確保各主體在人工智能的研發、應用、監管等各個環節中都能明確其法律責任,并有效履行。開發者要確保人工智能技術的安全性、可靠性和合規性,對算法進行充分測試,避免算法歧視等倫理問題,及時履行報告義務,對公示版權內容使用情況并加以標識,保障版權內容使用可追溯。使用者要遵守相關法律法規,合理使用人工智能技術,對使用過程中產生的數據負責,確保數據使用的合法性和安全性,對人工智能技術的輸出結果進行審慎判斷,避免誤用或濫用。數據處理者要確保數據處理活動的合法性,遵守數據保護法規,采取適當的技術措施和管理措施,保障數據安全,對數據的使用目的、方式和范圍進行明確說明,并獲得必要授權。
五、結語
人工智能領域涵蓋的內容十分廣泛,立法在平衡發展與安全之間還存在諸多阻礙,難以在短時間內進行規范表述達成共識。本文結合當前現有人工智能立法實踐,分析出促進型立法在促進人工智能產業發展的同時,又缺乏一定的可操作性,法律責任設定不明確,直接適用難度大;規制型立法在起到防范人工智能產業發展風險的作用時,又面臨著立法標準設定困難、難以及時預知風險的局限性。在此基礎上,本文嘗試提出第三種立法模式——融合型立法模式,分析論證其存在的必要性和適時性,對立法原則、思路框架進行了展望設計,期待為人工智能立法工作提供有益的理論助力。
〔參 考 文 獻〕
[1]胡銘,洪濤.我國人工智能立法的模式選擇與制度展開——兼論領域融貫型立法模式[J].西安交通大學學報(社會科學版),2024(4).
[2]陳亮.人工智能立法體系化的困境與出路[J].數字法治,2023(6).
[3]吳漢東.人工智能時代的制度安排與法律規制[J].法律科學(西北政法大學學報),2017(5).
[4]張吉豫.人工智能良性創新發展的法制構建思考[J].中國法律評論,2018(2).
[5]嚴馳.論人工智能的激勵型立法——基于《拜杜法》的思考[J].人工智能,2024(2).
[6]張凌寒.中國需要一部怎樣的《人工智能法》?——中國人工智能立法的基本邏輯與制度架構[J].法律科學(西北政法大學學報),2024(3).
[7]齊延平.論人工智能時代法律場景的變遷[J].法律科學(西北政法大學學報),2018(4).
[8]龍衛球.人工智能立法的“技術—社會+經濟”范式——基于引領法律與科技新型關系的視角[J].武漢大學學報(哲學社會科學版),2020(1).
[9]邵長茂.人工智能立法的基本思路[J].數字法治,2023(5).
[10]林洹民.論人工智能立法的基本路徑[J].中國法學,2024(5).
[11]馬長山.人工智能的社會風險及其法律規制[J].法律科學(西北政法大學學報),2018(6).
[12]張新寶,魏艷偉.我國人工智能立法基本問題研究[J].法制與社會發展,2024(6).
[13]侯東德.人工智能法的基本問題及制度架構[J].政法論叢,2023(6).
〔責任編輯:孫玉婷〕