人工智能的研究、設計、開發、部署、推廣和應用,既是一個科學技術問題,也是一個需要法律制度規制的問題。
5月14日,國務院辦公廳發布《國務院2025年度立法工作計劃》,其中明確,今年將推進人工智能健康發展立法工作。
人工智能是新一輪科技革命和產業變革的重要驅動力量,日益成為全球科技競爭的戰略制高點。近年來我國高度重視人工智能發展,完善頂層設計、加強工作部署,積極促進互聯網、大數據、人工智能和實體經濟深度融合,推動我國人工智能綜合實力實現整體性、系統性躍升。同時,人工智能發展可能會帶來前所未有的風險挑戰,需要加強人工智能治理。
黨的二十屆三中全會《決定》提出:“完善生成式人工智能發展和管理機制”“建立人工智能安全監管制度”。依法執政是我們黨治國理政的基本方式,法治是中國式現代化的重要保障,既能為促進人工智能健康發展夯實制度基石,也能為應對技術風險、保障國家安全提供重要屏障。中國政法大學數據法治研究院教授張凌寒表示,在法治軌道上加強人工智能治理,構建以人為本、智能向善的治理框架,已成為我國搶抓人工智能發展歷史性機遇的必然選擇。
早在2024年5月,全國人大常委會公布的2024年度立法工作計劃曾將“人工智能健康發展等方面的立法項目”列入預備審議項目。國務院公布的2024年度立法工作計劃中,亦明確“預備提請全國人大常委會審議人工智能法草案”。
近年來,我國不斷加強人工智能立法,初步構建涵蓋法律、行政法規、部門規章及地方性法規等多層次和數據、算法、應用等多維度的人工智能法律法規制度框架。
一方面,我國通過相關法律法規明確了人工智能發展治理基礎制度。《中華人民共和國電子商務法》《中華人民共和國個人信息保護法》等對個性化推薦、自動化決策進行了規定,《中華人民共和國民法典》明確禁止利用信息技術手段偽造等方式侵害他人的肖像權的行為,并參照肖像權保護的有關規定對自然人聲音進行保護。《中華人民共和國反壟斷法》禁止利用算法實施壟斷行為。
另一方面,我國圍繞算法、深度合成、生成式人工智能等重點領域制定專門規則。《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》明確了算法推薦、深度合成等相關管理制度,《生成式人工智能服務管理暫行辦法》作為全球首部生成式人工智能專門立法,規定了生成式人工智能服務基本規范。
隨著人工智能技術在創作、研發等領域的廣泛應用,作品歸屬、專利權界定等知識產權問題日益凸顯。例如,由人工智能生成的文學、繪畫、音樂作品,其著作權究竟應歸屬于開發者、使用者,還是被認定為無主作品?在專利領域,若人工智能自主“發明”技術方案,專利權又該如何歸屬?這些爭議給現有的知識產權法律體系帶來了巨大挑戰。
張凌寒表示,人工智能已融入我國經濟社會發展的方方面面,正深刻改變人們的生產生活方式,其創新發展在帶來前所未有發展機遇的同時,也對我國政治安全、經濟安全、軍事安全、文化安全、社會安全等帶來一定影響,成為事關高質量發展和高水平安全的重要領域。推進人工智能治理法治化,必須堅持總體國家安全觀,將安全發展的理念貫穿全過程各方面,在嚴守安全紅線與底線,把握人工智能發展趨勢和規律,充分認識和評估技術產業發展伴生的安全風險基礎上,加緊制定完善相關法律法規、政策制度、應用規范、倫理準則,構建技術監測、風險預警、應急響應體系,在事前、事中和事后全周期確保人工智能安全、可靠、可控。
《法律科學》主編楊建軍也提到,人工智能技術的發展離不開科學合理的頂層法律制度設計。人工智能技術的發展衍生出了許多新的問題,如法律責任問題、權利保護問題、技術和社會風險治理等問題。為此,立法應預先做好妥當規制,給出合理的制度應對方案,使人工智能發展能夠在法治軌道上行進。
當今世界,各國紛紛加快制定完善人工智能相關立法,搶抓全球人工智能治理主導權。人工智能治理法治化的成效深刻影響著經濟社會發展的未來走向。推動我國人工智能治理法治化,構建完善人工智能法治體系,優化人工智能法律制度供給,不僅有利于實現人工智能高質量發展和高水平安全的良性互動,也將促進我國在全球人工智能治理中發揮更大作用。
針對立法將如何推動人工智能領域健康發展,北京觀韜律師事務所執行合伙人、知識產權業務委員會主任李洪江在接受采訪時表示,一方面立法將明確權責分配與風險分層,同時促進數據要素與算力的資源優化;另一方面,立法可以強化知識產權全鏈條保護,并強化國際合作與標準協同完善。
李洪江認為,人工智能立法是平衡技術創新與社會治理的關鍵舉措,其核心價值體現在三方面,首先構建安全與發展并行的法治框架;其次,搶占國際規則制定話語權;最后,回應社會關切與產業激勵。
“從AI換臉侵權到算法歧視,公眾對技術濫用的焦慮日益加劇。立法通過分級分類監管可系統性解決維權舉證難、損失量化難等問題,同時為企業劃定合規邊界,降低法律不確定性帶來的商業風險。”李洪江說。
張凌寒提到,加速迭代、爆發式發展,是當前人工智能技術發展的重要特征,這既決定了人工智能治理的對象具有高度不確定性,同時也要求在推動人工智能治理法治化過程中必須堅持適應性治理理念。
《法學評論》編輯張素華認為,如何讓我國的人工智能立法更好地適應技術的動態發展、產業迭代、風險治理的不確定性以及背后復雜的利益關系,需要學界結合人工智能實踐進行更深入更細致的研究。當前人工智能立法在立法原則與立法進路上達成初步的共識,堅持發展與安全并重,堅持技術倫理價值對齊,堅持包容審慎監管等原則。但這些原則如何通過具體的規則落地實施則任重而道遠。
在張凌寒看來,推進人工智能立法是一項系統性工作,需要積極推進構建人工智能法律制度體系。因為“人工智能發展將帶來法律體系的全方位變革,其范圍不僅局限于某一部或某幾部專門法律的制定,而是涉及整個法律體系的適應性更新和完善。”一方面,要結合人工智能技術產業發展的要素和領域統籌設計法律制度。既關注人工智能相關的要素法,建立健全算力、數據、算法和模型的供給與安全等制度;又完善人工智能相關的領域法,對醫療、教育、金融、司法等代表性領域的人工智能應用作出規范。另一方面,要結合既有立法修法項目進程,在法律體系更新優化中充分考慮人工智能發展的因素。比如,在道路交通安全法、公路法等法律修改過程中,及時對輔助駕駛的合規要求與事故責任認定等予以制度回應;又如,在數字經濟立法起草過程中,應充分考慮促進數據資源開發利用、基礎模型研發推廣、人工智能產業化、傳統產業智能化等相關制度設計。
張凌寒強調,推進人工智能治理法治化,應當圍繞服務國家重大戰略需求,在推動人工智能發展中更好統籌高質量發展和高水平安全,以良法善治保障人工智能健康發展,增強我國在人工智能時代的全球競爭力。