關鍵詞:人形機器人 具身智能 發展和安全并重 包容審慎監管 算法 安全風險評估
中圖分類號:DF0 文獻標識碼:A 文章編號:1674-4039-(2024)05-0032-42
一、問題的提出
作為具身智能產物的人形機器人,通過使用以大數據為基礎的多模態模型,在高算力的基礎上,通過強算法能夠進行高質量的感知、規劃和行動,并可以通過自然語言同人類連貫高效地智能交互。2023年工業和信息化部發布的《人形機器人創新發展指導意見》提出:“人形機器人集成人工智能、高端制造、新材料等先進技術,有望成為繼計算機、智能手機、新能源汽車后的顛覆性產品,將深刻變革人類生產生活方式,重塑全球產業發展格局。”盡管在真正意義上可能成為“智能終端”的人形機器人具有極為廣闊的應用場景,可服務特種領域需求,助力智能制造,成為人類生活助手和情感伴侶,但在發展過程中也會引發一些安全問題,如何實現人工智能發展和安全并重成為數字時代的重要命題。
當前從法治角度對人工智能發展和安全并重的專門探究較少,有學者提出發展和安全并重是獨具特色的中國人工智能治理之道,另有學者對實現生成式人工智能發展與安全并重的包容審慎監管進行了研究。對于人形機器人的發展和安全并重問題,部分學者探討了人形機器人的隱私風險、操縱性風險、“信任控制”風險等具體風險,另有部分學者研究了人形機器人的法律治理基本架構、侵權責任、刑事責任等問題。現有研究已經取得了卓越的成效,但亟需從中觀層面并結合人工智能的具體應用領域,系統深入探究人工智能發展和安全并重的法治問題。
科技的創新總是伴隨著各種風險,智能時代科技更新迭代速度更快,發展和安全的矛盾變得更為突出。在未知大于已知的情境下,很難平衡發展和安全的關系。發展是安全的基礎,過度追求安全會扼殺創新而阻礙發展。安全是發展的條件,罔顧安全而求發展會導致多種風險。《“十四五”機器人產業發展規劃》《人形機器人創新發展指導意見》等文件均明確提出“統籌發展和安全”,《生成式人工智能服務管理暫行辦法》第3條規定“國家堅持發展和安全并重、促進創新和依法治理相結合的原則”。2024年政府工作報告提出“開展‘人工智能+’行動,打造具有國際競爭力的數字產業集群”。2024年發布的《中共中央關于進一步全面深化改革、推進中國式現代化的決定》要求“實現高質量發展和高水平安全良性互動”“建立人工智能安全監管制度”。為了促進有效市場和有為政府更好結合,推動人工智能產業高質量發展,助力發展新質生產力,本6cX88zRA51+Vi8xMc+BFsg==文將以人形機器人為例,系統探討人工智能發展和安全并重的法治之道。
二、人工智能發展和安全的張力
發展和安全的沖突,在人工智能時代更為凸顯。智能科技更新迭代迅速,監管機構的認知能力有限,在未知大于已知的情境下,處理好發展和安全的關系存在巨大的難度。發展和安全容易失衡,為了發展可能犧牲安全,為了安全可能罔顧發展。人形機器人在發展過程中會產生多種安全風險,但如果過度追求安全就會扼殺創新而阻礙發展。
(一)人形機器人的發展存在多種安全風險
盡管人形機器人技術加速演進,已成為科技競爭的新高地、未來產業的新賽道和經濟發展的新引擎,但在發展過程中面臨多種安全風險。人形機器人的自主性越強,存在的安全風險可能就越大。
一是功能安全風險。人工智能可能成為“人工智障”,無論是硬件有缺陷,還是軟件有漏洞,都可能導致人形機器人功能失靈,從而引發安全事件。大量關于工業機器人造成災難的數據都表明,即使在工業機器人的傳統應用中,安全性仍然是一個未解決的問題。機器人傷人、殺人等事件屢見不鮮,如1978年日本一家工廠的切割機器人突然“轉身”將工人抓住并切割。2015年,德國某汽車工廠一名工人被機器人按壓在金屬板上,最終因胸部遭受嚴重瘀傷而死亡。由于人形機器人具有高交互性,同人的身體接觸更為密切,一旦出現功能失靈,將對人造成更大的傷害。如果大模型的數據有問題,高智能就無法實現,人形機器人的決策和行動就會出現失誤。如果人形機器人沒有及時辨明人的錯誤指令,那么由于人的失誤也可能導致安全事件。人形機器人功能失靈不僅可能導致人類被傷害,而且由于無法實現既定功能可能造成重大損失。例如,在應急救援領域,如果人形機器人突然功能失靈,那么將造成更多的人員傷亡。
二是網絡安全風險。人形機器人離不開網絡,但一旦接入互聯網就存在網絡安全風險。人形機器人的交互能力越強,承擔的智能任務越多,面臨的網絡安全風險就越多。如果智能工廠中的人形機器人被實施網絡攻擊,不僅會對正常的工業生產造成不良影響,而且還可能威脅工人的安全。攻擊者進行數據投毒,向模型的訓練數據集中加入惡意樣本或修改訓練數據標簽信息,從而影響模型在推理階段的表現。惡意軟件可能導致醫用機器人在與人交互時執行不需要的操作,勒索軟件可能劫持醫用機器人為人質使其無法使用。黑客可能獲取人形機器人所掌握的個人信息實施詐騙,或利用作為私人助手的人形機器人實施遠程違法“代理”,也可能控制人形機器人實施入戶盜竊、搶劫等犯罪行為。人形機器人的發展,可能大大增加恐怖犯罪活動的風險。如果加油(氣)站、充電站、危險物品倉庫、化工廠等危險目標遭到人形機器人的恐怖襲擊,不僅可能造成人員、財產等重大損失,還可能造成極其惡劣的政治影響。
三是個人信息安全風險。人工智能的運行離不開個人信息,個人信息如同“砧板上的肥肉”被無數主體所覬覦。人形機器人在同人類交互過程中,會掌握大量個人信息,如生物識別、身份證號、金融賬戶、醫療健康、特定身份、宗教信仰等信息,存在泄露的風險。大模型一方面可能會“記憶”并在特定輸入誘導下泄露訓練數據中的個人信息,另一方面可能推斷出個人的宗教信仰、經濟狀況等個人信息而予以泄露。攻擊者進行“撞庫”攻擊,通過收集互聯網中已泄露的用戶和密碼信息生成對應的字典表,嘗試批量登錄其他網站。
由于“耳聰目明”,人形機器人可能成為超強“竊聽器”和“竊看器”。作為私人助手的人形機器人,不僅可能違法收集家庭談話、電話通信等語音信息,還可能違法識別家庭財產、私密行為等圖片、行為信息。作為情感伴侶的人形機器人,可能獲取人類更愿意主動透露的個人隱私。在智能化社會中,如何有效保護個人信息,是人類面臨的新的倫理、法律和社會問題。
四是數據安全風險。人形機器人不僅可能引發個人信息安全風險,還可能引發公共數據和企業數據泄露風險。人形機器人離不開生成式人工智能的運用,而生成式人工智能語料庫的大規模流動、聚合和分析會帶來前所未有的數據安全風險,其范圍涵蓋數據輸入、運算、存儲和輸出的全過程,兼具瞬時性和破壞性。數據可能被人形機器人的開發者、相關軟件運營者等主體違法處理,也可能被黑客竊取。現階段的技術局限導致大模型應對訓練數據提取攻擊、數據投毒等數據攻擊活動的穩定性不足。服務特種領域需求、助力智能制造等領域的人形機器人,收集存儲的大量公共數據和企業數據可能會被泄露。企業數據屬于商業生產資料,可能涉及商業秘密和核心數據資產,違法處理可能給企業帶來巨大的經濟損失。公共數據屬于公共生產資料,但并非都應無條件開放,違法處理可能損害公共安全。
五是國家安全風險。人形機器人可能直接被用于從事間諜活動,如竊取國家秘密、情報,或者針對國家機關、涉密單位或者關鍵信息基礎設施等實施網絡攻擊。人工智能驅動的工具“一本正經地胡說八道”,極易生成諸多看似真實的虛假信息而形成“人工智能幻覺”。人形機器人如果基于政治目的進入社交媒體,就可能通過發言、轉發、點贊、評論、添加好友等方式,影響公共決策的議程安排、傳播假新聞、反映錯誤的社會群體分化、干擾競爭性選舉、制造社會矛盾乃至群體對立,從而可能與國際政治領域的“信息戰”相疊加引發國家安全問題。應用于國防、工業、金融、應急救援等領域的人形機器人,一旦出現大規模的網絡安全、個人信息安全、數據安全等事件,就最終可能影響國家政治安全、經濟安全和社會安全。
六是違法“代理”風險。隨著通用人工智能的不斷發展,人類對人形機器人的依賴會越來越強,由人形機器人實施的智能法律行為引發的糾紛也將日益增多。智能法律行為存在于虛實融合的復雜系統,既可能涉及真實世界的人、物、基礎設施等,也可能涉及虛擬空間的數字人、數據財產、虛擬生活或交易場景,并且雙重空間在多元技術支撐下交互共生,擴張為“元宇宙”量級空間。作為私人助理的人形機器人,對外則可能被視為是主人的代理人。如果沒有獲得、超出或錯誤理解主人的指令,或基于深度學習,或被黑客操控,人形機器人對外實施的智能法律行為就可能構成無權代理,但在第三人看來則可能屬于表見代理,由此可能引發行為的成立、效力、責任等糾紛。
七是侵權風險。在發展和利用人形機器人的過程中,存在侵權風險。首先,高智能的人形機器人離不開大數據的喂養,而在數據的輸入端,無論是數據“輸入—收錄”還是數據爬取,都可能侵犯數據產權。其次,在數據的輸出端,基于大模型的人形機器人產生的作品可能存在知識產權爭議。如何在人工智能衍生內容生成眾多貢獻者中進行抉擇、取舍,確定某個或某幾個主體作為知識產權歸屬者和相應侵權責任的承擔者,成為棘手的新問題。在“AI文生圖”著作權案中,北京互聯網法院經審理后認為,自然人對其利用AI繪畫大模型生成圖片在符合一定條件下享有著作權,被告使用涉案圖片作為配圖并發布在自己的賬號中,使公眾可以在其選定的時間和地點獲得涉案圖片,侵害了原告就涉案圖片享有的信息網絡傳播權。此外,被告將涉案圖片進行去除署名水印的處理,侵害了原告的署名權。最后,使用者可能違法利用人形機器人實施侵犯人身權、財產權、名譽權、隱私權、個人信息權益等侵權行為,人形機器人也可能失控實施侵權行為。
八是倫理風險。無論具身智能技術如何先進,人形機器人的發展都可能產生倫理問題。性愛機器人率先攻入人類的私密生活領域,脫離了生殖目的的性行為受到了更多的寬容、默認乃至鼓勵。“去中心化的性”對于傳統的性觀念造成沖擊,而且隨著性愛機器人自主思考能力的提升,人機間的主奴關系將發生顛覆。情侶機器人可能導致女性客體化、情感欺騙、社交弱化等問題。智能養老護理機器人的“計算式思維”遠遠大于關懷式思維,可能導致老年人對機器人產生“單向情感聯系”或“單相思”,形成對機器人的過度依賴而減少真實的社交,由此又可能增加老年人認知功能下降和癡呆的風險。人工智能在倫理觀念上存在很多局限,其決策結果是基于數據和算法的線性“思維”形成的,難以在各種場景尤其是突發場景中作出符合人類價值的倫理判斷。算法可能加劇不平等,人類設計者隱藏的偏見、雙重標準很容易嵌入算法。人形機器人的研發者為了追求商業利潤最大化,可能違反基本的倫理規范。人工智能的失控,很可能是因為某位工程師的一念之差。
(二)過度追求安全會扼殺創新阻礙發展
盡管人形機器人存在功能安全、網絡安全、個人信息安全、數據安全、國家安全、違法“代理”、侵權、倫理等多種安全風險,但如果過度追求安全,就會扼殺創新阻礙發展。“創新是引領發展的第一動力,創新發展注重的是解決發展動力問題,必須把創新擺在國家發展全局的核心位置,讓創新貫穿黨和國家一切工作。”創新是新發展理念“創新、協調、綠色、開放、共享”的首要要素,我國憲法明確要求“貫徹新發展理念”。“新一輪科技革命帶來的是更加激烈的科技競爭,如果科技創新搞不上去,發展動力就不可能實現轉換,我們在全球經濟競爭中就會處于下風。”工業和信息化部在解讀《人形機器人創新發展指導意見》中指出:“我國人形機器人產業前期已有一定基礎,但在關鍵基礎部件、操作系統、整機產品、領軍企業和產業生態等方面仍存在短板弱項,需要加強政策引導,集聚資源推動關鍵技術創新,培育形成新質生產力。”雖然通用人工智能促進了人形機器人的跨越式發展,但人形機器人還無法像人類那樣“耳聰目明”“四肢穩健”,具身智能技術需要進一步取得突破。
其一,人工智能的安全問題不容忽視,但不宜過度夸大。“安全是人工智能時代的核心法價值。安全價值是對整個社會秩序穩定的維護。”作為顛覆性產品的人形機器人,將深刻變革人類的生產生活方式,但也存在多種風險。人形機器人批量投入市場后,單個風險的組合就是大規模風險,一旦發生安全事件,就可能對個人、社會、國家造成難以挽回的大規模損害。現代科技可謂是一把“雙刃劍”,它既滿足了人類無盡的欲望,又將人類置于無窮的風險之中。機遇與挑戰并存,對人工智能的諸多擔憂并非杞人憂天。如果不重視安全,人形機器人不僅不可能成為人類的福音,反而還可能成為人類的喪鐘。但因為人形機器人的發展存在風險隱患,就予以嚴厲限制甚至全面禁止,就可能是因噎廢食了。
當前對人工智能的監管,在某些領域還存在“泛安全化”的思維。由于新科技的發展具有不確定性,一些人工智能產品很容易被以保障安全的名義實施嚴厲監管甚至被“叫停”。除了過度考慮發展所引發的風險,決策者的自利考慮也容易導致安全問題被夸大。過度重視安全可能只是阻礙了新科技的快速發展,但如果監管不力而釀成重大安全風險事件,相關決策者就可能被嚴厲問責。一些部門的決策者可能寧愿選擇犧牲發展,也不敢去冒可能被事后認定為“不重視安全”而丟掉烏紗帽的風險。無論是過于重視防范社會風險,還是過度擔心問責風險,都會使得安全問題被放大,從而阻礙人工智能發展。
其二,絕對安全難以有效實現,應將人工智能的風險控制在可接受的程度。傳統的絕對安全觀念認為安全風險可以通過預測和計算予以完全控制,但數字時代人工智能的風險是由技術本身的特點和應用環境等多方面因素綜合造成的,雖然可以通過法律治理、倫理治理等降低風險,但難以完全消除。除了風險本身具有不確定性,人類認知能力有限,也決定了難以實現絕對安全。數字時代科技發展的速度呈現指數級增加,專業性和門類性的特點越來越突出,但監管機構對創新的特點和技術趨勢的把握往往并不十分精準,從而制約了風險規制的效果。追求零風險而確保絕對安全,是難以實現的,即使實現了也會耗費巨大的成本。《關于加強科技倫理治理的意見》要求“合理控制風險”。具身智能技術迭代更新迅速,人形機器人應用場景多元,監管機構認知能力有限,要想完全消除人形機器人的發展風險而確保絕對安全是不可能的。應當合理控制人形機器人的發展風險,以實現相對安全。
(三)應統籌人工智能的發展和安全
過度追求安全會扼殺創新阻礙發展,罔顧安全而求發展會導致多種風險。發展和安全是國家治理的重大難題,實現發展和安全并重,已成為新時代國家治理的基本目標。“統籌發展和安全,不是把砝碼只放在安全上、把發展擺在次要位置,而是要在發展中更多考慮安全因素,在確保安全的同時努力推動高質量發展。為了發展而不顧及潛在風險挑戰,是不對的;為了安全而在發展上裹足不前,也是不對的。”《國民經濟和社會發展第十四個五年規劃和2035年遠景目標綱要》提出“促進發展與規范管理相統一”。《人形機器人創新發展指導意見》提出“完整、準確、全面貫徹新發展理念,加快構建新發展格局,統籌發展和安全”。2023年召開的中央經濟工作會議指出,必須堅持高質量發展和高水平安全良性互動,以高質量發展促進高水平安全,以高水平安全保障高質量發展,發展和安全要動態平衡、相得益彰。
發展和安全二者相輔相成,發展是安全的基礎,安全是發展的條件。首先,發展是安全的基礎,只有發展才能促進安全。通過不斷發展實現技術創新,提高人工智能治理的技術能力,可以更好地以技術防范人工智能風險。如果沒有發展,技術就會不斷落后,安全風險也會隨之增多。“發展是硬道理,是解決中國所有問題的關鍵。我們用幾十年的時間走完了發達國家幾百年走過的歷程,最終靠的是發展。”發展仍是解決我國一切問題的基礎和關鍵,破解各種突出矛盾和問題,防范化解重大風險,歸根到底要靠發展。《中共中央關于進一步全面深化改革、推進中國式現代化的決定》提出“高質量發展是全面建設社會主義現代化國家的首要任務”。當前我國人形機器人的制造技術還比較落后,只有不斷發展才能更好解決其自身存在的諸多安全問題。其次,安全是發展的條件。安全不僅是一種價值理念,還是一種能夠保障人們合理預期且客觀存在的包含人格、財產與公共利益的復合型利益。如果安全性不足,無論多么先進的人工智能產品,都無法獲得廣泛的認同和接受,從而難以實現健康持續發展。人形機器人雖然應用場景廣闊,能夠滿足人類的高品質需求,但如果頻繁出現功能失靈、網絡安全、個人信息泄露等重大安全事件,就會使市場逐漸失去信心而無法獲得有效發展。
三、人工智能發展和安全并重的法治路徑
人工智能具有技術內核的不可知性、應用形式的擬人性、應用場景的多元化、利益主體的交融性、技術風險的未知性、社會影響的復雜性等特征,其發展過程伴隨著多種風險,對人工智能的治理成為一項艱巨工程。《新一代人工智能發展規劃》提出:“在大力發展人工智能的同時,必須高度重視可能帶來的安全風險挑戰,加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發展。”大力發展人形機器人已成為不可阻擋的歷史潮流,需要不斷加強安全治理能力,保障人形機器人對人和環境友好。
(一)以包容審慎監管促進發展和安全動態平衡
發展和安全的矛盾在數字時代變得更加突出,新型的包容審慎監管有利于促進發展和安全的動態平衡。包容審慎監管是對市場與政府關系在監管領域認識的新突破,是推動有效市場和有為政府更好結合的現實需要,它要求政府給予新業態必要的發展時間與試錯空間,并根據公共風險的大小進行適時適度干預。《國民經濟和社會發展第十四個五年規劃和2035年遠景目標綱要》提出“對新產業新業態實施包容審慎監管”。《科學技術進步法》第35條規定:“國家鼓勵新技術應用,按照包容審慎原則,推動開展新技術、新產品、新服務、新模式應用試驗,為新技術、新產品應用創造條件。”《優化營商環境條例》第55條規定:“對新技術、新產業、新業態、新模式等實行包容審慎監管”。《生成式人工智能服務管理暫行辦法》第3條規定:“國家堅持發展和安全并重……對生成式人工智能服務實行包容審慎和分類分級監管”。很多地方政府都規定了包容審慎監管,例如《北京市促進通用人工智能創新發展的若干措施》提出“爭取在中關村國家自主創新示范區核心區先行先試,推動實行包容審慎監管試點”。
包容審慎監管的價值目標是追求發展和安全的動態平衡,其既不主張完全放任也不支持過度預防,而是要求政府對新科技進行適時適度監管。對于正在發展中的人工智能,往往一時很難認清風險的有無和大小,如果抱著懷疑的眼光以“泛安全化”的思維倉促實施監管,一下子管得過嚴過死,就會將其扼殺在搖籃之中。人形機器人在發展初期難免經歷混沌與混亂,出現一些安全事件是難免的,通過一定時間的試錯發展或許就可能自己解決問題。包容要求“讓子彈飛一會兒”,體現了通過發揮市場在資源配置中的決定性作用以實現效率最大化。然而,包容不是“撒手不管”“弱監管”的代名詞,如果監管機構把包容當作“不作為”的“擋箭牌”,視為“甩包袱”的手段,不僅會使得個人、社會、國家處于巨大的風險之中,而且最終可能導致新科技“翻車”。一旦發現市場無法自我糾偏,就需要立即采取審慎監管措施“不讓子彈亂飛”。對于人形機器人發展過程中的一些突出安全問題,監管機構應通過運用合比例性分析、成本收益分析等方法采取審慎的監管措施。包容和審慎二者之間是辯證統一的,無論是包容過度而審慎不足,還是包容不足而審慎過度,都會導致發展和安全的失衡。過度包容的監管可能積重難返且引發系統性風險,過于審慎苛刻的執法又可能損害新業態經濟的宏觀前景。應理性實施包容審慎監管,使人形機器人在發展中規范、在規范中發展,以實現發展和安全的動態平衡。
(二)科學合理開展人工智能安全風險評估
大力發展人工智能已成為全球培育新質生產力的關鍵,不能因為人工智能存在風險就予以過度限制甚至禁止,而應通過科學合理的風險評估將安全風險控制在可接受的水平。風險評估是風險規制的關鍵環節,風險規制的方法論可以提供有力的理論工具和切實可行的解決方案,從而有利于避免不必要的、可預防的損害,并有助于提高技術創新所帶來的社會收益。突然性停電不總是一個安全的方法,設計安全性機器人的最重要的一個方面就是必須能定量評估風險,以比較不同的設計和控制策略,并進行優化。《人形機器人創新發展指導意見》提出:“強化整機、關鍵部組件、核心軟件、算法等重點環節安全風險評估,促進安全能力提升。”《關于加強科技倫理治理的意見》要求“科技活動應客觀評估和審慎對待不確定性和技術應用的風險,力求規避、防范可能引發的風險,防止科技成果誤用、濫用,避免危及社會安全、公共安全、生物安全和生態安全”。《全球人工智能治理倡議》提出“推動建立風險等級測試評估體系,實施敏捷治理,分類分級管理,快速有效響應。”在人工智能的發展過程中,應通過科學合理的方法評估風險的大小,然后采取相應的風險管理措施。風險等級越高,采取的風險管理措施就應當越嚴格。對于人工智能的風險評估結果,可以分為無風險、低風險、中風險、高風險、不可接受風險五個等級。如果經評估后發現某類人形機器人將導致不可接受風險,就應當禁止研發此類人形機器人。
對于人形機器人的安全風險評估,至少應涉及算法影響評估、個人信息保護影響評估等類型。算法影響評估是指對智能系統的算法進行全面分析,以明確該系統的風險影響水平。通過對算法設計、部署、運行的全部流程予以動態評估,要求智能系統在應用于商業以及公共事業場景前就接受獨立的專業分析,可以促使科技公司強化控制流程而實現更高效率的風險管理,有利于政府實施差異化、精準化的風險治理。我國在一些領域初步規定了算法影響評估,例如《互聯網信息服務算法推薦管理規定》第27條要求“具有輿論屬性或者社會動員能力的算法推薦服務提供者應當按照國家有關規定開展安全評估”,第28條要求“有關部門對算法推薦服務依法開展安全評估和監督檢查工作”。《生成式人工智能服務管理暫行辦法》第17條規定,“提供具有輿論屬性或者社會動員能力的生成式人工智能服務的,應當按照國家有關規定開展安全評估”。人形機器人通過強算法與人類進行深入交互,應建立健全人形機器人算法影響評估制度。人形機器人同人類聯系更緊密,必然涉及大量個人信息處理,應完善個人信息保護影響評估。個人信息保護影響評估是指對個人信息處理活動所造成的影響進行的評判,屬于重要的風險評估方法。個人信息保護影響評估有利于及早發現相關行為可能存在的風險,從而可以有針對性地進行研發設計并采取防范措施。
(三)完善數據安全和個人信息保護認證
人類智能靠思維,人工智能靠算法,而算法的基礎在于數據。為了提升基于“大數據+高算力+強算法”的人形機器人的安全性,以高水平安全保障高質量發展,需要完善與數據相關的認證制度。認證通過聲譽評價機制,可以引導、激勵企業守法規范經營,可以增強用戶對中小微企業和新興數字產業的信任感,可以避免政府為保障安全而實施“一刀切”的規制。作為風險規制和質量保證的一種手段,認證可以提供優于政府規制的優勢,如卓越的技術專長、更有效的檢查和監控、更好的回應能力和更高的規制效率。《關于促進機器人產業健康發展的通知》要求建立認證采信制度,“以國家機器人檢測與評定中心、機器人檢測認證聯盟等為支撐,開展機器人檢測認證”。《人形機器人創新發展指導意見》要求“打造權威檢驗檢測機構,完善評測配套工具,滿足企業和用戶的檢測認證需求。”我國當前對機器人的認證包括CR認證、CE認證、UL認證、FCC認證、CQC認證等類型,認證市場仍在發展和孕育中,需要不斷完善。
人形機器人需要處理大量個人信息、企業數據、公共數據,有效保障個人信息安全、數據安全以及相關的國家安全,除了應當完善產品質量、服務、管理體系等傳統認證制度,還需要建立健全適應數字時代的新型認證制度。應根據《數據安全管理認證實施規則》《個人信息保護認證實施規則》等規范性文件,結合人形機器人的新特點不斷完善數據安全和個人信息保護認證制度。由于認證屬于第三方規制,所以人形機器人認證機構應具有高度的獨立性與專業性,應極力避免其成為政府的“附庸”或被人工智能企業“俘獲”。在啟動程序上,原則上應以自愿申請認證為主,對于事關重大安全的事項實施強制認證。認證程序應當公開透明,應防止“認證變認錢”等流于形式的認證。
為了使認證有據可依,保障認證質量,除了需要不斷完善人工智能立法,還應當分級分類推動人形機器人標準制定。不同于傳統的粗放式監管,分級分類監管是一種精細化監管。分級分類監管屬于典型的風險牽引式的監管資源配置模式,主張以風險為尺度實行數據驅動、精準聚焦以及靈活權變的差異化監管資源配置。《人形機器人創新發展指導意見》要求“開展人形機器人標準化路線圖研究,全面梳理產業鏈標準化需求,建立健全人形機器人產業標準體系,分級分類推動標準制定”。人形機器人種類多元,應用場景多樣,存在的風險類型和大小存在很大的差異。如果“一刀切”地制定統一的標準,表面上看好像實現了平等,但實際上造成了實質不平等,最終不利于中小微人工智能企業的發展。而且,由于不區分風險類型和大小,粗放式監管無法合理分配有限的監管資源,從而難以有效保障總體安全。同樣情況同等對待,不同情況區別對待,應分級分類治理人形機器人的安全風險。
(四)合理配置主體責任避免“人形機器人陷阱”
合理配置責任,對于人形機器人的發展至關重要。如果過度追求安全而設置過重的責任,就可能抑制人工智能創新,從而阻礙人形機器人的發展。探討人形機器人及相關主體的責任,首先需要明確人形機器人是否可以成為法律主體。當前對于人工智能的主體地位,還存在較大的爭論。否定說認為,人工智能能否獲得法律主體資格,關鍵并不在于法律建構的技術可行性,而在于其是否符合現代法律主體的本性定位即具備人格尊嚴。人工智能在形式上不具有普遍必然性,在功能上只是為了滿足人類的需求,在意志規定根據上無法從本源上決定自己的發展方向,人工智能不能成為法律主體。電子人格說、有限人格說、法律人格擬制說等犯有方向性錯誤,無論機器如何被智能化,在法律關系中,其只能是權利義務指向的客體,服務于人類的福祉才是人造物的真實意義。肯定說認為,對待人工智能體應擺脫純粹功利主義與工具主義的方式,以“非唯人類中心”的哲學價值觀認真對待那些非“人”的實體,通過法律擬制而賦予一定范圍的法律主體資格,最終做到人類與人工智能和諧共舞。對于智能機器人的主體地位,有觀點認為,不具有“反事實”能力的“虛假的自由意志”智能機器人沒有自由意志,屬于權利的客體;具有“反事實”能力的“因果模型”完備的智能機器人,實質上具有了潛在或實際的自由意志,與人類一樣擁有“心靈能力”,此時要考慮的不是“要不要”賦予它法律人格,而是“如何賦予”和“賦予何種”法律人格。承認“智能機器人也是人”,可以合理有效地處理涉及智能機器人的各種“犯罪”現象與疑難社會問題。
應防止“人形機器人陷阱”,避免人形機器人的過度擬人化,從而防止相關主體逃脫應有的主體責任。雖然人形機器人在外貌、思維和行動上更像人,智能程度較高且具有深度學習能力,但不具有獨立的自由意志和責任能力,不應成為獨立的法律主體。如果陷入將人形機器人過度擬人化的陷阱,就會認為研發者應比自動化的機器人負更少的責任。機器人僅是機器,不能以高度人格化的方式將其與人類進行類比,否則將導致人類陷入自相矛盾的境地,設計出糟糕的人工智能立法。“我們應不惜一切代價避免人形機器人陷阱。” 對于人工智能立法而言,應更加注重為人類而非機器人配置主體責任。
為了使研發者更好地以人為本,審慎地設計相應的代碼程序,并持續優化智能算法,應合理設置相應的主體責任。如果人形機器人設計本身沒有缺陷,但由于其具備的深度學習能力而導致安全事故,研發者也應當承擔責任。即使研發者當時沒有過錯,但因為其可以從新技術中獲取巨大收益,可以通過定價等方式分散風險成本,由其承擔相應的賠償責任更為公平。然而,“任何新技術的開發都蘊含一定的技術風險,將其一概歸于制造商會嚴重妨礙技術的創新與發展”。除了研發者以外,同人形機器人相關的生產者、硬件供應商、軟件設計者、銷售者、使用者等多主體,應當承擔相應的責任。此外,應完善人形機器人保險責任制度,合理分配人工智能創新的風險。《“十四五”機器人產業發展規劃》提出“優化首臺(套)重大技術裝備保險補償機制試點工作”。保險責任制度能有效平衡人工智能應用中各方主體之間的利益,在為受害人提供及時有效的權利救濟同時,又能推進人工智能技術革新。
(五)推動人工智能創新和科技倫理協調發展
欲有效實現人形機器人發展和安全并重,在完善法律治理的同時,還需要加強科技倫理治理。只有具備“人工道德”的人工智能系統,才能更好地實現科技向善。人形機器人雖然難以完全像人類一樣成為獨立的道德主體,但不妨礙為其設定倫理標準。人形機器人的研發者,也需要受到有效的倫理規范。法律并非是萬能的,法條可能存在漏洞,法條經常滯后于快速發展的現實,立法可能存在空白。倫理學與法學能夠緊密地合作,即使法律獨立規定了相關范疇與概念,倫理學仍然能夠顯著地對厘清并體系性掌握規范問題作出貢獻。《新一代人工智能發展規劃》要求到2030年“建成更加完善的人工智能法律法規、倫理規范和政策體系”。《人形機器人創新發展指導意見》要求“加快推進相關倫理標準規范研究制訂”。《關于加強科技倫理治理的意見》提出“將科技倫理要求貫穿科學研究、技術開發等科技活動全過程”。法律無法充分對“下游”的科技使用行為進行全面的風險規制,需要通過倫理準則對“上游”的科技研發過程進行規范。科技倫理不僅可以在人工智能研發之初就提出相應的要求,而且可以靈活地適用于不同場景、不同業態下的人工智能應用,從而有利于促進人工智能產業的創新。
早在1942年,人類與機器人之間互動的道德準則就被提出,美籍俄裔科幻小說家艾薩克·阿西莫夫(Isaac#Asimov)在他的小說中就提出了“機器人三原則”,也稱“阿西莫夫三定律”。1985年,阿西莫夫增加了第4條定律(第0定律)。還有學者認為,應通過儒家的忠、恕、仁道德原則,來構建機器人的道德倫理,并提出了儒家機器人倫理三條道德原則。盡管阿西莫夫定律和儒家機器人倫理道德原則都難以完全有效實現,甚至還存在一些缺陷,但至少表明倫理規范對于約束人工智能具有重要價值。我國國家新一代人工智能治理專業委員會2021年發布的《新一代人工智能倫理規范》提出,“將倫理道德融入人工智能全生命周期”,要求人工智能各類活動應遵循增進人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當、提升倫理素養的準則。2024年發布的《人工智能全球治理上海宣言》提出:“推動制定和采納具有廣泛國際共識的人工智能的倫理指南與規范,引導人工智能技術的健康發展,防止其被誤用、濫用或惡用。”
應通過完善的倫理規范約束人工智能研發者,確保其設計出能真正造福人類的安全、可靠、可控的人形機器人。為人形機器人“加載”道德的目的并非是為了使其成為獨立的物種,而是為了控制人工智能技術發展所導致的風險。應著眼于算法正義完善算法倫理規范,關注算法的商業道德導向,以公平、安全、透明、非歧視的倫理價值觀指引算法應用,建構規范化的算法倫理審查制度。設立人本面向的人工智能倫理治理組織機構,完善倫理風險的預警機制,設置人工智能倫理治理的風險預警閾值,嚴格追究引發倫理危機相關主體的倫理責任。總而言之,倫理規范應成為預防人形機器人安全風險的重要準則,應將倫理規范融入人形機器人研發和應用的全生命周期,不斷強調其實質性指引作用,避免成為空洞的表達。
結語
發展和安全二者相輔相成,應統籌人工智能的發展和安全,全面實施追求發展和安全動態平衡的包容審慎監管。應通過科學合理的安全風險評估將人形機器人風險控制在可接受的程度,并完善數據安全認證、個人信息保護認證等聲譽評價機制。法律并非是萬能的,在完善法律治理的同時,還需要通過倫理規范約束人工智能研發者,并為人工智能設計“人工道德”。人類已進入智能科技時代,發展和安全的矛盾變得更為突出,在人工智能的發展過程中,如何以高質量發展促進高水平安全、以高水平安全保障高質量發展,還需要不懈探索。