當前,人工智能發展進入新階段,國務院在《新一代人工智能發展規劃》(以下簡稱《規劃》)中指出,人工智能將深刻改變人類社會生活、改變世界。推動人工智能安全發展至關重要,應著力構建安全發展戰略,將人工智能安全發展提升到與人工智能科技研發、成果應用、市場推廣同等重要的位置,研究制定有關法律法規和倫理準則,這不僅是深入貫徹中共十九大精神,夯實人民安全感、提升人民幸福感的重要舉措,也是推進《規劃》實施的必要條件。
人工智能發展的不確定性帶來新挑戰。人工智能是影響面廣的顛覆性技術,可能帶來改變就業結構、沖擊法律與社會倫理、侵犯個人隱私、挑戰國際關系準則等問題,將對政府管理、經濟安全和社會穩定乃至全球治理產生深遠影響。當前,我國人工智能安全發展需要關注的問題主要有以下幾點:
(一)《規劃》未提出人工智能安全發展。《規劃》提出了新一代人工智能發展的基本原則,即科技引領、系統布局、市場主導、開源開放,沒有將安全作為發展基本原則之一,對人工智能安全發展的重視不夠。
(二)倫理研究缺乏大眾參與。如果倫理研究過程中沒有全社會的共同參與,沒有吸納人工智能這個特定場景下的倫理道德認識,則出臺的政策和規劃不易獲得社會認同。
(三)輿論引導不及時。著名物理學家霍金認為,強大人工智能的崛起,對人類來說,可能是最好的事情,也可能是最糟糕的事情。目前,有輿論認為,人工智能如果誕生自我意識可能導致機器反抗人類、網絡主權失控,替代人類工作將導致失業率上升,這些觀點已經在部分群體中產生很大影響,需要引導和紓解。
在大力發展人工智能的同時,必須高度重視可能帶來的安全風險挑戰,加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發展。
(一)制定《人工智能安全發展綱要》。建議國家層面建立人工智能安全發展戰略,結合《規劃》,制定《人工智能安全發展綱要》,闡明人工智能安全發展的戰略意義和內涵,明確戰略目標、指導思想和發展原則,對人工智能安全發展進行總體部署。
(二)有序制定人工智能安全發展的法律法規和倫理道德準則。采取“政府主導、專家主體、公眾參與、社會協同”方式,深入研究人工智能安全發展戰略,針對不同環節和應用場景,明晰不同主體的責任、權利和義務,制定有關的政策、措施和法規、標準,劃定人工智能安全發展的邊界;邀請社會公眾參與倫理道德準則的研究和制定;對人工智能科研團隊和科研人員開展相關倫理道德知識普及工作,發揮倫理道德柔性約束作用,打造人工智能安全發展的關鍵防護網;在市場推廣和應用環節,建立安全評估和市場準入機制,沒有通過安全評估的技術,不得投放市場應用;加強國際合作,促進數據共享,為人工智能安全發展擬定更適合我國的法律條文和社會倫理道德標準。
(三)創新加快科學普及,強化輿論引導,凈化人工智能安全發展的環境。傳遞正能量,引導人們科學認識人工智能的發展方向和取得的成果。針對“人工智能安全嗎?”“無人駕駛的地鐵敢坐嗎?”“我會失業嗎?”等部分公眾的恐慌心理,強化輿論宣傳、科普、引導等工作,消除誤解,打消疑慮,營造安全穩定的社會氛圍。以人民群眾喜聞樂見、容易接受的方式進行引導,提升全社會的科技認知水平。普及人工智能安全使用規范,促使人工智能更好服務人類。
