全球的人工智能在引領新一輪科技革命和經濟轉型的同時,不可避免地帶來或加劇可能導致人員死傷、財產損失、秩序破壞、公正受損等社會難題;亟待全面強化科學的社會風險應對。習近平總書記2019年1月21日在省部級主要領導干部堅持底線思維著力防范化解重大風險專題研討班上強調:科技領域安全是國家安全的重要組成部分;要加快科技安全預警監測體系建設,圍繞人工智能等領域,加快推進相關立法工作。[注]提高防控能力著力防范化解重大風險 保持經濟持續健康發展社會大局穩定,人民網,2019年1月22日,http://finance.people.com.cn/n1/2019/0122/c1004-30583073.html.
透過技術視角,人工智能的顯性社會風險,主要是因技術失誤或故障而導致的公共安全等問題,目前全球皆已開展全方位的技術風險應對。
技術視角的人工智能風險根源于其技術特征,并綜合導致了風險的難識別、難消除和難控制。
第一,人工智能的“研發不透明”特征可能引發社會風險:一是由于人工智能的研發環境“虛擬化”和研發過程的“黑箱效應”等特征,更易脫離監管;二是研發主體的分散性,研發人員在非指定區域實施人工智能的開發,主體具有較高的“自由裁量權”;三是硬件生產和軟件開發的不連續性和相對獨立性,使得人工智能研發的產品,能具備隱蔽性、甚至偽裝性。
第二,人工智能具有“算法主觀性”特征,其算法的準確度和可靠性易受到研發數據和研發人員的主觀影響,是社會風險的重要來源。集中表現為:一是算法所需數據的來源多元,不同主體提供數據的動機、渠道、方式、內容均有不同,致使數據的真實性、科學性、精確性、可靠性受到主觀因素影響;二是研發人員在數據選擇和應用中可能存在“重量輕質”等主觀偏好,進而對數據全面性和算法可靠性產生負面影響;三是研發人員可能存在種族歧視、性別偏見、宗教偏好、極端價值觀等主觀偏差,代入研發后算法將出現失誤,導致預測不準確、甚至決策不公正等社會問題。
第三,人工智能的“技術自主性”可能導致“技術失控”,進而產生社會風險。突出表現為:一是基于深度學習技術的人工智能產品具備自學習和自適應能力,可能作出超越研發人員認知能力和預測范圍的決策或行為;二是人工智能算法易受到應用情境的客觀影響或運營人員的主觀干預,進而導致技術失控;三是人工智能技術有可能變異為高度獨立自主的“超人工智能”(Artificial Superintelligence)主體,具備脫離人類引導、監督、控制的能力。
技術視角的人工智能社會風險,將導致人員死傷、財產損失等負面后果,因此全球范圍內,已在采取針對性的技術手段予以應對。
第一,人工智能的技術缺陷易引發事故,技術達標和產品檢驗是應對風險的基本要求。在自主控制性強、自治決策度高的應用情境中,人工智能若出現技術缺陷,將引發事故:一是技術缺陷直接引發安全事故和人員死傷,如自動駕駛安全事故、機器人安全生產事故等;二是智能識別存在誤差而未能提前發現并阻止安全事故,如安全隱患識別誤差、智能交通指令誤差等;三是智能安防被破解或出故障而間接導致安全事故和人財損失,如人臉解鎖的身份識別曾被3D打印模型破解、家庭智能安防設備出現故障影響安全性能等。對此,技術視角的風險應對需要技術達標和產品檢驗,通過測試評估和問題整改而使技術和產品達到安全標準,并形成動態識別和修復的技術更新制度。
第二,人工智能可能被誤用,風險應對要求技術管理的制度設計。人工智能技術若被非法或惡意使用,將產生多方面社會危害:一是被用于網絡攻擊,對網絡安全、信息安全、數據安全產生威脅;二是被用于制造虛假信息,進而實施詐騙等違法犯罪活動,導致財產損失和社會失序;三是被用于制造智能武器,用于發動攻擊、制造恐襲;四是行為分析、數據挖掘、心理預測等智能技術被用于政治宣傳和競選公關,通過對潛在投票人進行競選信息的個性化推送,可能存在控制社會民意、影響選民決策的風險等。對此,技術視角的風險應對要求形成規避人工智能被誤用的技術管理制度。
第三,人工智能可能遭攻擊,技術防御是應對風險的基本保障。在特定環境中,人工智能運行系統可能遭到惡意入侵或攻擊,進而引發系統失靈、數據泄露等多種后果:一是“對抗樣本攻擊”(Adversarial Examples Attack)可誘使算法出錯,導致人工智能在智能識別時出現誤判漏判,如圖像識別、語音識別、垃圾郵件監測、惡意程序監測等系統出現失靈;二是“逆向攻擊”(Reversal Attack)可獲取算法系統的內部數據,易導致有關個人隱私、國家安全等的數據泄露,產生嚴重財產損失和惡劣社會影響。對此,技術視角的風險應對要求形成持續保障安全運行的技術防御系統和能力。
全球經驗表明,技術視角的人工智能社會風險應對主要圍繞標準規范和技術防護等方面開展。
第一,應用直接可行的技術手段,嚴防高發頻發且易導致群死群傷的人工智能社會風險,做好人民群眾生命財產安全的保護工作。技術視角的風險應對遵循工具理性的準則,針對“導致嚴重人財損失且高發頻發”的高危風險,以規避安全風險、發掘技術潛力為目標,采取一系列直接可行的技術方法和基于技術的管理手段來消除或干預風險。
第二,建立健全技術標準,形成規范引導,從而減少技術缺陷,提升技術的安全性和可靠性。實際操作中,由政府相關部門、科研院所、技術企業、行業組織等聯合,圍繞人工智能的安全性、復雜性、風險性、不確定性、可解釋性等關鍵性能或核心要素,共同推進標準的研發和制定工作。例如,國際標準化組織(International Organization for Standardization)集中于工業機器人、智能金融、智能駕駛的人工智能標準化研究;國際電工委員會(International Electrotechnical Commission)主要關注可穿戴設備領域的人工智能標準化;美國國家標準與技術研究院(National Institute of Standards and Technology)、歐洲電信標準化協會(European Telecommunications Standards Institute)、中國電子技術標準化研究院等也在開展相應的標準研發。
第三,加速研發防控和應對技術,增強對惡意攻擊的風險抵御能力。當前,針對人工智能重點產品或行業應用,研發主體已在開展漏洞挖掘、安全測試、威脅預警、攻擊檢測等安全技術攻關。例如,人工智能公司“深度思考”(Deep Mind)正在研發“切斷開關”(Kill Switch),[注]BBC News.Google Developing Kill Switch for AI,2016-06-08,https://www.bbc.com/news/technology-36472140.用于在必要緊急情況下觸發人工智能技術系統的自我終結機制;再如,針對對抗性輸入、數據中毒攻擊、模型竊取技術等常見惡意攻擊技術,多個研究機構提出可通過限制信息泄露、限制探測、集成學習、遷移學習、合理數據采樣等技術方案予以應對。[注]R.Shokri, M.Stronati, C.Song and V.Shmatikov, Membership Inference Attacks Against Machine Learning Models,2017 IEEE Symposium on Security and Privacy (SP), San Jose, California, USA, 2017, pp.3-18.
因此,技術視角的現有風險應對偏重“工具理性”,技術手段具有一定程度上的片面性;雖在實踐中已有成效,但仍難以有效根除責任事故和社會負面影響。
透過社會視角,人工智能在人財損失之外,還可能導致或加劇社會失序、倫理失范等綜合風險,全球也已在逐步重視并將風險應對措施付諸實踐。
社會視角的人工智能風險,其實質是在社會應用中,人工智能可能異化生產關系,并加劇風險后果的復雜性、疊加性和長期性。
第一,人工智能的應用可能對就業產生影響,進而引發“大多數利益受損”和“極少數權益被剝奪”,是社會風險的重要來源。人工智能可能導致大規模現有崗位“被自動化”問題,若機器替代人工成為普遍趨勢,則絕大多數民眾將不可避免地面臨待崗失業和重新擇業的境遇,而極少數弱勢群體或將面臨永久性失業的客觀局面。根據多項研究顯示,超過一半的現有工作崗位最終將完全被自動化和機器人替代,[注]2010年牛津大學研究預測未來10至20年將有47%的崗位會被人工智能所取代;2016年世界經濟論壇預測未來5年將有500萬個崗位會失去;2017年麥肯錫研究報告顯示60%的職業面臨被技術替代的可能性。預示著人工智能的充分應用將出現民眾利益受損的連鎖反應。
第二,人工智能用于關乎公共利益或涉及公共決策的范疇時,可能出現對于公共利益的侵害行為,進而引發社會風險。突出表現為:一是刑事司法、就業保障等政府可采取智能決策的公共領域,若出現技術被誤用,可能出現歧視偏見或潛在不公的爭議,則將導致關聯社會群體的利益受損;二是自動駕駛等與廣大人民群眾生命財產安全緊密相關的領域,一旦出現風險,其影響范圍廣泛、關聯群體眾多。對此,美國紐約通過《關于政府機構使用自動化決策系統的當地法》(A Local Law in Relation to Automated Decision Systems Used by Agencies),[注]相關報道詳見:Smartcitiesdive.New York City Council passes bill to address algorithmic discrimination,2017-12-20,https://www.smartcitiesdive.com/news/new-york-city-council-passes-bill-to-address-algorithmic-discrimination/513518/;方案內容詳見:http://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3137815&GUID=437A6A6D-62E1-47E2-9C42-461253F9C6D0.要求對政府機構使用的人工智能決策系統進行算法問責和安全規制,以確保自動決策算法的公開透明,避免“算法歧視”。
第三,人工智能應用中的“零和博弈”若成為思維定勢,將固化或加劇人類與人工智能的對立。一種觀念是“間接零和博弈”,認為優勢群體應用人工智能將加速或加劇資源的“不均等分配”,進而拉大不同群體間的差距;若所謂的“超人工智能”時代成真,則社會可能裂變為兩大階層,大部分人屬于“無用階層”(Useless Class),極小部分人屬于社會精英階層。[注]Yuval Noah Harari,The rise of the useless class,2017-02-24,https://ideas.ted.com/the-rise-of-the-useless-class/.另一種觀念是“直接零和博弈”,更加極端地將人工智能與人類直接對立,甚至表現為“人工智能威脅論”,認為人類與人工智能之間存在不可調和的矛盾,人工智能長期發展將導致“技術反制人類”;進而出現技術威脅人類安全或生存的風險,“機械作為人類與自然斗爭的工具將最終支配人類、人類有可能成為機械的奴隸”[注]A.M.Olson,“Review: Jaspers, Heidegger, and ‘The Phantom of Existentialism’”,Human Studies, Vol.7, 1984(3/4):387-395.的預測。
社會視角的人工智能社會風險,主要表現為民眾的利益遭受侵害的風險,既有極少數弱勢群體的損失風險,也有大多數甚至全體民眾的權益受損風險。因此全球已重視并啟用有針對性的管理手段予以應對。
第一,人工智能的應用違背本國法律或公序良俗,其風險應對要求法律或道德的約束。人工智能在某些應用場景中,可能出現違背本國法律或挑戰公序良俗的問題:一是在涉及生命倫理的領域,人工智能的研發若超越倫理約束或道德認知,可能導致民眾難以容忍的后果;二是精密部署的智能監控技術,可能出現侵犯隱私的違法行為或倫理爭議;三是人類對人機情感交互中獲得快感的依賴,可能對傳統的家庭倫理、社會道德、風俗文化等產生沖擊;四是技術成熟和全面應用的智能機器人是否具備人格和人權的“機械倫理學”問題。對此,社會視角的風險應對要求法律和道德的約束,加強立法并嚴格執法,同時完善和遵循倫理道德規范。
第二,人工智能應用過程中可能產生“馬太效應”,而普惠性的技術應用是其風險應對的基本要求。人工智能應用可能觸發強者越強、弱者越弱的“馬太效應”,進而導致社會不公:一是加劇“數字鴻溝”(Digital Divide),不同群體對信息數據、網絡資源、智能技術等產生的差距在人工智能應用下進一步拉大,進而發展為資源獲取、財富積累、受教育水平之間的差距;二是人工智能技術發展初期存在“索洛悖論”(Productivity Parado),社會生產率提升相對于技術進步存在遲滯,且勞動生產率的提升難以同步轉化為收入的普遍增長和消費成本的普遍下降,進而加劇貧富差距;三是人工智能產業發展的“虹吸效應”(Siphon Effect),依靠技術研發和高額投資的人工智能產業,更多分布于具有資本和技術優勢的主體、領域、地區,從而拉大社會差距。對此,社會視角的風險應對更加要求普惠性的技術應用,以縮小社會差距和緩解社會不公。
第三,人工智能可能加深“社會達爾文主義”(Social Darwinism),而保障弱勢的制度和政策是其風險應對的支撐。人工智能應用中,管理主體的“社會達爾文主義”傾向可能導致弱勢的合理權益得不到有效保障。微觀層面的突出問題表現為:忽視自動化生產下的群體失業和貧富差距,大規模自動化生產將導致勞動密集型產業的從業人員面臨“結構性失業”風險,也導致普通行業領域的“職業極化”和收入差距。[注]根據麥肯錫2018年9月發布的《人工智能對全球經濟影響的模擬計算》,重復性任務和少量數字技術為特征的崗位需求或從目前的40%下降到30%,其在工資總額中的占比或將從33%下降到20%。宏觀層面的突出問題表現為:忽視人工智能應用對全球產業布局的破壞,自動化生產將導致跨國企業把生產部門從發展中國家或地區回遷,使其失去以承接產業轉移方式進入全球產業鏈的機會,可能致使國際話語權、規則制定權、議程設定權被個別“獨斷”。對此,社會視角的風險應對更迫切地要求形成保護弱勢群體的“安全閥”制度。
全球經驗表明,社會視角的人工智能社會風險應對,主要圍繞保障個體合法權益來開展的。
第一,應用管理手段和政策措施,嚴防具有社會責任且易導致負面影響的人工智能社會風險,切實保障絕大多數的合法合理利益和極少數弱勢群體的權益。社會視角的風險應對遵循價值理性的準則,針對“存在社會責任且負面影響惡劣”的高危風險,秉持以人為本的理念和人文關懷的責任,通過采取相應的社會規則和福利政策來保護個體權益,有效應對社會風險。
第二,針對企業在研發和應用中的不規范、亂作為、不自律等問題,建立健全法律法規以形成有效約束,有效保障使用者合法權益,進而緩解社會風險。例如,歐盟針對用戶隱私保護問題出臺了《通用數據保護條例》(General Data Protection Regulation),[注]《通用數據保護條例》(英語:General Data Protection Regulation,縮寫作 GDPR;歐盟法規編號:(EU) 2016/679)是在歐盟法律中對所有歐盟個人關于數據保護和隱私的規范,涉及了歐洲境外的個人資料出口。https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A32016R0679.為企業在收集和利用個人數據方面制定一系列具備法律效力的規則,包括:規定企業利用用戶個人數據前提供合法憑據,明確特殊類型數據的禁用原則,明確保障用戶的一系列數據權利,設定數據安全保障能力的標準等。
第三,針對面向弱勢群體和缺乏技能的勞動者,國家和地區逐步采取專項的就業福利和社會保障政策,確保極端弱勢群體得到保護,從而對沖社會風險。例如,美國政府為勞動者提供轉型指引,啟動“失業保險、醫療和營養補充救助計劃”(Unemployment insurance, Medicaid, Supplemental Nutrition Assistance Program)和“貧困家庭臨時救助”(Temporary Assistance for Needy Families),為工人提供就業指導、上崗培訓、咨詢服務等。
因此,社會視角的人工智能社會風險應對,通過管理手段對可能導致惡劣負面影響的高危風險開展應對,確有成效;但在價值理性的單維度指導下,也難免出現難以真正實現公平公正等客觀問題。
全球的實踐表明:僅靠技術視角或社會視角來應對人工智能的社會風險,存有局限性。第一,人工智能是技術屬性和社會屬性的集合體,其技術風險和社會風險的交互融合致使社會風險機理復雜并可能不斷涌現出新生風險,難以靜態地應對動態風險。第二,人工智能是工具理性和價值理性的對立統一;工具理性的人工智能秉持效率優先的發展理念,而價值理性的人工智能更強調公平秩序前提下的應用,有可能出現優先次序的矛盾,其實質是難以用單一維度孤立地解決綜合的社會風險。第三,人工智能的正效益和副作用可能在應用時長期并存,如果忽略考量民眾的真實意愿和主觀能動性,則易出現夸大負面影響或錯失發展機遇等現實問題。因此,人工智能的社會風險,應引入科學的風險治理模型,透過治理視角來全面和系統地應對。
通過治理視角,人工智能的社會風險應對,還要綜合考量:戰略風險和機會成本、動態風險和協同治理、深層次的系統風險和制度防控等一系列的社會因素。因此,建議通過“兩維雙向”的治理模型來分析和應對:“兩維”指技術維度和社會維度,從“技術維—社會維”進行根源分析和定性評估;“雙向”指正功能向和負功能向,對“正功能向—負功能向”進行辯證分析和科學應對;有針對性地對四個象限開展科學的風險治理策略(詳見圖1)。

圖1 人工智能社會風險治理的“兩維雙向”模型
如上圖所示,人工智能的社會風險應對,具有四項共性目標:
第一,充分發揮人工智能的正面效益,提升國家競爭力,應對系統風險。主要策略有三:一是提升關鍵項的競爭力,人工智能的發展需與現有的技術優勢和經濟強項緊密結合,發揮“長板效應”;二是夯實基礎領域競爭力,強化關聯行業建設和技術研發投資;三是提升整體競爭力,人工智能發展存在“短板效應”,其短板問題若得不到解決將拉低整體競爭力,對此應加強“補短板”的戰略布局和實施。
第二,綜合應用多種風險管理策略,切實提升對安全風險的承受力,確保風險處于社會可承受的范圍內。對此,應將承受力作為風險研判定級和應對策略的依據:一是對于難承受的風險,采取措施提前規避或消除;二是對于可承受的風險,做好及時干預和對沖工作,確保可控或可抵御;三是根據風險承受力情況,動態評估風險,適時調整應對方案。
第三,強化人工智能應用中的制度約束力,對引發風險的主觀因素進行有效約束,從而有效應對秩序風險。一是一般領域的“自我約束”,促進企業自律自治并履行社會責任,主動規避或防范人工智能的社會風險;二是特定領域的“硬約束”,建立健全法律法規和管理制度,在特定領域或特殊行業形成必要的硬性約束力;三是前沿領域的“軟約束”,加強對人工智能倫理道德的前瞻預測與呼吁倡導,提倡自覺規避違背倫理道德的社會風險。
第四,提升風險治理的社會協同力,形成各方共治共擔風險的格局,有效對沖或緩解社會風險。一是風險所有權主體全員在各司其職的同時加強聯動合作,提升風險防控整體能力;二是共創共享社會經濟效益以提高社會凝聚力,對沖社會風險;三是落實就業培訓、人才培養、福利保障、公共關系、公眾溝通等相關政策保障以提升社會耐受力,降低負面影響。
因此,通過競爭力、承受力、約束力、協同力的提升,從而綜合統籌人工智能發展、個體安全感、國家競爭力的三者關系,提升正面效益、降低負面風險。
治理視角的人工智能風險應對,實質上是踐行“賦能+避險”的風險方針:以避險為前提,同時賦能人類;既發揮全面提升競爭力的正面賦能作用,同步通過規避超出承受力的社會負面影響。在此過程中,還應該在“兩維雙向”治理模型的基礎上納入“PR”模型和“IR”模型,對風險發生的可能性(P:Possibility)、后果損失(R:Result)、負面影響(I:Impact)、社會責任(R:Responsibility)進行綜合分析,從而在科學的風險定級的基礎上實施精細化的風險應對(詳見圖2)。

圖2 人工智能風險定級的“兩維雙向 & PR-IR”模型
第一,針對存在高危風險的領域,建議禁止應用。警鐘長鳴,在謹慎評估和全面審查的基礎上,將存在高危風險的應用列入“負面清單”,審核時采取“一票否決”制度,以消除高危風險,實現避險。例如,軍事國防領域的濫用和智能武器的過度開發應列入“負面清單”,人工智能行業共識之一的“阿西洛馬人工智能原則”[注]2017年1月,在美國加州阿西洛馬召開的“阿西洛馬會議”上,數百名人工智能和機器人領域的專家們聯合簽署了“阿西洛馬人工智能原則”,呼吁全世界的人工智能領域工作遵守這些原則,共同保障人類未來的利益和安全。建議“致命自主武器的軍備競賽”應被禁用。
第二,針對存在中危風險的領域,建議限制應用的“治理+AI”路徑。治理牽引,在安全可靠的情境中引入人工智能的有限應用,充分發揮技術優勢促進制造、教育、醫療、養老、環保、城市管理、司法等領域社會治理的精細化和智能化,提升人民生活的幸福感和獲得感;同步掌握技術發展應用的關鍵決策權,根據實際情況合理限制人工智能的自主程度和智能水平,兼顧避險和賦能。
第三,針對存在低危風險的領域,建議鼓勵應用的“AI+治理”路徑。發展人工智能優先,在人類權益保護和價值實現的基礎上,充分發揮人工智能在推動科技跨越發展、產業優化升級、生產力整體躍升等方面的“頭雁效應”作用,鼓勵人工智能在國家創新能力提升、培育智能產業、建設智能社會、保障和維護國家安全等領域更好地賦能人類,持續提升生產力和優化生產關系。
透過治理視角,即便是鼓勵應用的人工智能領域,其發展仍要以科學的風險防控機制為基礎;在充分的安全保障的前提下鼓勵其快速和健康發展。健全科學和有效的人工智能社會風險防控機制,主要由三部分構成。
第一,社會風險的事前評估與前置管理,實現風險控制的關口前移。以安全技術標準和應用道德規范為依據,對人工智能產品開展事前的安全測試、風險評估、道德審查,及時發現其可能引發技術缺陷、安全故障、道德爭議的風險;對具有高危風險的產品予以“一票否決”,對具有中低危風險的產品予以修正和彌補,盡可能確保生產使用中的無缺陷、少故障或零爭議。例如:美國《自動駕駛法案》(H.R.3388-SELF DRIVE Act)[注]The U.S Congress,H.R.3388-SELF DRIVE Act,2017-09-07,https://www.congress.gov/bill/115th-congress/house-bill/3388.要求發展自動化或自動駕駛系統的實體提交如何解決安全問題的評估證書,闡述相關測試結果、數據,證明自動駕駛實體可保持安全性能。
第二,社會風險的全程監測與動態干預,打造“無縫隙”的風險控制。以合法性、合理性、可控性、安全性等為參考,對算法設計、產品開發、成果應用的各環節開展技術監測、管理督導、社會監督,在動態變化的研發和使用環境中及時發現失誤或糾正偏差,以確保人工智能產品的安全使用、合法運轉、合規運營。例如,人工智能領域的第三方研究機構AI Now[注]AI Now,AI Now 2017 Report,2017-07-10,https://ainowinstitute.org/AI_Now_2017_Report.pdf.提出企業應在人工智能系統應用的全流程加強監管:既要在系統發布前進行嚴格的預發布測試(Rigorous Pre-release Trials)以規避系統錯誤或偏差,也要在系統發布后繼續監測其在不同環境中的使用情況。
第三,社會風險的事后整改與根源治理,形成風險控制的良性循環。通過事后的追責懲治、賠償救濟、問題整改,達到多方面成效:一是對受害者給予合理補償,一定程度上對沖風險;二是對人工智能設計者和運營者形成“威懾效應”,引導其重視安全和規范操作;三是開展相應整改,健全法律法規、協調政策制度,根源治理風險,防治同類問題再次發生。例如,《歐盟通用數據保護條例》明確規定了對隱私泄露違規行為進行懲罰的具體情境、追責方式、懲罰力度、救濟標準,要求若企業在收集和使用個人數據的過程中違規,可被處罰至最高2 000萬歐元或者全球年度總營業額4%的罰款。
人工智能的風控機制并非目的,而是要保障人工智能的有序發展,最終提升生產力和優化生產關系。因此,透過治理視角,人工智能的社會風險應對,亟待多元主體落實各自的風險所有權、共擔共治風險、共建共享發展。
第一,明確多元主體的風險所有權,各方切實履行人工智能研發和應用中的職責,形成權責一致、積極負責的風險所有權機制。一是應具備“透明性”原則的前置條件,可采取特定領域中人工智能算法設計和系統運行的透明性準入要求、人工智能研發者的認證審批制度、安全信息的強制披露制度等措施,確保研發“透明性”,為明晰責任分布提供技術環境;二是明確多主體在不同領域和階段的風險所有權,對于開發者、生產者、銷售者、使用者、監管者,均應明確其權利、義務、責任,形成“行為—主體—歸責”的風險責任體系;三是建立事后追溯和問責制度,形成全流程、動態化、循環式的責任管理機制。
第二,完善共治制度,形成多方共管,在對社會主體形成有效約束的同時,保障其自由權利和合法權益,提升約束力基礎上的承受力。一是企業方應自覺接受法律制度約束,在產品安全、人權保護、透明性和可解釋性、避免歧視和偏見等方面強化企業自律和行業自管;二是研究機構應在遵循法律法規和道德規范的基礎上開展相關研究,確保研究過程和結果的合法、合理、可行、安全、可控;三是政府方應在涉及群眾生命財產安全的應用情境中加強政策引導和監管問責,同步接受內部審查和外部監督;四是社會方的積極并有序監督,群眾作為消費者和企業員工、開展基于利益相關的監督,新聞媒體通過合理的輿論施壓來敦促多方履責,社會第三方基于專業技能和中立權威開展監督、推動整改。
第三,健全共治機制,開展多維合作,發揮各自所長,實現共建和共贏,提高協同力作用下的競爭力。一是深化產教融合下的跨性質合作,不同性質的主體達成共識并形成合作,以促成綜合應對方案、解決系統問題;二是形成有利于科學決策的跨領域合作,搭建與多元利益相關主體討論合作的平臺,創造政府、專家、公眾等多元參與治理決策的機制,解決綜合性的系統偏差問題并規避單一技術專家決策的高風險;三是開展區域聯盟和全球治理的跨地域合作,既利用區位優勢和聯盟傳統以形成跨國性或區域性的人工智能發展聯盟,也需開展全球范圍內的資源整合和協同合作,提升綜合競爭力的同時共治社會風險。基于此,實現國家安全保障和競爭力提升、企業兼得經濟效益和社會效益、人民群眾利益得到切實保障的多方共贏局面,這也是優化生產關系的實質之所在。
綜上,人工智能的社會風險應對,應在治理視角下,綜合技術視角和社會視角,補短板、強系統、優協同,在切實規避人財損失和負面影響的風險、保障人民群眾合法合理權益的基礎上,充分發揮人工智能“賦能”人類的作用,以提升社會生產力、國家競爭力和優化生產關系為導向,持續提高人民群眾的安全感、獲得感、幸福感和滿意度。