中國信息通信研究院

以深度學習、跨界融合、人機協同、群智開放、自主操控為特征的新一代人工智能不斷取得突破,已成為新一輪科技革命和產業變革的重要驅動力量。在極大提升人類生產生活品質的同時,新一代人工智能具有的通用目的性、算法黑箱性以及數據依賴性等技術特性,引發了社會、企業、個人等不同維度的風險和挑戰,從而對治理提出了專業化、多元化、敏捷化、全球化的迫切需要。
人工智能的技術特性
人類正處于一個前所未有的時期,互聯網、移動通信、物聯網、云計算、大數據、人工智能等信息技術正在推動社會逐步進入智能化時代。相較于其他領域的新技術,由于新一代人工智能具有的技術特性,使其更為復雜、更不可控、更難預測。
通用目的性,導致風險更為普遍。人工智能作為一項通用目的技術,可以應用到自動駕駛、智能制造、智慧城市、智慧醫療等諸多領域場景中,并且能夠與大數據、云計算等數字技術互補互促使用,有著極強的技術溢出效應,對經濟社會高質量發展顯現出強勁的引領帶動作用。但與此同時,人工智能技術風險發生的范圍會隨著應用場景的日趨廣泛而逐步擴大,問題發生的可能性也會隨著其應用頻次的增長而持續提高,若不及時有效治理,將會嚴重影響人類生產生活。
算法黑箱性,導致過程更難解釋。目前,以深度學習算法為核心的人工智能算法模型被普遍應用,但由于其算法結構中存在多個“隱層”,導致輸入數據和輸出結果之間的因果邏輯關系難以清楚解釋,用戶只能被動接受由算法帶來的結果而無法洞悉其運行過程,從而形成一種技術“黑箱”。此外,人工智能算法模型還具有自適應、自學習等特性,導致其極易偏離人類預設的目標,其復雜程度愈發超出人類理解范疇。
數據依賴性,導致結果更不可控。數據是人工智能模型訓練及優化的“燃料”,是人工智能算法做出正確、公平、合理決策的基礎保障。輸入數據的數量規模、準確性、通用性、包容性、全面性等質量因素將直接決定訓練得到的模型的質量。同時,數據本質上是社會價值觀的縮影與映射,因此也會包含一些落后的價值觀與社會偏見。若未能對數據質量進行有效把控,人工智能算法模型便很可能習得數據中的偏見謬誤,并將其反映到訓練結果中,致使人工智能系統的功能行為及其影響變得更不可控。
人工智能引發不同維度的風險
作為引領未來的戰略性技術,人工智能在打造經濟發展新引擎、推動人類文明邁上新臺階的同時,也給社會、企業和個人帶來了不同維度的風險挑戰。
社會維度。一是沖擊就業格局,加劇財富分化。智能的算法、機器對傳統人工的替代在解放人力勞動者的同時,直接帶來了對就業的沖擊。從事重復性、機械性等工作的勞動者更容易被人工智能替代工作。據麥肯錫報告推測,到2030年機器人將取代8億人的工作。與歷史上的技術革命類似,人工智能的發展同樣會導致利益的分化與重構,新創造的社會財富將會不成比例地向資本一方傾斜,低收入與受教育程度較低的人群將在新一輪的社會資源分配中處于嚴重的不利地位。二是影響政治進程,抹黑政治人物。人工智能在社交服務中的應用能夠影響政治進程,利用機器人水軍可以進行輿論干預。例如,劍橋分析公司利用人工智能,輔助實施競選策略,影響美國大選結果。此外,可以利用深度偽造等智能信息服務技術制作關于政治人物的虛假負面視頻。例如,2018年4月,美國前總統奧巴馬的臉被“借用”來攻擊特朗普總統,視頻在YouTube上被轉發500多萬次。三是侵害事件頻發,危及公共安全。人工智能安全事故、侵害事件頻發,引發社會各界普遍關注。例如,特斯拉ModelS在美國和我國境內都曾發生過自動駕駛致死事故和數起交通事故;2018年委內瑞拉總統在公開活動中受到無人機炸彈襲擊,這是全球首例利用人工智能產品進行的恐怖活動;2018年,優步的一輛自動駕駛測試車在進行路試時發生事故,導致一行人死亡。
企業維度。一是不良信息頻現,企業審核能力不足。如果向人工智能系統輸入不完整、不正確、質量不高的數據,則會產生不良或者歧視性信息,即所謂的“垃圾進,垃圾出”。例如微軟公司的人工智能聊天機器人Tay上線后,被網民“教壞”,發布誹謗性的、歧視性的推文。此外,人工智能技術極大地促進數字內容產業的繁榮。預計到2022年,全球互聯網流量將達到每秒7.2PB。企業試圖依靠傳統審核模式實現內容的準確判斷并及時應對信息爆炸引發的各類問題,越發捉襟見肘。二是法律責任不明,陷入責任劃分困境。由于當前人工智能產品在問題回溯上存在不可解釋環節,而且現行立法也未明確界定人工智能的設計、生產、銷售、使用等環節的各方主體責任與義務,這給人工智能安全事件的責任認定和劃分帶來嚴峻挑戰。例如,人工智能醫療助理(例如IBM的“沃森醫生”)給出危險錯誤的癌癥醫療建議時的責任認定等問題。當人工智能出現自主決策能力后,自動駕駛汽車因獨立智能決策致損時,如何確定侵權主體及劃分責任。三是知識產權保護不足,版權認定困難。目前,各國就人工智能生成物所包含的權利類型和權利歸屬存有爭議,人工智能創作物的版權保護仍普遍面臨法律滯后問題。例如,澳大利亞法院判定,利用人工智能生成的作品不能由版權保護,因為它不是人類制作的。如果人工智能創作物得不到法律有力的保護,會使得人工智能生成信息的復制和擴散門檻更低,影響投資人、創造人投入人工智能創作的積極性。
個人維度。一是算法偏見現象,影響公平正義。人工智能算法并非絕對客觀世界的產物,算法偏見不僅是技術問題,更涉及對算法處理的數據集質量的完整性、算法設計者的主觀情感偏向、人類社會所固有的偏見,甚至不同地區文化差異等各方面問題。例如,美國一些法院適用的風險評估算法COMPAS被發現對黑人造成了系統性歧視。二是信息收集多樣,侵犯個人隱私。隨著人臉識別、虹膜識別等應用的普及,人工智能正在大規模、不間斷地收集、使用敏感個人信息,個人隱私泄露風險加大。例如,變臉應用“ZAO”因用戶協議過度攫取用戶授權、存在數據泄露問題而被監管機構約談要求自查整改。杭州一動物園因啟用人臉識別技術,強制收集游客敏感個人信息而被訴至法院,成為我國“人臉識別第一案”。三是濫用智能產品,侵犯人格尊嚴。利用深度偽造技術能實現將人臉移轉到色情明星的身體,偽造逼真的色情場景,使污名化他人及色情報復成為可能。例如,通過DeepNude軟件,輸入一張完整的女性圖片就可一鍵生成相應的裸照。
人工智能治理的新挑戰
人工智能技術的發展已經進入了某些科技領域的“無人區”,人工智能除技術本身可能發生問題之外,諸多應用在使用過程中也存在負效應。但目前,相應的風險防控機制和規則制定相對滯后,不可控的預期與擔憂使得人工智能在創新上面臨巨大的壓力,人工智能治理也就成為了人工智能技術和應用發展到一定階段的必然結果。
面對人工智能可能引發的新的全球焦慮,人工智能監管機構應及時察覺、管控危機、防范潛在風險。但目前,各國人工智能監管機構大多由政治實體組成,在應對人工智能等新議題的挑戰時,需要與專業知識共同體形成有效聯動。因此,監管機構應當以深厚的專業化知識作為治理基石,構建起涵蓋人工智能相關的數學、計算機科學等學科的專業化治理團隊,為監管提供必要的知識儲備和智力支持。
人工智能本身是一門綜合性的前沿學科和高度交叉的復合型學科,研究范疇廣泛而又異常復雜。人工智能的治理需要計算機科學、數學、認知科學、神經科學和社會科學等學科深度融合,這引發了對于人工智能治理主體多元構成的需求。近年來,國際組織、各國政府、行業組織和企業等各類主體也在積極探索多元主體參與的協同共治治理格局。因為只有在治理過程中,不斷推動多領域間進行廣泛交流和合作,采用靈活多元的方式,才能避免某些不可逆的問題出現。
人工智能的產業革命呈現出高速迭代化的特征,各種細分領域的產業化應用層出不窮。新興業態呼喚新的治理方案,在治理原則、治理主體和治理手段上有別于傳統治理框架,引發了對于人工智能治理敏捷化的需要。在治理過程中,需要通過不斷提升技術手段,優化治理機制,及時發現和解決可能引發的風險,對更高級人工智能的潛在風險持續開展研究和預判,確保人工智能朝著有利于社會的方向發展。
人工智能作為一種通用性技術,所引發的人員失業、公共安全等問題具有全球性,需要全球共同面對并達成全球性共識,而且人工智能的不穩定與多樣化應用又呼喚相對統一的治理規則與國際合作。只有世界各國共同尋求有效路徑,探索全球問題的解決之道,才能使人工智能在可見的甚或遙遠的未來更好地造福于人類,及時管控可能的危機以及防范潛在風險。
編輯:張程? 3567672799@qq.com