
人工智能技術在近年來加速發展,深度嵌入了社會的方方面面,對人類的經濟生產、社會生活、軍事技術等活動領域都產生了顛覆性的效應,被視為可能對人類社會結構具有根本影響的“基礎建設”性技術。由于任何技術突破都可以迅速帶來軍事、安全設備和技術的升級,影響到一個國家的整體安全局勢,因此人工智能技術正為世界各主要國家所密切關注,美國、中國、英國、歐盟、日本、韓國、印度等國家和區域紛紛根據各自的國情制定了人工智能發展計劃,將該技術列入了“戰略”技術的級別。
在2016~2018年,日本、中國、美國和印度分別將發展人工智能上升到國家戰略層面,出臺了一系列促進人工智能發展的戰略性文件。相比之下,歐盟直到2018年才開始著手建立人工智能產業政策,在時間上相對較晚;而無論是人工智能突破性技術的數量,還是開發技術應用的企業數量,歐盟都要落后于美、中、英三國。同時,由于歐盟各國在上一輪互聯網跨國公司的發展競爭中本就不占據優勢,因此,總體而言,歐盟在人工智能行業發展上依然處于追趕其他先發國家的階段。
然而,歐盟在2018年啟動官方人工智能促進計劃時,就對總體形勢進行了較為準確的判斷:一方面,通過對歐盟總體資源和政策的調度,推動歐洲各國人工智能行業加速發展;另一方面,積極籌劃、制定行業規則和技術標準,以此形成先例,為占據、爭奪行業規則的話語權做準備。在全球行業競爭版圖中,歐盟的技術的確不占據優勢,但它通過清晰的判斷和立法活動,為自己爭取到了一定程度的主動空間。在對人工智能技術倫理的關注上,歐盟也明顯領先于其他地區,在監管立法上,它已經開始了積極的嘗試,為提升自身行業地位和競爭力增加了一些籌碼。
在當前全球競爭的大背景下,歐盟的人工智能政策具有更加包容和開放的特性,為行業交流和互通增加了空間,其在民用人工智能的社會倫理規范上的領先嘗試也具有相當大的參考價值。
2018年5月,歐盟通過了《通用數據保護條例》(GDPR)。這一條例與美國數據保護《澄清境外數據合法使用法案》(CLOUD Act)通過時間基本一致,但在內容上比美國數據法案更傾向于保護。在歐、美兩項法案通過之前,歐盟國家和美國之間曾因為美國跨國互聯網公司在歐洲的數據、隱私問題上有過多起爭議案件,隨著大數據時代的到來,各國逐漸意識到數據的重要性和跨國數據在安全問題上的意義,在數據方面的競爭也顯得愈發重要。某種程度上,《通用數據保護條例》可以看作是歐盟處于互聯網數據領域的落后地位、面對強勢美國的一種自我保護。并且,數據也是人工智能產業發展的基礎。好的人工智能技術需要充足和優質的數據進行培養,歐盟對于數據的保護,其實也是對于人工智能發展基石的保護。
同年6月,歐盟人工智能高級別專家組(AI HLEG)成立,任命了52名來自學術、企業和民間社會代表的專家。專家組的任務包括:共同探討關于人工智能中長期發展的挑戰和機遇,為歐盟相關政策、法案提供思路和建議,以及編寫人工智能道德準則的草案。同時,歐盟成立了歐洲人工智能聯盟,該聯盟是一個以在線平臺為運行形式的人工智能利益相關者社區,鼓勵所有有興趣的人士在平臺上公開討論相關內容。
2018年12月,歐盟委員會出臺了《人工智能協調計劃》(Coordinated Plan on Artificial Intelligence),計劃中提到,要加強可信賴人工智能的投資和美德建設,推動產業和各成員國之間的合作,進行存儲和世界級實驗平臺等基礎能力建設。文件列舉了包括健康管理、自動駕駛、金融科技、前沿制造、天基應用、智能電網等十個領域,提出建立歐洲網絡安全工業、技術和研究中心以及國家協調中心網絡,加強行業相關的協調合作。同時,對人工智能的倫理、尊重基本人權、符合國際普世道德標準也進行了反復強調。
2019年6月,高級專家組提交了《可信賴人工智能政策和投資建議》,內容分為兩大部分,一是關于人工智能產業的良好社會效應,二是政府推動人工智能發展的主要舉措。兩大部分共細分為八個章節,分別指向人權保護、私營部門、公共部門、科研發展、數據和基礎設施、教育和人才培養、行業框架引導,以及資金募集和投入。《建議》強調了歐盟官方在人工智能倫理和行業發展制定框架上的作用,同時強調只有所有利益相關者都參與到推動行業發展中,才能實現歐盟在人工智能行業中的迅速發展。
2020年2月,歐盟委員會發布《人工智能白皮書——通往卓越和信任的歐洲路徑》(下稱“《白皮書》”)。文件重新梳理了歐盟建設人工智能生態環境的目標——抓住新一輪數據浪潮,建立卓越生態和可信賴生態。《白皮書》中對人工智能的可信賴生態,即監管做出了基本的導向性規范,提出將人工智能通過不同風險級別進行區別管理,同時提出了專家組對人工智能企業進行自我評估的指導性清單,清單中包括七項要求:(1)人力管理和監督;(2)技術穩健性和安全性;(3)隱私和數據治理;(4)透明度;(5)多樣性、不歧視和公平性;(6)環境和社會福祉;(7)問責制,這七項要求基本總結了此前人工智能行業的倫理呼吁。同年7月,歐盟公布了對七項要求的細化文件——《可信賴人工智能評價清單》(ALTAI),對各項要求的定義、具體判斷條件和標準進行了規定。同時,基于這七項基本要求,歐盟開始廣泛征集意見,為制定人工智能相關道德和法律文件做準備。
2021年4月,歐盟委員會提交了《人工智能法案》(Artificial Intelligence Act)的草案,這是全球第一部關于人工智能的立法文件,歐盟希望在2024年前通過該法案,使其進入執行狀態。這一文件對歐盟人工智能領域的政策制定和監督責任進行了全面規劃,將主要監管目標設定為“高風險”人工智能,對技術、項目等的信息披露標準及方式、數據、沙盒,以及所有事項的監督管理機構等程序性問題進行了規定。這里的“高風險”指的是有可能對人的身體、精神造成傷害,或涉及生物信息識別,可能侵犯人的基本權利。
在《人工智能法案》廣泛征詢各界意見的同時,2022年9月,《人工智能責任法令》(AI Liability Directive)提案公布,主要規定了人工智能應用帶來的無合同民事責任相關問題,明確了一些基本權利和責任歸屬原則,以確保合理的賠償要求可以得到順利滿足,并進一步促進人工智能市場的自我規范化。
總體而言,歐盟的人工智能路徑強調獨立自主、社會效應和規范引導。在開始規劃和推動的四年中,歐盟委員會迅速抓住了“可信賴”作為總體目標,并將行業規范化推進到了監管規則制定的階段。雖然評估清單仍然屬于總體框架,也只具有引導性的呼吁作用,兩項法規草案規范的目標范圍也相當克制,但在對人工智能倫理的關注方面,歐盟已經走在了世界前列。
作為全球一體化推進程度最高的國家聯盟,歐盟在許多場合被作為一個整體來看待。但與真正的主權國家相比,聯盟的特性又決定了它具有利益結構復雜、協調需求較高的特點。因此,歐盟的人工智能產業政策在內容上也體現出了與其性質、結構相匹配的鮮明特點。
首先,歐盟人工智能產業的資金投入總量相對不足。
歐盟委員會表示,未來將通過“地平線歐洲”和“數字歐洲”計劃,每年在人工智能領域投入10億歐元,并希望通過這項持續投入來撬動私營資本和成員國的更多投資,最終使目標投入達到每年200億歐元。另外,歐盟“恢復和復原力”基金計劃為數字領域發展提供1340億歐元總量的資金,逐年籌集和撥付。
需要注意的是,這些資金中有相當部分用在了數字基礎設施建設、推動公共部門使用人工智能系統、搭建平臺以提高各界在人工智能領域的協同上。相比于美國動輒投入幾億、十幾億美元針對單個項目的研發投資,歐盟整體在人工智能上可以動用的資金相對并不充足。而即使資金充足,歐盟在數字行業發展中原本存在的問題依然沒有明確的解決方案,即如何規避大型跨國公司(主要是美國公司)對歐盟新興技術公司的收購。如果不解決這一問題,歐盟的人工智能行業發展依然會與其互聯網發展走向類似的結果:可以保留應用能力,但不可能實現歐盟委員會所追求的獨立自主,行業產生的經濟收益也會被傳統大型跨國公司所收割。因此,從這一角度看,雖然歐盟的產業計劃強調“獨立”的目標,但其前景卻并不樂觀。
其次,歐盟人工智能產業計劃反復強調“協調”的重要性。
人工智能路徑項目啟動后,歐盟首先建立專家組,制定了《人工智能協調計劃》,反復強調各國和各領域的共同參與,同時也搭建了各種幫助協調、討論的機制與平臺,以此來推動各國建立協調中心并形成網絡。在歐盟相關文件和政策的推動下,歐洲大部分國家已經制定了各自的人工智能發展戰略,加入了歐盟的總體計劃。這種對協調的強調非常符合歐盟的政治現狀,動用的也是歐盟較為成熟的機制和方法,它所追求的不只是行業、國家之間的協調,更是整個社會和國際的協調。
歐盟文件中明確了社會效益和平臺公平的重要性。《白皮書》中規定了應當著重關注中小型公司,確保其能夠獲得技術和發展,并要求扶助公共部門獲得人工智能技術。在國際方面,歐盟所有開放平臺和倫理規則文件的咨詢,面向的都是全世界的利益相關方。這些協調原則符合提高歐洲凝聚力的訴求,也有助于將歐盟人工智能行業推向更為開放、平等的平臺方向,但同時也面臨著一些不利因素的掣肘。
在一定程度上,這些原則與商業公司的逐利目的之間存在矛盾。而國家之間不平衡的技術差異也會導致各國有不同的政策傾向。種種矛盾和障礙,也可以從各類文件的進度上看到體現:在歐盟政策規劃開始啟動的幾年內,各種不具強制力的呼吁性、引導性文件迅速出爐,而《人工智能法案》和《責任法令》的草案的咨詢準備卻耗時超過9個月,2020年就開始籌備的《法案》依然在征詢意見和談判的階段。國際方面,美國非政府組織民主與技術中心(CDT)和商業協會消費者技術協會(CTA)等民間組織對《人工智能法案》進行了意見回應,但態度并不積極。
總體來看,歐盟若想要繼續擴大平臺特性,以“開放”和“協調”為導向吸納和組織行業資源,依然需要在復雜的矛盾和障礙中艱難前進,然而,它已經搭建起的基礎平臺,以及長期在歐盟各成員國之間進行經濟、政治協調的經驗和機制技術,都具有不容忽視的價值。
最后,“規則”和“標準”是歐盟切入人工智能產業的主要抓手。
自從專家委員會建立起以來,“可信賴”和“道德”就是歐盟人工智能路徑中最重要的關鍵詞。“可信賴”最根本的要求在于可理解、可控制。對于更為保守、面對各種數字技術疑慮更多的歐洲社會,關注技術的倫理維度、強調技術的可靠性,是一種更適合歐洲的發展視角。
因此,歐盟委員會在建立協調機制、定立基本框架后,迅速走向了為人工智能監管立法的道路。《人工智能法案》非常強調各種技術和具體應用的透明度,通過運行日志、監管沙盒的設立要求保證信息的留存,《法案》也規定了在各種情形下智能服務的提供方應該承擔怎樣的信息披露義務,提供明顯標識或將信息提交給相關管理機構。在信息透明化的基礎上,保證了用戶可以根據必要提示信息來自主選擇是否使用人工智能的權利。
雖然歐盟在立法監管上表現出了相當程度上的克制,但在對人工智能技術和應用進行分級別監管,對無合同人工智能侵權責任的界定,以及與產品質量保護、數據信息保護等其他法案的結合等方面,歐盟正在建立一個初具模式的規范框架。這種規范技術路徑無疑將會為后續其他國家和地區的對應法規提供參考,而它的出現本身也會引起整個人類社會的關注,提高對倫理規范的需求。從這一意義上講,歐盟利用自身優勢建立的影響地位,已經部分得到了實現。
歐盟人工智能路徑是在吸取了前一輪數字行業發展經驗教訓的基礎上提出的推動計劃,表現出了歐盟及各國對掌握技術主權的決心。歐盟也較為清醒地判斷了自身的優勢和劣勢,借用較成熟的法律技術手段,在規則和標準領域追求行業領先地位。
反對法案制定的意見認為,過早進行倫理規范會影響行業前沿的探索和突破,在技術競爭階段消耗大量人力、物力用于法律的建設和推廣也會分走本可以用于技術開發的資金。同時,歐盟在行業協調工作過程中的諸多博弈也必然會限制資源的分配效率和技術推進速度。
然而,從另一個角度看,當前人工智能的發展已經到達一個較為混沌的階段,尤其是在全球一體化遇到挫折、產業和經濟發展走向混亂競爭模式的時候,國家與技術部門、商業部門更有可能在快速發展上達成一致,而忽略了技術的社會倫理面向,導致傷害甚至災難性后果。事實上,各界對人工智能技術的疑慮從未停止,但僅憑業內人員的道德呼吁,顯然無法對快速運轉的技術部門,尤其是為商業服務的技術部門形成有效制約。那么,建立對社會的保護就會成為規避重大風險、保護行業發展的重要一步。
另外,歐盟在客觀條件限制和社會倫理追求的雙重作用下,總體呈現出較為開放、透明的特點。在世界走向混亂競爭、其他區域可能主動形成閉鎖的大環境下,這種“不得已”的平衡模式可能會使其成為作為交流平臺的更好選擇,為其技術發展提供更多機會。
因此,雖然歐盟在技術發展和資源整合能力上存在較為明顯的短板,積累也落后于前沿國家,但其人工智能產業及相關戰略政策的發展依然值得持續關注。(文/姜蘇玲 北京建筑大學機電與車輛工程學院)