□ 文 郭佳楠
2016年以來,世界各國研究機構就什么樣的政策與治理方案能夠促進人工智能(AI)的社會效益開發與使用并有助于減輕任何相關社會風險而展開相關討論。經合組織稱,在2020年初,“全球至少有50個國家(包括歐盟)已經制定或正在制定相關的國家人工智能戰略。”并且《人工智能道德準則的全球前景》也確定了84條關于人工智能的道德與倫理準則。這些政策文件與倫理準則是適應人工智能發展新態勢、發揮自身規范性力量優勢做出的重要戰略回應,在此基礎上,人工智能被進一步定義為“通過分析環境與采取行動來展示智能行為的系統。”歐盟一直在積極討論如何促進人工智能的發展與使用,在未來希望發展什么樣的人工智能,以及如何為全球人工智能發展做出貢獻。
最初,歐盟的主要擔憂之一是其本身的人工智能研發與應用會落后于北美和亞洲。自20世紀50年代早期以來,技術與創新一直是歐洲科學研究及技術政策一體化的主要驅動力,這同時也體現在2000年啟動的《歐洲研究區發展戰略與計劃》,2010年制定的《歐洲2020年可持續與包容性的智能發展戰略》。這種對全球競爭力的聚焦與關注一方面有助于實現資源的優化配置,但另一方面也受到了質疑與批評,保羅.克魯格曼(Paul Krugman)在其1 9 9 4 年頗具影響力的文章《競爭力:一種危險的癡迷》(Competitive: A Hazardous Equisition)中認為,“國家不能像企業那樣競爭,并且國際經濟也不是零和游戲。”為了明確歐盟人工智能戰略框架及倫理準則的規劃背景、特征與模式,本文嘗試從比較視角分析歐盟人工智能的相應政策文件,通過考察歐盟作為全球行動者的權力基礎,使用“規范力量的歐洲(Normative Power Europe)”與“市場力量的歐洲(Ma rket Power Europe)”兩個概念來研究歐盟制定其人工智能政策的過程,并重點探討以下兩個問題:其一,從主要參與者及其理念出發,歐盟是如何制定其人工智能政策的?其二,相對于其他大國,歐盟是如何定位其人工智能政策的?
人工智能有很多定義。歐盟廣泛使用的人工智能定義來自《2018年人工智能戰略》,該戰略對人工智能的定義如下:人工智能(AI)是指通過分析環境并采取行動(具有一定程度的自主性)以實現特定目標來展示其智能行為的系統。基于人工智能的系統可以完全依賴于軟件,在虛擬世界中運行(例如語音助手、圖像分析軟件、搜索引擎、語音和人臉識別系統),或者也可以嵌入硬件設備中(例如高級機器人、自動駕駛汽車、無人機或物聯網應用程序)。
這一定義在歐盟后續的人工智能政策中得到進一步引用與擴展。通常,人工智能包括方法與技術,例如,機器學習、機器推理和機器人技術等,而構成人工智能的主要元素是數據與算法。一般而言,人們會進行“狹義人工智能”與“廣義人工智能”的區分。當前人工智能開發的階段被描述為“狹義人工智能”,即人工智能系統能夠執行一個或僅幾個特定的任務。在未來,預計將開發出能夠執行大多數人類任務或活動的“廣義人工智能”。歐盟政策文件中對人工智能的定義闡述表明,人們對人工智能作為一種具有廣泛影響的變革性技術抱有很高的期望。雖然歐盟內外的政策制定者和其他行動者極為重視人工智能技術的變革潛力,但人工智能專家認為,目前,人工智能的雄心壯志與現實能力之間仍存在巨大差距。
歐盟政策文件中對人工智能的定義闡述表明,人們對人工智能作為一種具有廣泛影響的變革性技術抱有很高的期望。
一直以來,許多歐盟成員國和機構都參與歐盟人工智能政策的制定。如表1所示,2017年-2021年,歐盟委員會先后發布了六份緊扣人工智能主題的戰略與政策文件。歐盟各實施機構、專家、利益相關者的報告與指導性意見促成歐盟內部對人工智能規制的深入討論。同時,歐盟人工智能的發展涉及許多政策領域,其中包括數字市場、內部市場以及研究與創新政策。

表1 歐盟關于人工智能的關鍵性政策文件年表
在制定人工智能政策過程中,歐盟受到了其他國家和地區人工智能的發展以及以往歐洲一體化成功案例的啟發。例如,歐盟委員會早期的人工智能政策研討會的報告概述了來自中國、美國、日本、英國、德國和阿拉伯聯合酋長國關于人工智能治理的國際倡議。
2017年初,歐洲議會通過了《關于機器人技術民法規則的決議》,這不僅是第一份關于人工智能的歐盟政策文件,也是全球第一份人工智能政策文件。這份文件是在關于人工智能的公開辯論的早期階段編寫的,其要點是討論媒體關注的公眾人物斯蒂芬.霍金和埃隆.馬斯克對人工智能威脅發表的觀點。在公眾辯論的早期階段,該會議文件圍繞著人工智能的一些令人震驚及科幻情緒展開集中論述,并以瑪麗.雪萊(Mary Shelley)的《弗蘭肯斯坦的怪物》和卡雷爾.卡佩克(Karel Capek)的機器人為開頭,之后又援引了艾薩克.阿西莫夫(Isaac Asimov)1943年短篇小說《繞跑》中的機器人三定律來對人工智能設定一套法律準則和評估標準,這些法律“被視為機器人的設計者、生產者和操作員所必須遵守的規制。”
在該決議中,歐洲議會要求委員會根據議會的建議提交一份關于機器人民法規則指令的提案。這個建議是:從長遠來看,應為機器人創造一個特定的法律地位,以便至少能夠創建一種最復雜的自主機器人,使其具有負責修復它們可能造成的任何損害的電子人的地位,并可能將電子人格應用于機器人自主決策或與第三方獨立交互的情況。該建議發布后,不僅使得機器人的法律地位的確立頗具爭議性,而且也受到人工智能專家與利益相關者的大量批評。一封由200多名人工智能和機器人研究人員、行業領袖以及法律與道德專家簽署的致歐盟委員會的公開信稱,“創造電子‘人’的法律地位將是意識形態化的、荒謬的和非務實的。”公開信的作者們強調,從技術角度來看,本建議是基于“對最先進機器人的實際能力的高估”和“被科幻小說及最近一些聳人聽聞的新聞公告扭曲的機器人認知,”并且從法律與倫理角度來看,為機器人創建法律人格也是不合適的。
應這一要求,歐盟委員會向議會作出回應,強調它將制定一項全面的人工智能戰略,其中還將包括對現有立法的評估。應該說,這項議會決議強調的許多關于道德、就業與監管需求的觀點都成為隨后歐盟人工智能政策的一部分,并且該決議在很大程度上對歐盟人工智能自身發展而言具有重大意義,因為它提出了一項極具爭議的關于為機器人創造法律地位的建議。另外,它同時包含了上文中提到的規范力量的歐洲與市場力量的歐洲的要素。決議根據《歐洲聯盟條約》《歐盟基本權利憲章》制定的原則和價值觀建立一個道德框架,這表明了對規范力量的強烈依賴。與此同時,該文件還強調了監管的必要性,這是市場力量的一個關鍵因素。它還關注其他與市場相關的政策,如投資和就業。
具體的行動措施包括:推進教育培訓系統現代化、預測勞動力市場的變化、支持勞動力市場轉型、及時調整社會保障體系。
2017年7月,塔林數字峰會討論了有影響力的麥肯錫全球研究所的報告,即歐盟在人工智能投資方面落后于美國和中國的相關內容,歐洲理事會邀請委員會提出歐洲人工智能的發展戰略。為回應理事會的邀請和議會的決議,歐盟委員會于2018年4月開始制定歐盟的人工智能戰略。
這個戰略提出了三個總體目標,進而成為歐盟人工智能政策的關鍵支柱。首先,它旨在提高歐盟的技術與工業能力,以及私營和公共部門在整個經濟中對人工智能的研發與利用。具體包括:增加投資、加強研究與創新的科研投入以及數據共享,創建歐盟共同數據空間。該戰略設定的目標是,在接下來的十年中,公共(歐盟及其成員國)和私人對人工智能的投資總額將達到每年200億歐元以上。
其次,該戰略還旨在為人工智能帶來的社會經濟變革做好準備。這一目標直接解決了人工智能、自動化和機器人的主要問題之一,即它們對就業的影響。雖然這個戰略提到了一些積極的方面,例如機器人做的工作可能是重復的,甚至是危險的,以及人工智能帶來的新工作,但主要關注的還是如何應對失業問題并“不讓任何人掉隊”。具體的行動措施包括:推進教育培訓系統現代化、預測勞動力市場的變化、支持勞動力市場轉型、及時調整社會保障體系。
最后,它致力于確保建立一個基于歐盟價值觀的適當的道德與法律框架,并符合《歐盟基本權利憲章》。其中涉及到關于監管的指導,尤其是在安全與責任、利益相關者的合作和人工智能道德準則的制定等領域。該戰略強調的一個總體理念是,歐洲應該倡導“一種造福人類和整個社會的人工智能發展方向”和“讓人工智能的力量為人類進步服務。”值得注意的是,該戰略也包含了與規范力量基本相同的要素,例如需要根據《歐盟基本權利條約和憲章》制定的歐盟價值觀,以及市場力量的特征,包括監管、投資和勞動力市場政策的需要,來共同制定一個指導性的道德框架。
在歐盟開始制定其整體的人工智能戰略時,相關成員國已經或即將發布自己關于人工智能的國家戰略。歐盟的人工智能戰略參鑒了法國、德國和芬蘭的政策舉措。該戰略強調成員國聯合起來幫助整個歐盟在全球競爭與防止單一市場分裂的重要性。為了實現這一目標,歐盟委員會在以成員國最近的一項關于人工智能方面進行合作的宣言為基礎,承諾與成員國合作制定一項關于人工智能的協調計劃,該計劃的確立進一步拓展了人工智能戰略。
在這一總體目標的基礎上,這項計劃還提出八項具體動議,以使成員國和歐盟委員會之間的合作更加緊密與高效,將國家和區域層面的行動措施與該計劃中概述的歐盟層面的行動措施相結合。總體而言,該計劃在關鍵領域提出了大約70項聯合行動,這些領域包括科學研究、投資、市場占有、技能培訓和人才培養、數據共享及國際合作等,并承諾將定期監測和更新該計劃,而該計劃也已于2021年進行了第一次更新與評估。
此處定義的歐洲人工智能戰略匯集了之前歐盟人工智能政策文件的不同元素,并突出了規范力量與市場力量特征之間的密切聯系。投資政策和監管措施通常既與市場力量相關,也與作為規范力量一部分的道德和價值觀密切相連,因為對人工智能的投資有望解決歐洲面臨的社會問題與挑戰,而監管旨在保護價值觀并實施相應的倫理準則。協調計劃中的以下引述總結了市場與規范要素之間的相互關系,這也是歐洲人工智能戰略的主要特征:一個適當和可預測的道德與監管框架依賴于有效的保障措施來保護人們的基本權利與自由,這對于公民信任人工智能以及需要投資安全的公司抓住新的商業機會至關重要。引領道德風尚,同時促進創新,有可能成為歐洲企業在全球市場上的競爭優勢。
在新興技術領域,歐盟歷來重視倫理準則的制定,希望以高標準的倫理和規制政策來重構全球新技術的發展模式。2018年,歐盟委員會成立了一個獨立的人工智能的高級別專家組(High-Level Expert Group on Artificial Intelligence,AI HLEG),以起草與制定歐盟人工智能倫理準則的初稿。
這一倫理準則是以參與式方式制定的,2018年12月公布了初稿,最終于2019年4月正式發布了《可信的人工智能倫理準則》(以下簡稱《倫理準則》)。這些倫理準則強調“以人為本”作為發展人工智能技術的核心要義。根據這種理念,“人工智能發展本身并不是目的,而是促進人類繁榮的一種有希望的手段,從而增進個人和社會福祉以及人類的共同利益,并帶來進步與創新。”此外,《倫理準則》將“信任”與“可信賴”等術語置于文件的核心地位,這也是世界各國制定的人工智能倫理準則中廣泛使用的概念之一。
基于此,歐盟結合自身的價值觀,將尊重人類尊嚴、自由、民主、平等、法治以及人權的觀念融入準則之中,并提出了實現可信人工智能的三大要素:(1)人工智能應遵守相關法律法規;(2)人工智能應符合相應倫理準則與價值觀要求;(3)人工智能應在技術與社會層面具有穩健性。見表2。

表2 可信的人工智能三大要素
就具體要求而言,《倫理準則》提出了適用于人工智能系統整個生命周期,覆蓋研發者、操作者、終端用戶以及社會大眾各類群體的七條關鍵要求:堅持人的自主和監管、保持技術穩健與安全、重視隱私與數據治理、維護透明度原則、堅持多樣性、非歧視與公平性原則、維護環境與社會福利以及堅持可追責性原則。該準則旨在平衡不同社會群體的最大化收益和防止與人工智能系統相關的任何風險。
倫理準則的構建是以歐洲價值觀為基礎,根據這些政策與投資建議,可以通過建立具有適當監管和投資的單一市場來實施這些準則。也有學者認為,倫理準則實際上只可能服務于短期商業利益,而不是促進價值觀或長期的單一市場需求。
在《2019-2024年歐盟委員會政治指導指南》中,歐盟委員會主席烏爾蘇拉.馮德萊恩(Ursula von der Leyen)承諾,在她任職的前100天內,她“將提出一項立法,即歐洲人工智能對‘人類及其倫理影響’的協調法案。”而這一承諾也直接導致2020年2月歐委會《人工智能白皮書—通往卓越和信任的歐洲路徑》的發布,為成員國在尊重“歐洲價值觀”的基礎上實現可信賴和安全的人工智能發展提供了投資與監管的政策選項。
這份文件的主要創新之處在于概述了法律與監管框架內的一系列公共政策選項,提出“明確的監管框架將在人工智能的消費者與企業之間建立信任,從而加快技術的吸收與應用。”對于這一監管框架,歐盟委員會還提出了“基于風險的規制路徑”,該路徑將在“有效實現其目標的同時,又不會過度限制而造成不成比例的負擔”之間取得平衡。
這份白皮書將監管作為對人工智能建立信任的關鍵要素,而為了提高卓越性,它列出了之前已經引入的一些關于人工智能投資的政策,并且還提到了歐洲綠色協議,指出“人工智能等數字技術是實現綠色協議目標的關鍵促成因素。”對該白皮書的批評之一是,其中遺漏了關于致命的自主武器系統的審核與監管。在歐盟開始資助人工智能國防研究和歐洲軍事力量元素出現的時候,將這一主題排除在公共協商文件之外似乎是存在問題的。
關于全球競爭與領導力的問題一直是人工智能話語的重要組成部分。人工智能開發與使用被描述為一場新的太空競賽,美國處于領先地位,中國是一個新興的領導者,其他國家,如英國和法國,也相繼宣布了他們的領導抱負。近年來,歐盟重申了其基于自身價值觀而成為全球人工智能領導者的意圖。歐盟的人工智能戰略指出,“歐盟能夠引領開發與使用人工智能的道路,并造福所有人。”歐盟試圖通過強調其倫理準則、以人為本和基于多元價值觀的規制路徑,將自己與美國和中國的人工智能戰略區分開來。
可以看出,在強調其規范性方法的同時,歐盟仍在重復競爭性的話語。然而,正如引言中提到的,這種國際競爭力的論述可能會對人們產生誤導,甚至是危險的。這可能導致人工智能在政治與財務上的處于優先考量的地位,而損害其他政策和投資領域。此外,關注競爭還可能會使國際合作變得愈發困難。即使如此,歐盟仍表現出對全球合作的強烈興趣,特別是在人工智能倫理準則方面。它一直參與著制定經合組織可信的人工智能倫理準則的相關工作,該準則后來得到了20國集團部長的認可。
因此,在人工智能競爭與合作的全球舞臺上,歐盟試圖將自己打造成一個規范性大國——歐洲,根據其可信的人工智能倫理準則,推廣其自身的價值觀與以人為本的規制路徑。應該說,在人工智能領域,作為規范力量的歐洲確實在經合組織和二十國集團等國際論壇上產生了一定影響,但這也使歐盟在這一領域的行動受到了越來越多的審視與監管,并遭到了歐盟內部一些倫理專家的強烈反對。
在當前的全球化背景下,一個可持續發展的地球也需要各國在人工智能技術、產業、倫理、治理等方面加強合作,從而讓人工智能實現以人為本、包容普惠、安全可持續的發展。
歐盟人工智能政策、倫理準則、規制與監管路徑是歐盟人工智能戰略框架的重要組成部分,是歐盟把握當前發展機遇,適應發展新態勢、應對發展新挑戰做出的重要舉措。歐盟為此做出的努力對于同樣致力于發展人工智能技術的中國有著重要的啟示意義。
首先,保持相對優勢,并在競爭環境中立足國情,不斷完善政策體系框架。目前而言,中國在人工智能技術的研發與應用方面初步占據了相對領先的優勢,當然,也不能據此自滿。此外,每個國家選擇自己策略的出發點,應該立足國情,同時需要“左顧右盼”,在與事實上的競爭對手博弈中建立自己的戰略。未來中國應積極借鑒包括歐洲在內的國外同行的先進理念,繼續保持這一優勢,持續推動人工智能產業的相關政策體系不斷發展與完善。
其次,重視人工智能的倫理挑戰,加快人工智能倫理治理實踐。歐盟盡管在人工智能戰略框架的建立方面相對落后,但是在官方倫理規范的制定上掌握了主動權。相比之下,中國雖然在2017年《新一代人工智能發展規劃》發布之時就注意到了研發與應用過程中潛在的倫理風險,但官方層面的倫理準則規范一直未能出臺。下一步在倫理治理理念與治理路徑上,中國也應統籌發展與安全,尋找好發展與安全的平衡點,既不能因為規制過度而阻礙技術創新應用,也不能因為規制不當而引發不可逆轉的風險。
最后,積極推動人工智能治理的跨學科參與和國際合作。歐盟在《倫理政策文件》中提到將會在G7、G20等多邊場合推動國際人工智能倫理標準的建立,并同非歐盟國家與組織展開雙邊或多邊會晤,就發展“以人為本”的人工智能達成共識。在《倫理準則》公布之后,2019年5月,經濟合作與發展組織成員國批準了經合組織理事會《關于人工智能的建議》,提出了發展人工智能的五項原則。可以看出在制定人工智能基本規范方面,人工智能的研究與發展需要得到越來越多的國際回應,從而吸收不同階層以及不同領域人員的觀點。
總之,在當前的全球化背景下,一個可持續發展的地球也需要各國在人工智能技術、產業、倫理、治理等方面加強合作,從而讓人工智能實現以人為本、包容普惠、安全可持續的發展。■