曾煒
著名物理學家史蒂芬·霍金認為,強大的人工智能(AI)的崛起,要么是人類歷史上最好的事,要么是最糟的;是好是壞現在仍難以確定,但我們應該竭盡所能,確保其未來發展對人類有利。由此可見,隨著人工智能的飛速發展,人類在享受技術革命帶來的前所未有技術紅利之時,也必須從政策、法律層面及時采取措施,以應對這種高深莫測的技術背后可能蘊含的巨大風險。
AI的應用能讓人類社會更有效、更好、更安全嗎?還是AI的應用會成為毀滅人類的罪魁禍首?上述問題的答案很大程度上取決于我們如何利用這種強大的新興技術。特別是由于近些年AI技術突飛猛進,人機交互的數量急劇增加,從而使得上述問題的討論變得更為熱烈。
面對人工智能可能對人類社會帶來的沖擊,特別是技術進步帶來的法律真空,一些有識之士長期以來一直呼吁各國在人工智能的監管方面進行合作。部分國家或地區已經開始著手解決人工智能帶來的政策挑戰。加拿大、中國、日本、美國和歐盟各自推出了促進人工智能發展和商業化的雄偉戰略,以便在即將到來的人工智能驅動的全球經濟時代仍然保持經濟競爭力。還有許多學術機構或公私團體支持政府推動人工智能的研發和規制,例如國際人工智能與法律協會、人工智能伙伴關系、新西蘭人工智能論壇以及歐盟“機器人研發計劃”(SPARC)。在現實中,各國法院也面臨各種與人工智能相關的爭端,雖然法院的裁決在一定程度上有助于澄清與人工智能相關的法律灰色地帶,但也有一些裁決反映了部分法官完全缺乏AI專業知識,從而加劇了法律適用的混亂。因此無論是政策制定者,還是爭端裁決者,都有必要加強人工智能專業知識的素養。
簡而言之,人工智能革命及其給社會帶來的挑戰都是非常真實的,各國政策制定者應及時采取因應措施。但是,各國應謹慎采用純粹的國內方法。首先,當一個問題的監管具有超越國界的外部性時,就像當前人工智能的情況一樣,不同的國內監管方法往往可能會引發沖突,從而使受多個國家法律制度管轄問題的監管變得困難重重。因此僅依靠一國的法律很難解決這種跨國性的問題,問題的跨國性質與管理該問題的各國法律之間的差異給跨國監管帶來了壓力。其次,跨國法律秩序的特點是一系列復雜的、多方向的進程,這些進程遵循自己的邏輯,并且毋庸置疑地會影響規范的權威性。最后,盡管法律規范的合法性主要來自社會的而非道德的根源,但在制定人工智能國內或國際法律規則時,道德因素應值得考慮并且將在塑造新的法律體系中發揮關鍵作用。
因此,各國在制定人工智能政策或法律時不應各行其是,而應該從國際監管的層面進行協調,以避免因分散的國內監管方法的不完善和碎片化而產生的風險。在此背景下,國際社會應考慮成立一個新的政府間國際組織,我們可稱之為國際人工智能組織(IAIO),作為討論和參與人工智能國際標準制定活動的國際論壇。IAIO不僅應由各國政府組成,還應廣泛吸收人工智能行業和學術組織等多元化利益相關者參與,這是由于人工智能不僅非常前沿,而且極其復雜,甚至在很大程度上尚屬于未知領域,而這些行業或組織的跨學科專業知識可以為政策制定者起草人工智能國際監管制度時提供不可或缺的幫助。
鑒于人工智能對人類社會影響的嚴重性和全球性,人工智能的監管機制不應限于單個國家內部或少數國家之間,而應建立一個面向世界上所有國家,而且至少涵括當前主要國家在內的國際監管機制。總體而言,人工智能國際監管機制應重點考慮如下幾個方面的因素。
有約束力的承諾vs靈活的合作安排:如前所述,人工智能將從根本上改變整個人類社會。人工智能的國際監管機制除了硬性的法律義務之外,必須銘記于心的是,當前關于人工智能,以及人工智能與人類的相互作用的研究甚為粗淺,這意味著我們甚至無法掌握即將發生的變化的范圍和程度,更不用說它們將引發的問題的維度。人工智能帶來的問題可能以快速和目前難以想象的方式發生變化,基于過去的經驗,這種狀況并不完全有利于達成國際共識。因此,在考慮制定一個更具約束力的合作框架之前,國際監管機制需要保持一定的靈活性以便熟悉當前的問題,厘清差異并建立共同點。
國際規制vs國家自主權:人工智能技術的武器化和某些數據挖掘實踐顯然與國家安全攸關,涉及特別敏感的國家主權領域。至少在構建人工智能國際監管的最初階段,國家在IAIO的權限方面可能會基于國家主權而踟躕不前。然而,從長遠來看,強有力的集體監督和執法機制可能是必不可少的,以便遏制對違法行為和機會主義行為的激勵。因此,具有約束力的立法、爭議解決和執法權威的高度制度化的組織將更適合作為新的國際人工智能監管機構。然而,現實是,在IAIO的確切目的、成員資格、規范問題以及一般指導方針得到充分明確之前,這種高度制度化的國際監管機制尚難以實現。
信息的分享vs信息的保密:歷史經驗表明,各國在分享重要技術的信息方面一般都很謹慎,鑒于人工智能技術的重要性,各國可能傾向于對人工智能信息的嚴密控制。但是,如果國際社會希望就硬性的法律承諾(例如關于人工智能應用的條約)達成共識,各國可能需要提供更多的信息以確保條約的遵守。這再一次表明,在當前人工智能監管的國際機制應保留更大的彈性,當然,若假以時日,應逐漸向更硬性和嚴密的國際監管機制邁進。
長期低交易成本vs低締約成本:鑒于關于人工智能的國際討論才剛剛開始,各國可能會對這一具有高度影響領域的監管產生不同的偏好,短期內達成可行的國際共識的可能性相當困難。然而至關重要的是,對于防止濫用人工智能應用造成社會危害,并確保人工智能的興起有利于人類的福祉而言,迅速地監管反應勢在必行。因此,在當下較為寬松的監管機制和低組織化形式可能將降低締約成本,只有在擁有足夠的專業知識和政治共識、能更好地評估各種政策選擇潛在的影響時,才可能制定更加健全的監管機制。
復雜的集中管理vs簡單的功能管理:就IAIO管理的復雜程度而言,階段性的安排也值得考慮。在IAIO的初始階段,在確定組織宗旨、成員資格、需要監管的問題,以及監管的主要議程的初始階段,可能管理越簡單越好。但是,隨著有法律約束力的監管機制的出現,客觀上要求更強有力的監管、爭端解決和執行機制。
常規管理vs不確定性管理:鑒于人工智能的新穎性、極端復雜性、不可預見的演變以及在情況復雜的成員之間可能引發爭議的預期,IAIO應明確其調整領域,而非對不確定的議題進行管理。因此,國際社會需要時間和監管機制的靈活性來建立共同的理念、利益、合作機制和解決方案,這些因素可以構成未來更正式的合作安排的基礎。
總之,至少在最初階段,IAIO應該從非正式的國際組織開始,以相對較低的組織形式,并采用柔性的軟法規定,如非約束性的建議、指南和標準,為各國在構思和設計與AI相關的管理政策時提供參考。當務之急是IAIO應該在各國制定自己的、不同的AI政策之前盡早促進國際社會在這一領域的國際合作,否則這些不同的政策很可能成為國際合作的巨大障礙。未來國際社會是否希望在某些領域采取更正式的合作,還有待觀察。值得強調的是,在IAIO建立監管機制的過程中,應廣泛吸收人工智能技術、法律、政治、倫理等領域的專家,以及來自公共部門、行業和學術界各種感興趣的利益相關者進行定期地磋商,以確保充分考慮到所有相關的觀點和建議。
編輯:黃靈 ?yeshzhwu@foxmail.com