關鍵詞:可信人工智能安全倫理法律規制責任以人為本
一、以可信為基礎構建人工智能治理法律制度的必要性
人工智能技術發展突飛猛進,在諸多領域取得了令人矚目的成就。但是,人工智能的發展,卻因為技術的復雜性、風險的不完全確定性、技術濫用、法律規制的缺位等因素,還未完全贏得社會的信任。
(一)人工智能發展中還存在侵蝕其可信性的諸多因素
其一,人工智能技術發展還存在諸多可知或不可知的風險。當前,人工智能存在著失控性風險、社會性風險、侵權性風險、歧視性風險、責任性風險五個方面的倫理安全風險。一項針對14-28歲的中國青年關于人工智能的調查結果與谷歌學術指數的比對結果顯示,人們對人工智能的擔憂,焦點主要在于其可能導致戰爭、操縱輿論、加劇環境破壞、用于犯罪人工智能化、沖擊民族文化、影響隱私與倫理、導致失業、大數據殺熟、人工智能軍備競賽、貧富分化等。顯然,這些情形直接影響了人們當下對于人工智能技術的信任,也表明人工智能的“可信”問題還沒得到完全解決。發展人工智能可能導致的道德風險包括“人們可能由于自動化而失業”“可能擁有過多或過少的閑暇時間”“可能會失去作為人的獨一無二的感覺”“人工智能系統的使用可能會走向不期望的終點”“人工智能系統的使用可能會導致責任感的喪失”“人工智能的成功可能意味著人類種族的終結”。
其二,人工智能技術還不完全可信。(1)人工智能技術還未真正達到人們想象的發達程度,總體上還處于專用人工智能而不是通用人工智能發展階段。人工智能固然能夠在圍棋等特定領域獲得快速精準的處理優勢,但能處理全新問題的通用人工智能目前較為缺乏;目前的人工智能無法應對特殊情境下的“異常值”問題,如能夠在天氣良好的情形下處理高速公路駕駛問題的人工智能不一定能夠應對城市道路的復雜情景;目前的人工智能總體上還難以達到“安全、聰明、可信”的標準;人工智能理想與人工智能現實之間還存在鴻溝,如人工智能雖然可能與人交談家庭問題,但其實它根本不懂家庭。人工智能還存在超歸因錯誤、魯棒性的缺失、高度依賴大數據訓練的人工智能無法適應全新的環境、容易導致社會偏見、錯誤的數據會引發回音室效應、數據可能被公眾操縱、偏見疊加、容易陷入錯誤目標陷阱、被用于非法目的傷害公眾等不足。(2)深偽技術加劇了人們對真實性瓦解的擔憂。實踐中,“基于深度學習的深偽(deepfake)技術可以在圖像和視頻中實現‘換臉’,達到以假亂真的程度”“人們借用深偽技術和配對訓練可以生成視頻,讓人帶表情地說話”;普通人很難通過聲音、表情和嘴型變化辨別視頻的真假,而這些技術如果被用于普通人身上,則可能導致污證、勒索、欺詐、惡作劇的泛濫。(3)技術安全等問題未完全解決。人工智能的技術安全問題(如數據安全、網絡安全、算法安全、隱私安全),人工智能的應用安全問題(如智能安防、輿情監測、金融風控、網絡防護),人工智能的法律與倫理(如法律法規、標準規范、社會倫理)等問題,均未得到有效解決。此外,生成式人工智能會衍生出傳播虛假信息、侵害個人信息隱私、偏見歧視等問題,給大數據和人工智能產業的安全發展留下隱患。(4)與人工智能技術關聯的問題是,人工智能的良好運行高度依賴個人信息和數據,而個人信息和數據管控本身還存在諸多問題,如App違反合法、正當、必要的原則收集與所提供服務無關的個人信息,“強制授權、過度索權、超范圍收集個人信息”大量存在。
其三,人工智能應用不當導致了侵權,致使人工智能不完全可信。(1)如2019年,臉書通過人工智能封停了54億個虛假賬戶,這些虛假賬戶大多是由程序自動創建的機器人程序,它們違規發布惡意信息,操縱輿論氛圍、傳播虛假信息,人工智能與人工智能之間的斗爭不斷升級。(2)存在不合理運用人工智能技術和人工智能技術遭到惡意濫用的情形。如人臉識別技術的廣泛普及,使得人臉數據采集變得輕而易舉,引發了民眾對面部數據泄露的廣泛擔憂。近期的報道如“上海已在全市嚴禁酒店強制刷臉”,實際上是對此前大規模違法行為的一種糾偏。
其四,人工治理的技術使用還存在與其宣示的價值取向不一致的情形,損害了人工智能發展的價值基礎。人工智能在技術發展存在極大不確定性的情況下就使用,易導致“惡性競爭、誤用、濫用甚至惡用”。如2016年11月美國總統大選中唐納德·特朗普被選為美國總統,2016年英國就是否繼續留在歐盟舉行全民公投,結果支持退出歐盟的一方以微弱優勢勝出,“在這兩個案例中,都有人認為推特等社交媒體平臺被用來傳播有利于最終勝利方的假新聞”, 這是因為人工智能有其特定的運作邏輯,“人工智能在其中所起的作用是根據你的點贊、評論,以及你點擊的相關的閱讀鏈接等行為去分析你的偏好,然后尋找到你也許會喜歡的新消息”,“向你展示你喜歡的東西,隱藏你不喜歡的”。
其五,規制人工智能的法律還不可信。傳統法律主要是為規制人的行為制定的,無法適用于對人工智能新技術的監管。面對一項新技術,國家直接監管人工智能的法律規范闕如,且人們擔心過于嚴格的法律監管會阻礙人工智能的技術創新;而規制隱私、安全、公平競爭等領域的法律,尚無法完全適應人工智能發展與規制的需要。規制人工智能的法律不可信還源于:傳統法律難以有效規制人工智能;新的法律跟不上人工智能技術發展的步伐;人工智能的發展還存在很多技術上的不可預知風險,即便出臺人工智能治理的法律也很難做到針對性的監管。
總之,技術和法律的發展還處在雙重不確定性中,人們自然難以建立起對人工智能及規制人工智能的法律的全然信任。而一項不可信的技術,會解構它的存在和發展的價值基礎,導致它的發展喪失道義正當性。
(二)人工智能法為什么要強調信任
信任,是人際關系得以長久維系的橋梁,是社會關系得以拓展的基礎,是社會發展的內在條件,更是建立高效社會組織的基本前提。
1.信任是社會合作得以進行的基礎
人類最早的信任可能來自生物基因,為了維系直系親屬的生存尤其是后代的生存,人們會選擇信任“一個由1-10個人組成的群體(大約是我們的直系親屬的規模)”;個人之間的信任也許容易建立,但是,更大規模的信任即群體的信任的建立是困難的,因而,早期人們多選擇信任自己的部落成員;人類的信任史是從一對一關系開始的,之后通過市場、宗教和政府逐步建立了較為廣泛的信任;而現代國家成功的一個關鍵就是,“人民‘信任各種制度以及這些制度下的法治,并且不擔心自己的財產安全’”。信任是一種社會資本,“信任的作用像一種潤滑劑,它使一個群體或組織的運作更有效率”。
2.信任成功與否取決于信任拓展范圍的大小
人類社會的信任總體上經歷了“從一個依靠關系和信任來加強合作的社會進入到一個由市場和法治對合作進行協調的社會”歷程;“技術的發展將我們的信任圈從我們的直系親屬和部落拓展到了國際社會中越來越多的區域”。總體來看,一項拓展信任半徑越大的技術,就越容易成為世界大多數人接受的技術。人工智能的信任拓展,是一個復雜的過程。“人機之間信任鏈的產生過程常是:從陌生—不信任—弱信任—較信任—信任—較強信任—強信任。” 特定國家的人工智能技術,無法不受世界上最發達的技術影響。人工智能技術的競爭,是全球性的,在很大程度上講,人工智能技術競爭的結果很可能形成“贏家通吃”的局面。因此,人工智能的發展,不僅要追求進步,而且必然應追求“最優”。
人工智能技術的發展程度,不僅是由技術決定的,而且是由規制人工智能的倫理、法律等規范決定的。技術和規范,共同推動著人工智能發展的水平和高度。那些真正發展得良好的技術,必定也是法律保障有力、遵循了良好倫理規范的技術。由此,人們對人工智能技術的信任,就建立在保障人工智能發展的倫理規范和法律規范的基礎上。
二、人工智能獲得社會信任的法律基礎
不同時代社會信任的運作機理有所差異, 人工智能獲得社會信任需要依靠法律制度來保障,需要妥當監管的法律制度為人工智能的可信予以背書。法律保障人工智能可信的關鍵在于捍衛現代法治的傳統和憲法確認的公民的基本權利。
(一)人工智能的信任需要法律來保障
其一,傳統社會基于血緣等關系構建了人際之間的信任,人與人之間的信任多建立在熟人關系基礎上。其優點是,熟人之間需要進行的是多次博弈而不是一次行動。不足在于信任范圍非常小,這是因為傳統社會中人們的交往和合作主要建立在熟人關系的基礎上,工商業不發達,人們需要拓展的交往半徑也不需要太大。社會普遍化信任的匱乏,或者說人與人之間缺乏普遍信任,社會的“信任半徑”非常狹小。這種對家庭以外成員的低信任度狀況,既是由熟人文化傳統決定的,也是由小農經濟特點決定的。
其二,到近現代社會,法律力圖建構的是一種打破血緣關系、促進陌生人合作的普遍信任機制。法律追求普遍性,強調法律面前人人平等,要求任何人不論其所處的地位或處境,都必須服從于法律和法院的司法管轄權。現代社會共同體合作的基礎,主要建立在平等交換、契約自由基礎上。以平等交換為核心內容的國家法律制度,奠定了陌生人之間市場交往的信任基礎。
其三,人工智能時代的信任須建立在人工智能技術安全、確定性的法律管控和社會倫理引領的基礎上。技術是人工智能獲得可信的載體。技術視角下的人工智能信任建立在人對技術的信任基礎上,使人相信人工智能技術屬于“似人的技術”;技術視角下的信任主要是指“個體對信息技術的功能性、可靠性和有用性的信任信念”。數字技術促進數字經濟信任的成功典型是早期淘寶的遠程交易,“買方擔心付款后賣方不發貨,而賣方也擔心發貨后收不到款。于是,2004年第三方支付平臺支付寶開始運行,由支付寶承擔買賣雙方的風險。數字交易留痕為信用評價提供了便利的技術手段”。從應然角度講,人工智能要獲取整個社會的信任,最為基礎的是,它要向整個社會展示出自身的技術首先是可信的———不僅技術的確是智能的,而且是向善的,至少不能是作惡的。 在人工智能技術背景下,人工智能的可信問題就首先被轉換成了一個技術問題,即可信計算的問題。信息安全的最新國際標準ISO/IEC-15408將“可信”界定為:“參與計算的組件、操作或過程在任意的條件下是可預測的,并能抵御病毒和物理干擾”,且這種計算機系統的可信從用戶角度來看應當是可論證的。可信計算的平臺的基本特征包括“真實報告系統的狀態,同時絕不暴露自己的身份”,而要實現這一目標,平臺必須具備三個基本特征:(1)保護能力,核心是建立平臺屏蔽系統保護區域,確保數據的訪問須經過授權,以控制外部實體對敏感數據的訪問;(2)證明,即能夠確認信息的正確性,“外部實體可以確認保護區域、保護能力和信任源”;(3)完整性的度量、存儲和報告,“其基本原理是一個平臺可能被允許進入任何狀態,但是平臺不能對其是否進入或者退出了這種狀態進行隱瞞和修改”。
以上三種關于信任的“理想類型”的共性在于,都力圖建立人與人之間的信任關系,以推動符合時代需要的社會合作。差異在于:(1)血緣關系、家族關系等具有鮮明的自然、天然屬性,因而建立于這些因素基礎上的人際信任范圍具有天然的有限性,信任輻射的半徑較小。與自然因素伴隨的問題是,基于傳統社會人際因素建立的人與人的關系往往是不平等的。等級性、差異化的人際信任關系結構,也決定了人與人之間的信任雖然緊密,但信任范圍必然十分有限。(2)現代法律制度的平等性特征使得它具有拓展更大信任半徑的內在因素和可能。平等性是經濟契約得以成立的基礎,也是長久性互惠人際關系得以實現的基礎。進入關貿總協定(GATT)和世界貿易組織(WTO)時代,部分國家依靠雙邊或多邊條約、區域協定、國際規則,開拓了超越國家領域的法律合作范圍,市場化的信任得以大幅度擴展,信任合作具有了超越國家地理邊界的可能。依靠法律對產品生產質量或服務質量的管控以及法律對平等交易的保障,市場合作具有了無限可能。(3)人工智能產品或服務的信任關系建立,離不開契約型法律制度的基本保障。但人工智能技術背景下的信任,還有其獨特性,本質上涉及人對技術的安全性、技術對個人信息保護程度、技術被運用的價值正當性等一系列技術問題的信任。要完成人工智能產品或服務的可信交易,需要滿足兩個基本條件:一是公平的市場交易制度,二是可信的人工智能產品。復雜的是,人工智能的可信,至少在目前,還無法完全依靠人工智能自身建立起來,它的可信,還需要依靠法律制度來保障,需要妥當監管的法律制度為人工智能的可信予以背書。
(二)捍衛現代法治的傳統和公民的基本權利系確保人工智能可信的關鍵
人們對人工智能技術的信賴,建立在人工智能技術的安全性、保障和規制人工智能的法律制度的正當性、規制人工智能發展的制度的價值正義性、人工智能技術的實踐運作對人類基本價值追求和人的基本權利維護的有效性的基礎上。智能技術被用于數字治理,可提升治理的效能,但智能技術的運用,涉及社會發展、技術創新、倫理維護、行政效率等多維度價值。人們的擔心在于:一是由于認知不能,人類無法預知人工智能的風險;二是擔心沒有合理的管控標準和法律制度,人工智能技術風險不能夠得到很好控制;三是擔心雖然預知了風險,也設定了法律制度,但是無法合理預知制度能否管控技術風險;四是由于法律制度設定偏差,導致法律設定的監管人工智能的目標難以實現;五是由于技術不透明,且技術問題屬于專業問題,一般公眾無法合理判斷一項技術是否被合理利用。作為一項具有高度不確定性風險的技術,人們擔心企業或者社會管理者不能很好地管理人工智能的社會風險,而給自己、社會或者人類帶來不可逆的社會風險或者損害。因此,人工智能發展和規制人工智能發展的法律制度須具備價值正義性。人工智能技術本身不足以完全促進人對人工智能技術的信任,但合理的法律制度設定可保障這種信任的達成,提升人對人工智能技術的信任度。制度視角下的技術信任實際上是通過法律制度對信任關系的重新構造,完成了對陌生人之間信任關系的構造與拓展。
在支撐人工智能信任的技術維度、法律維度、倫理維度和實踐維度中,最為關鍵的是為人工智能發展設定法律監管標準。這是因為,人工智能技術雖然具有一定的獨立性,但人工智能技術的發展方向必須由法律來引領;人工智能倫理固然具有價值引領作用,但這種價值引領作用的發揮缺乏強制性,只有通過法律把這種價值的“善”轉化為強制的制度標準和具體的行為準則,倫理價值準則才具有真正得以實踐的可能性;而人工智能技術的實踐運作對人類基本價值追求和人的基本權利維護的有效性問題,也主要是對法律基本價值和憲法確立的公民基本權利保障的實踐,這一實踐如果與法律規定有偏差,就需要對其進行矯正。
三、可信人工智能法律構建的倫理基礎與可信特征
包括我國在內的許多國家均將“可信”作為人工智能的核心倫理原則,而“正當性”則是保障人工智能可信法律構建的基礎。
(一)正當性是保障人工智能可信法律構建的倫理基礎
全球關于人工智能治理可信問題的關注最初是在倫理文件中表達的。關于發展什么樣的人工智能, 未來生命研究院提出了“有益的人工智能”(2017), 英國上議院提出了“倫理性的人工智能”(2017),歐盟人工智能高級別專家委員會提出了“可信賴的人工智能”(2019),中國新一代人工智能治理委員會提出了“負責任的人工智能”。雖然存在一些爭議,但是國際社會在“可信賴的人工智能”“負責任的人工智能”等核心理念上可能會達成一致。
思考可信人工智能治理的德性基礎,實際上是從根本上思考人類社會應當發展什么樣的人工智能的目標問題。早在1942年,科幻作家阿西莫夫即給出了機器人發展的三大法則:“(1)一個機器不可傷害人類,或通過交互讓人類受到傷害。(2)一個機器人必須遵守人類發出的指令,除非指令與第一法則沖突。(3)一個機器人必須保護自身生存,只要這種保護不與第一和第二法則沖突。”當然,阿西莫夫為機器人設定的三大法則雖然為人工智能系統的構建提供了高層次的指導原則,但是,如果做出每一步都要考慮它帶來的影響,又是不可操作的。
二十國集團強調了負責任與人工智能發展的可信賴特征。2019年6月,二十國集團貿易和數字經濟部長會議公報中發布了《G20人工智能原則》,第1節提出了“負責任地管理可信賴AI的原則”。二十國集團向我們展示的人工智能的可信,是由一系列要素支撐的一個從客體到主體的價值體系。客體指的是人工智能技術穩健性、安全性和保障性,主體主要指人工智能服務的終極對象是人,人工智能技術無論如何發展,都要維持人的主體地位,捍衛人類社會數千年來努力建構起來的公平這一基本價值觀。
歐盟提出了人工智能發展的“卓越與信任”目標,可信是歐盟人工智能法設定的基本準則。如歐盟出臺的人工智能法在前言部分即提出,“本條例的適用應符合《憲章》所載的歐盟價值觀,促進對個人、企業、民主和法治以及環境的保護,同時促進創新和就業,并且使得歐盟成為采用可信人工智能的領導者”(前言第2部分);“促進歐洲以人為本的人工智能方法,并在安全、可信和合乎道德的人工智能發展方面成為全球領導者,同時確保按照歐洲議會的具體要求保護道德原則”(前言第8部分)。
美國將可信賴作為人工智能開發的一項原則。如美國總統拜登于2023年10月30日簽署頒布了《關于安全、可靠、值得信賴地開發和使用人工智能的行政命令》,該行政命令提出其總目標是“為所有人帶來正義、安全和機會”;提出了人工智能發展的政策原則包括:安全可靠;支持多元化的勞動力(包括支持工人);促進公平;保護隱私和公民自由;造福整個世界;評估和管理生物安全風險、減少合成內容帶來的風險;倡導在政府使用人工智能的實踐中要管理風險,“對使用人工智能作出的不利決策給予人性考慮和補救措施”。
可信也是中國人工智能發展的基本標準。2021年9月25日國家新一代人工智能治理專業委員會發布的《新一代人工智能倫理規范》第3條提出了人工智能各類活動應遵循的基本倫理規范之一就是確保可控可信,要“保障人類擁有充分自主決策權,有權選擇是否接受人工智能提供的服務,有權隨時退出與人工智能的交互,有權隨時中止人工智能系統的運行,確保人工智能始終處于人類控制之下”。2023年,中國發出的《全球人工智能治理倡議》強調了要“確保人工智能始終處于人類控制之下,打造可審核、可監督、可追溯、可信賴的人工智能技術”。全國信息安全標準化技術委員會、大數據安全標準特別工作組發布的《人工智能安全標準化白皮書(2023版)》中,對可信問題的關注主要集中于人工智能的“透明度、可解釋性、健壯性與可控性”以及應用安全風險管理與用戶對人工智能的信任之間的關系問題。
當然,多個主體關于“可信”的表達差別還較大:如前述的二十國集團關于“負責任地管理可信賴AI的原則”,幾乎包含了人工智能發展的所有倫理原則;歐盟的人工智能白皮書本身就將“卓越與可信”作為其題目,所以其關于人工智能發展的具體內容表述,都必然與“卓越與可信”密切相關;美國的人工智能行政命令也將“安全、可靠、值得信賴”放在一起進行表述;我國人工智能的“倫理規范”“治理倡議”“白皮書”,也把“可信”與人類自主、安全與隱私保護、可解釋與透明關聯起來闡述。從前述不同的文本來看,我們似乎很難說哪一項人工智能倫理原則與“可信”人工智能的發展是沒有關系的。雖然表述有所不同,但是概括起來看,有關人工智能可信的所有要求就是人工智能的發展要具有“正當性”。
可信被很多國家人工智能倫理確認為了一項基本倫理原則,這一原則的提出,是為了解決人工智能的價值對齊問題,即確保人工智能的目標與人類的目標一致,使其“行為和決定符合人類的價值、目標、道德考量”。〕但是,單純從倫理準則角度構建追求人工智能的可信存在諸多問題:(1)全球關于人工智能治理存在諸多爭議,不同準則之間的沖突日益凸顯,如“普惠發展與隱私保護”“安全可靠與非歧視要求的沖突”等;既有準則規范可能由私人部門提出,實際上是抵制政府監管的借口等。(2)作為倫理準則的可信標準,主要是一種倡導性、自律性準則,缺乏有效的監督執行機制,強制性程度不足;準則的表達多采概括性概念,可操作性不強。因而,國家立法所要做的工作就是,將倫理準則轉化為法律準則,并通過更加具體的技術規則和法律規則設計,保障可信準則在人工智能產品或服務的研究、開發、設計、部署、使用、監管等具體環節得到落實。
(二)現行可信人工智能的評估標準
何積豐院士提出,人工智能的可信特征包括四個方面,即:(1)魯棒性,即對未知情況具備一定的應對能力;(2)自我反省,即對自身性能或錯誤能夠有所感知;(3)自適應,即能夠成為通用的系統,能被應用到新的環境;(4)公平性,如應防止被不當力量訓練為種族歧視的智能。有學者提出了可信人工智能系統的質量框架,包括:(1)尊重人類自治原則,含人權代理與監督。這是最為重要的原則,人工智能應當賦予人類新的權利而不是取代人類,且處于人類控制之下,不對人類基本權利或健康造成損害。(2)傷害預防原則,包括魯棒性、穩定性、安全性(包括保密性、完整性、可用性)、可靠性、可問責性、隱私性、可重復性、準確性等。(3)可解釋性原則,包括透明性、可解釋性。(4)公平性原則,即確保群體或者個體不受偏見或歧視。(5)一般軟件質量屬性,如兼容性、可維護性、功能適用性、可移植性、性能效率、易用性等。歐盟委員會人工智能獨立高級別專家組《用于自評估的可信人工智能評估清單》(ALTAI)指出,歐盟于2019年在《可信人工智能倫理指南》中提出了7項可信的要求:人類代理與監督,技術魯棒性及安全性,隱私與數據治理,透明度,多樣性、非歧視性和公平性,社會和環境福祉,責任。
四、可信人工智能發展對法律構建提出的要求
保障可信人工智能發展的路徑呈現出一定多元性,總體上是對技術、倫理和法律所作的不同程度的組合。為保障人工智能的可信發展,法律制度應遵循一系列外在準則和內在準則,前者包括以人為本原則、人類主導原則、技術中立原則,后者包括透明原則、安全原則、公平原則、隱私保護原則、可問責原則。
(一)保障可信人工智能發展的多元路徑與法律路徑
保障可信人工智能發展的路徑是多元的,大致包括:(1)側重行業技術保障的路徑。如中國信息通信研究院和京東探索研究院通過對全球范圍內已經發布的84份政策文件按照詞頻進行梳理發現,當前人工智能治理原則已經收斂在“透明性、安全性、公平性、可責、隱私保護等五個方面”,支撐可信的技術包括“穩定性技術、可解釋性技術、隱私保護技術、公平性技術、可視化技術”等。(2)技術認證的客觀標準與倫理價值評價的主觀標準結合的路徑。如加拿大國家治理創新中心發布的《可信人工智能的雙軌認證方法》報告提出,“可信人工智能的發展出現了雙軌并行的趨勢:一條路徑側重于通過已成立的認證機構,使用客觀標準對嵌入軟件產品中的人工智能程序進行認證;另一條路徑則側重于驗證可信AI是否符合主觀標準,如價值觀、道德規范和法規的個人權利等”。(3)人工智能的風險防控路徑。中國信通院聯合清華大學、螞蟻集團發布的《可信AI技術和應用進展白皮書(2023)》提出,針對人工智能固有技術風險持續放大,可信人工智能發展應從應用AI魯棒性技術對抗惡意攻擊(提升文本識別對抗能力、提升圖像偽造識別能力、提升生物核身檢測能力),利用AI可解釋性技術提升決策透明度,通過對營銷定價歧視糾偏、改善信息繭房現象、加強對弱勢群體保護等提高AI的公平性,在AI的實踐中,應加強對數據模型安全和人臉識別隱私保護等。(4)法律、倫理、技術結合的路徑。2019年,歐盟人工智能高級別專家組發布了《可信人工智能的倫理指南》,提出人工智能在整個生命周期中需要滿足三個條件:合法性,即可信人工智能應當依法合規;道德性,即人工智能發展要符合道德原則、價值觀;穩健性,即人工智能發展應避免造成無意的損害或負面影響。這實際上提出了保障人工智能可信發展的綜合路徑,即綜合法律、倫理、技術,保障人工智能的可信。
上述路徑總體上是將技術、倫理和法律做了不同組合,不同組合側重不一,呈現出來的規制路徑當然就有一定差異。(1)技術不足以保障人工智能的可信。可信人工智能的建立離不開技術準則,如開發、部署和使用人工智能的相關技術以及相關軟件、算法和數據技術;重點監控“對個人或社會造成傷害或危害”的高風險技術。但技術標準是人工智能發展目標實現的手段,甚至是人工智能法律管控目標實現的具體路徑。所以,我們應把人工智能可信目標的實現,植入一個相對更體系化的國家制度路徑。(2)倫理準則缺乏有效的強制力。人工智能的可信離不開倫理的保障。倫理作為一種社會評價標準,固然可以通過壓制個體意志與欲望的方式約束行為人,但它具有的是一種“弱強制力”,而且其運行遵循的是他律機制,無法真正保障人工智能的發展行進在正確的軌道上。(3)法律可以發揮國家的強制性與引領性來保障人工智能的可信。為人工智能設定法律標準,實際上是為人工智能的研究者、開發者、部署者等設定最為基本的標準,并通過法律的強制執行性推動各項標準的落實,以防人工智能的發展偏離人類追求的價值目標,實現對人工智能產業發展的規制、引領作用。
(二)可信人工智能對法律提出的期待
可信是一種文化,一種基于技術發展而形成的人對人工智能的認知和信任狀態。為了保障人工智能的可信發展,法律制度的創設或者調整應當遵循一系列外在準則和內在準則。
1.可信人工智能法律構建應遵循的外在準則
外在準則構成了人工智能發展的國家社會目標, 意在維護國家社會的福祉和法律的基本價值,是人工智能長遠發展的基本準則。外在準則主要是一種理念,它無法通過人工智能技術而直接得到落實,但它可以成為評判人工智能技術發展是否正當的元準則,是人工智能發展的總的引領性準則。
其一,以人為本,捍衛人的基本權利。“以人為本”的理念,是我國在《全球人工智能治理倡議》中提出的重要理念。可信與以人為本、安全、合乎道德密切相關,故歐盟人工智能法同樣提出了“以人為本”理念,強調“鑒于人工智能可能對社會產生的重大影響以及建立信任的必要性,人工智能及其監管框架的發展必須符合《歐盟條約》第2條所載的歐盟價值觀、各項條約和《憲章》所載的基本權利和自由。作為前提條件,人工智能應是以人為本的技術。人工智能應作為人類的工具,最終目的是提高人類福祉”(歐盟人工智能法前言第8部分)。“人工智能法學始終是面向‘人’的研究,是智能時代的人類為了避免自身引發的風險與災難而展開的法律學問。”人工智能立法堅持以人為本,就應當保護個人信息和數據等數據權利,保護人格權、人的自主決策(自治權)和人類的主體性,還應當重視對社會弱勢群體的權益保護。發展以人為本的人工智能,既應從技術發展的角度來設定制度,還應從人的基本權利的角度規制人工智能技術。以人為本還應當認真考量新產業發展對傳統產業帶來的沖擊,如人工智能發展對傳統產業領域的就業替代,就是一個需要高度關注的問題。應考慮到那些高度流程化的崗位是最先被人工智能替代的崗位,人工智能的發展,就必須與國家的特定政策緊密結合;國家應當從稅收、勞動保障、就業培訓等角度完善相關法律和政策,以有效化解人工智能發展產業對就業造成的沖擊、社會保障問題。
以人為本的理念與憲法確定的人的基本權利之間具有密切的聯系。之所以要為人工智能設定法律制度,首先是因為人工智能的發展,衍生出了諸多傳統法律制度無法有效調整的法律問題,如果不能夠很好地規制這些問題,就會背離“以人為本”的發展目標。從更開闊的視野來看,人類之所以要規制人工智能,就是為了捍衛生成于工業文明時期的久遠的法律傳統和維護人權的基本價值觀。諸如平等、自由、秩序等基本傳統價值,毫無疑問是規制人工智能的法律所首先必須堅持的。一是因為人工智能法律是整個國家法律體系的組成部分,所以在整體上必須與法律精神保持一致。二是因為人工智能的發展過程中,出現了某些動搖憲法所確認的公民基本權利的傾向,人工智能運用過程中發生的歧視、侵犯隱私等,均背離了憲法確認的價值準則。三是因為借助人工智能技術賦能,公權力的掌控者不斷拓展權力,而這種權力的運行,在技術上難以對其約束;很多時候,數字和人工智能領域的公權力擴張打破了“公權力,法律沒有授權不得行使”的一般準則。強調人工智能發展,遵守憲法和法律,就是為了堅持憲法、法律設定的基本原則,捍衛憲法賦予公民的基本權利。四是因為學者們正在嘗試起草的人工智能法(學者建議稿),雖然也強調了“公平公正原則”“正當使用原則”“知識產權保護”等原則,但似乎對憲法確認的公民基本權利的保護問題很少直接提及,尤其是對通過約束公權力而保障私權利的問題強調較少,沒有很好地將人工智能立法與法律的傳統價值有效對接。人工智能示范法2.0(專家建議稿)存在同樣的問題。
其二,人類主導原則。人類主導原則是從人與機器關系的最終意義上說的。因為人工智能在很多方面代替人進行道德選擇和決策,但智能系統要為人類作決定,不能脫離人類倫理指導。“配備完整倫理標準的人工智能機器將遵循其編程設定行事———它別無選擇”,“在絕大多數時候, 人工智能極有可能會反映其程序員的世界觀和倫理觀,然而這些程序員的信念并不統一”。當人工智能的決定不符合人類需要的時候,人類可以取代人工智能作出決定。人類主導原則還要求,人工智能的設定,還應當尊重國別文化的多元性、尊重個體差異,并采取措施防止“人類對機器人的過度依賴”。
其三,技術中立原則。技術中立原則是設計人工智能法律制度時應遵循的一項前置性原則。技術中立原則要求法律不應限制人工智能與人類競爭,尤其是當人工智能更加高效的時候,“其宗旨是法律不應當歧視人工智能”“人工智能可能更擅長某些領域的創新,倘若法律限制授予這類知識創新知識產權,那么企業可能就不會使用人工智能進行發明創造”;但“人工智能法律中立原則并不是一個決定性的決策原則,而是一種適當的默示原則,只有在具有充分理由的情況下才可以背離該默示原則”。例如,如果在交通事故中對普通駕駛人按照過錯責任進行歸責,而對人工智能汽車采取嚴格責任原則予以歸責并要求車主承擔交通事故責任,那么就背離了技術中立原則,而適用過錯原則可能是妥當的。
2.可信人工智能法律制度構建的內在準則
內在準則主要是法律技術性準則,這些準則大多可通過人工智能的技術設計、改進而得以落實。相對來說,內在準則構成了人工智能法律的操作性準則。
其一,透明原則。人工智能的透明,首先是為了保障公民的知情權,讓人們了解人工智能是如何運作的。透明原則是為了防止人工智能被運用于不法目的或不正當目的,也有助于增強人的自主性,不透明的人工智能難以獲得人的信任。為此,一方面應研發“更具透明度的模型算法,開發可解釋、可理解、可追溯的智能技術”;另一方面,對于達不到可解釋性要求的智能技術的應用,應當“限定算法在審判分析、疾病診斷和智能武器等可能涉及重大利益的應用中的決策權,通過‘人在回路’的系統設計,將最終的決策權掌控在人類手里”。
其二,安全原則。首先應確保網絡安全、數據安全與算法安全。(1)可信意味著必須降低人工智能風險,采用“強制性標準”對風險進行管控,且風險管控措施應符合比例原則,不能向人工智能開發者提出過高的要求(歐盟人工智能法第64部分)。(2)對風險宜進行分類管控或是分級管控。如2024年歐盟發布的人工智能法案將人工智能的風險分為四級,采取不同的限制措施。中國的人工智能法(學者建議稿)則將人工智能分為關鍵領域與一般領域進行管控,對關鍵領域進行重點管控。
其三,公平原則。與公平原則相對立的,往往是歧視和偏見。(1)由于人工智能的“智能”是習得的,所以克服人工智能偏見的重要一環,就在于從人工智能的訓練數據入手預防偏見。核心是,在人工智能的模型訓練中, 排除那些明顯存在或者隱性存在文化偏見、性別歧視或種族歧視的數據集。(2)算法價格歧視是不公平的人工智能算法決策的現實表現之一。2020年復旦大學的一項研究報告顯示,在手機打車過程中,與非蘋果手機用戶相比,使用蘋果手機的用戶更容易被舒適型車輛司機接單,這一比例是非蘋果手機用戶的3倍;手機價格也與此密切相關,“手機價位越高則越有可能被舒適性車輛接走”。算法價格歧視打破了傳統上人們信奉的市場應遵循“童叟無欺”“不同人同價”的市場原則,轉而推行的是“千人千價”規則。顯然,類似的人工智能算法決策,背離了人的基本行為準則,破壞了社會確立的人際交往最為根本的原則———公平原則。 如果不能夠杜絕此類人工智能,那么人工智能的可信賴就無從談起。
其四,隱私保護原則。隱私不僅是一項民事權利,至少從全球視野觀察,隱私在很多國家被看作是一項憲法性權利,被認為“是自由思想和自由企業的重要潤滑劑”。隱私被侵犯,自然人的感知最為直接,顯然,一個無法保護隱私利益的人工智能,是無法被人們接受的。
其五,可問責原則。確保人工智能的部署、使用產生的法律責任是可問責的。問責是對侵權者追責,也是對受害者的救濟。
五、保障人工智能可信發展的具體法律制度
保障人工智能可信發展的具體法律制度,應涵蓋設計、評估與測試等環節,確立AI產品從概念到應用的嚴格規范流程。同時,健全的監督制度可以確保人工智能領域的透明與合規,而完善人工智能的責任制度則可以明確責任歸屬,為AI的可信發展提供堅實的法律保障。
(一)設計、評估與測試制度
其一,設計階段的價值對齊制度。(1)法律應當將價值對齊作為一項基本義務賦予人工智能設計者。人工智能技術在開發之初,設計者就應當將倫理價值嵌入人工智能系統。人工智能所能開展的工作,本質是邏輯推理。但是,人工智能的發展,必須追求道義。將人類的道德價值賦予人工智能似乎是一種可行的思路。當然,讓機器人執行一些可簡單操作的道德準則相對容易,麻煩的是,人工智能經常會面臨道德選擇困境,需要遵循阿西莫夫三大法則,還需要遵循不說謊、不欺騙、不偷盜、不傷害等原則,考慮財產損失、名譽損失、失業等因素,同時還應尊重人類常識和基本價值觀。人工智能能否完成這一自我飛躍,似乎是難以回答的問題。但是,“我們需要經由法律規定,任何以開放的方式與人類互動的人工智能,都必須理解并尊重人類的核心價值觀。例如,現有的針對盜竊和謀殺的禁令,像對人類一樣,同樣適用于人工智能,以及那些對人工智能進行設計、開發和部署的人”。所以,法律應推動人工智能的開發者和部署者在深度人工智能機器中植入人類的價值因子,確保人工既具有邏輯理性,又能尊重人類的常識和價值觀,實現理性和價值的完美結合。(2)人工智能在開發階段就應注意防止偏見和歧視。首先是識別人工智能必須遵守的倫理價值和規范,其次是將這些規范通過程序編碼寫入人工智能系統,最后,為了驗證人工智能是否與特定價值和規范兼容,應當對人工智能的規范和價值的有效性進行評估。如在人工智能的初始設計過程中,就應當將隱私保護嵌入人工智能產品或服務系統,采取主動的、預防性的、全周期的措施保護隱私,且應當將最高的隱私保護標準作為默認設置。在技術上將倫理價值嵌入人工智能的基本方法是,“采用‘如果—那么’(if-then)結構,通過匹配條件部分和執行結論部分來控制推理過程”,如可將“撓癢”的指令設定為“如果癢,則撓癢”的規則,人工智能就會執行該指令。
其二,評估制度。人工智能開發者、提供者在開發、提供人工智能產品和服務前,可自行或委托第三方機構對數據質量、潛在偏見歧視、科技倫理審查情況、公共利益影響、保護措施等內容進行安全風險評估。如歐盟委員會人工智能獨立高級別專家組《用于自評估的可信人工智能評估清單》在構建人工智能的可信自評估體系時,將歐盟憲章、歐洲人權公約及其議定書和歐洲社會憲章作為基本參照,將非歧視、兒童權利保護、個人數據保護、是否尊重言論和信息自由以及/或集會與結社自由等對基本權利的影響作為基本評估內容。評估的另一個對象是數據和信息源。“面向訓練數據,打造訓練數據檢測工具,進行防投毒數據、侵權數據、有害數據的分析判斷,保證使用合法的數據進行訓練,防范與事實不符或有毒的內容注入AI系統。面向生成內容,打造內容生成檢測工具,自動識別并報告通過人工智能技術生成的虛假、有害的內容,確保內容質量,保護知識產權。”此外,對高風險人工智能系統在投放市場或提供服務之前,進行合格性評估。
其三,人工智能的安全測試制度。(1)為了保證安全,一是應建立密碼技術管理制度,“密碼是安全的免疫基因,以密碼為基因的可信計算模型改變了傳統計算機封堵查殺式的被動防御,有效降低了安全風險”。二是可信計算,“核心是指通過在硬件設備上引入可信芯片,從結構上解決計算機體系結構簡化帶來的脆弱性問題。目前,可信計算3.0采用運算和防御并行的雙體系架構,在計算運算的同時進行安全防護,將可信計算技術與訪問控制機制結合,建立計算環境的免疫體系”。三是可信驗證,“主要是對人工智能系統做驗證、仿真、測試,這是一種很重要的智能手段,通過提供系統性訓練和測試的可信保證,從而對成果進行定量形式化驗證”。(2)設立沙盒監管制度,強化安全測試和安全風險監管。沙盒監管應在國家人工智能發展主管部門的監督下進行,目的是為了測試并及時發現人工智能存在的重大安全風險,防止人工智能的開發給社會造成重大損害。人工智能開發者、提供者負有安全保障義務,應定期檢查和監測人工智能的漏洞和安全風險,對于重大安全事件或重大安全事件風險,應立即采取處置措施并報告主管部門。(3)人工智能提供者對人工智能生成內容的標示制度。人工智能生成物提供者應管控生成式人工智能生成內容的真實性,因為“深度合成展現了其強大的能量和可能性,但其帶來效率和便利的同時,也帶來了伴生風險,一旦被濫用可能會給個人肖像、企業名譽等人格和財產權益損害,甚至對社會秩序、國家政治穩定和安全造成巨大威脅”。由于人們很難將生成式人工智能的生成內容與人類生成內容區別開來,這些生成內容“引發了大規模的誤導和操縱、欺詐、冒名頂替和欺騙消費者等新風險”,為了實現對生成內容的可追蹤性,應當采用“水印、元數據識別、證明內容出處和真實性的加密方法、日志記錄方法、指紋或其他適當的技術”或技術組合對人工智能生成內容進行標記,以便機器能夠將生成內容檢測出來(歐盟人工智能法第133條)。人工智能的生產者對人工智能生成信息應添加隱式標識,建立信息溯源機制,確保標識的可追溯和安全。
(二)建立針對人工智能領域的監督制度
雖然法律應盡量不對人工智能的發展進行干預,但是,高危人工智能應受到法律規制。國家應當設立人工智能發展委員會,從宏觀層面指導和監管國家的人工智能產業發展。針對人工智能的監管應當涵蓋人工智能開發的事前、事中和事后全鏈條,系統監控人工智能事故,矯正人工智能發展中的問題。(1)采用“憲法性AI”的思路,用人工智能監督人工智能,用“一個從屬的AI模型評估主模型的輸出是否遵循了特定的‘憲法性’原則(即原則或規則清單),評估結果被用于優化主模型”。目的在于推進價值對齊,將對可信人工智能影響最大的法律原則,落實在人工智能發展技術中。雖然人工智能監督人工智能是高效的,但考慮到人工智能法律監督僅處在初期,故設置針對人工智能法律監督的人類標注員依然是必要的、重要的。(2)分級監督制度。針對人工智能決策,針對性地建立一級監督制度或二級監督制度。一級監督制度針對部分自動化決策,即把人工智能決策作為專業人員決策的支持理由,如在醫療領域人工智能為人類提出的診斷預測和治療建議,刑事司法中人工智能對被告所作的風險評估,這些決策最終由人類來選擇;此等情形下,人工智能決策是人類決策的組成部分。二級監督針對的是完全自動化決策,即在人工智能作出決定后,人類對智能化作出的決策進行監督和糾正。總之,“一級監督在決策過程中具有構成性作用,而二級監督對一級監督進行檢查和控制”。此外,還應對技術發展帶來的權利侵蝕問題保持謹慎,對人工智能技術發展伴生或者引發的風險和問題強化監管。如,針對“能夠設計并制造其他機器人的機器人,就應在極度審慎和密切的監督下完成設計”。(3)隱私保護監督制度。人工智能應能夠維護隱私,不對人的主體性地位構成侵擾。故規制人工智能的法律, 必須傳承和堅守民法規定的自然人的隱私權和個人信息保護法規定的個人信息權。(4)權力制約監督制度。數字和人工智能時代的權力制約,具有兩個維度,其一是對傳統意義上的國家公權力機關的權力制約;其二是對掌握數字資源和人工智能技術的平臺等“社會權力”的制約。如美國舊金山政府在修訂后的《停止秘密監視條例》中強調:“人臉識別侵害公民權利和公民自由的可能性大大超過了其聲稱的好處;這項技術將加劇種族不公正,并且威脅到我們的生活不受政府持續監視的權利。”歐盟人工智能法第31條就有禁止公權力機關運用人工智能技術對人進行社會評分的條款。這些規定,體現了立法者對人工智能技術使用中的審慎態度,其本質就是對國家等公權力制約這一傳統法治原則的堅守。算法決策(自動化決策)系統的出現,意味著我們將部分生活決策交給了機器決策系統,甚至私人公司濫用個人數據、公權力機關濫用智能技術推動大數據監控等。因而,人工智能技術發展中,既要注重對國家等主體的權力制約,也要注重對平臺等社會主體掌握的數據權力、人工智能技術的運用權力進行制約。
(三)完善人工智能的責任制度
其一,人工智能的使用者為了安全、放心,當然期望人工智能的開發或銷售企業能夠承擔起全部責任。人工智能系統的設計者、開發者有義務保障系統的安全性、可靠性,“如果生產商或者程序員未遵守公認的學術標準,那么他們應該為人工智能系統導致的損害承擔道德責任”。人工智能的設計者應當承擔更多的責任,一是角色責任,設計者需要對人工智能的安全性、可靠性負責,并提供相應的解釋和說明;二是前瞻性責任,即設計者應當主動地考慮人工智能發展對用戶和社會的影響;三是回溯性責任,即“人工智能系統在生產調試和投放市場之后,出現了錯誤或產生了負面影響之后應該承擔的責任”。其中,回溯性責任應當是法律責任重點考量的問題,這種責任主要建立的是一種侵權責任或產品責任。對人工智能侵權責任的歸責,“可在一定程度上參考謝勒(Matthew.U.7Scherer)等提出的雙分支侵權體系,并在其基礎上進行擴展,對于獲得委員會認證或符合推薦性標準的產品,則在判斷產品提供者是否侵權時適用過錯責任原則;對于未獲得認證或不符合推薦性標準的產品,則在判斷產品提供者是否侵權時,適用嚴格責任原則”。
其二,在法律責任設定上,“應輔以問責框架,包括免責聲明以及審查和補救機制等,以確保在開發、部署和使用之前和之后對人工智能系統及其結果負責和問責”。當然,法律責任的設定也存在一個政策選擇的問題,如同樣是針對自動駕駛,歐盟的主張是先制定規則,借規則引領技術發展,而美國的思路是發生問題后再思考規則;很明顯,責任歸屬和法律規則的嚴格化,很容易導致不遵守規則就無法進入市場的局面,易形成非關稅壁壘,阻礙新企業進入特定行業。在進行民事責任追究時,考慮到人工智能的用戶與算法等人工智能運營者信息與資源不對稱的現狀,立法可設立集體訴訟制度,保護人工智能用戶的權利。
其三,刑法應增設相關責任條款,將對非法訪問AI或從事黑客攻擊的嚴重行為或讓人工智能運行實行犯罪的惡意軟件行為納入刑法調整范圍,賦予相應的刑事責任。
結語
發展可信人工智能,是國際社會的基本共識。影響人工智能發展的因素有很多,信任是其中的關鍵因素之一。人工智能的發展,應建立在可信基礎上。可信人工智能治理進程中的法律制度的構建,應以技術路徑為基礎,融合倫理準則,溝通人工智能發展的外在準則和內在準則,捍衛現代法治傳統,保障憲法確認的公民的基本權利;同時,應當處理好人工智能發展中國際性與地方性、市場邏輯和治理邏輯、監管的包容與審慎、權力制約與權利保護、道義與理性等關系。