
上海交通大學(xué)馬克思主義學(xué)院副教授,上海交通大學(xué)數(shù)字化未來與價值研究中心研究員,哲學(xué)博士、法學(xué)博士后,耶魯大學(xué)全球正義研究中心高級訪問學(xué)者。
2024年8月,歐盟《人工智能法案》(AI Act)正式生效,成為當(dāng)前第一部旨在促進人工智能安全發(fā)展的區(qū)域性法律文件。該法案的實施促使多個國家和地區(qū)探討制定適合各自國情和地區(qū)特色的人工智能法律或具有強制性的規(guī)范性措施。
在人工智能治理的討論中,責(zé)任問題一直是核心議題,同時也是治理過程中面臨的主要挑戰(zhàn)。歐盟委員會在制定《人工智能法案》的過程中,考慮到人工智能技術(shù)的復(fù)雜性,提出《人工智能責(zé)任指令》的構(gòu)想。這一指令構(gòu)想旨在解決人工智能系統(tǒng)在造成損害時如何判定民事責(zé)任的問題,力圖減輕受害者在訴訟過程中的舉證責(zé)任。顯然歐盟《人工智能法案》的實施以及《人工智能責(zé)任指令》的提出,標(biāo)志著人工智能治理在責(zé)任問題上的重要進展,為人工智能技術(shù)的安全發(fā)展提供了法律保障。同時,這一法案和指令的制定也體現(xiàn)了人工智能治理的復(fù)雜性,以及需要多學(xué)科、跨領(lǐng)域的合作與研究來解決的責(zé)任問題。
隨著人工智能技術(shù)的飛速發(fā)展,人工智能技術(shù)已經(jīng)全方位介入到人類社會生活各個層面,成為社會發(fā)展的一個重要因素。隨著智能體涌現(xiàn)性和自主性不斷增強,對人工智能的社會地位、人機關(guān)系、倫理與法律產(chǎn)生巨大的影響。技術(shù)哲學(xué)家漢斯·約納斯很早就意識到不受控制和約束的現(xiàn)代技術(shù)帶給人類文明發(fā)展的同時,也會給社會帶來難以估量的危害。他在《責(zé)任原理》一書中著重強調(diào)在推進技術(shù)發(fā)展的同時,需要對技術(shù)行為后果的責(zé)任問題進行深入的探討。
相較于其他現(xiàn)代技術(shù),人工智能技術(shù)發(fā)展中的責(zé)任難題具體體現(xiàn)在:(1)責(zé)任鴻溝問題。技術(shù)哲學(xué)家馬蒂阿斯指出:基于神經(jīng)網(wǎng)絡(luò)、基因算法、能動設(shè)計的自主學(xué)習(xí)機器的研發(fā),人工智能的制造者、操作者原則上不再能夠預(yù)測未來人工智能的涌現(xiàn)行為,因而也不能為其擔(dān)負全部的責(zé)任。(2)責(zé)任分散問題(也被稱為“多手問題”)。在傳統(tǒng)的責(zé)任理論中,代理行為與其所承擔(dān)的責(zé)任是密切相關(guān)的。但在復(fù)雜的AI系統(tǒng)中,技術(shù)組件可能由不同的團隊或公司開發(fā),每個組件的問題都可能導(dǎo)致整體系統(tǒng)故障,當(dāng)出現(xiàn)錯誤、事故或倫理問題時,責(zé)任歸屬難以確定。“多手問題”模糊了人工智能技術(shù)中的行為主體與行為結(jié)果之間的因果關(guān)系,導(dǎo)致責(zé)任主體的模糊化、分散化。(3)責(zé)任空場問題。在復(fù)雜的AI系統(tǒng)中,涉及多個利益相關(guān)者,每個利益相關(guān)者都有可能對系統(tǒng)的行為和結(jié)果產(chǎn)生影響。人工智能系統(tǒng)的復(fù)雜性和自主性使得責(zé)任歸屬變得模糊,責(zé)任歸屬的不明確、責(zé)任承擔(dān)者缺失,且現(xiàn)有的法律和倫理規(guī)范無法完全覆蓋人工智能系統(tǒng)可能造成的損害時,責(zé)任空場現(xiàn)象就容易出現(xiàn)。(4)責(zé)任推脫問題。當(dāng)人工智能系統(tǒng)的涌現(xiàn)性和復(fù)雜性不可解釋,責(zé)任歸屬難以確定時,不同利益相關(guān)者對人工智能責(zé)任歸屬就會產(chǎn)生較大的分歧,也會成為責(zé)任推脫的理由。
雖然人工智能體在責(zé)任問題上有很多難題,但越來越多的國家和人工智能企業(yè)意識到責(zé)任的重要性,將“負責(zé)任創(chuàng)新”作為人工智能有序發(fā)展的重要倫理原則。2019年,中國國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責(zé)任的人工智能》,提出“和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理”的人工智能治理原則、框架和行動指南。2022年6月,美國發(fā)布《“負責(zé)任的人工智能”(RAI)戰(zhàn)略與實施路徑》文件,從“治理、信任、開發(fā)、驗證、AI生態(tài)系統(tǒng)、勞動力”等多個方面對未來人工智能發(fā)展進行規(guī)劃、部署和監(jiān)管。2024年3月,聯(lián)合國193個國家通過的首個全球AI倫理協(xié)議,倡導(dǎo)各國開展負責(zé)任的AI技術(shù)開發(fā)和部署。2024年5月新加坡發(fā)布《生成式人工智能模型治理框架》,將“問責(zé)制”作為培育構(gòu)建可信AI生態(tài)系統(tǒng)的首要原則。2024年5月,經(jīng)濟合作與發(fā)展組織(OECD)制定和更新人工智能發(fā)展原則,旨在促進技術(shù)創(chuàng)新的同時,確保AI的發(fā)展符合倫理標(biāo)準(zhǔn)和社會責(zé)任。
在人工智能未來的發(fā)展中,負責(zé)任創(chuàng)新是主要議題。要將負責(zé)任創(chuàng)新實施落地,在學(xué)理上不能回避技術(shù)發(fā)展的“科林格里奇困境”。大衛(wèi)·科林格里奇認(rèn)為技術(shù)發(fā)展與社會發(fā)展之間容易出現(xiàn)不協(xié)調(diào):“技術(shù)的社會后果是很難在技術(shù)發(fā)展的早期做出準(zhǔn)確預(yù)測的。”因為“當(dāng)技術(shù)的改變相對容易時,其影響卻是難以完全預(yù)見的;而當(dāng)對技術(shù)需要變動的要求變得強烈時,這種改變卻已經(jīng)變得非常昂貴、困難和費時了”。“科林格里奇困境”很好地描述了新技術(shù)在社會融合整個過程中的關(guān)鍵問題,即人們對新技術(shù)介入社會的影響和后果的評估難以準(zhǔn)確,而且新技術(shù)潛在的社會屬性和邏輯可塑性在尚未與社會緊密融合之時是無法充分展現(xiàn)的。如何突破這一困境?科林格里奇建議從分析和引導(dǎo)科學(xué)與技術(shù)發(fā)展的目標(biāo)、計劃和動機等問題入手,寄希望于提高對社會技術(shù)評估與預(yù)測的能力。馬克·科克倫伯格指出要從責(zé)任的條件入手,提升人在技術(shù)發(fā)展過程中負責(zé)的認(rèn)知條件和控制條件。人工系統(tǒng)越智能,對其行為的責(zé)任要求就越高。
“負責(zé)任的人工智能”重點強調(diào)人作為技術(shù)發(fā)展的責(zé)任主體,無論是人工智能的開發(fā)、設(shè)計、測試還是使用都需要考慮人類的責(zé)任和義務(wù),并且確保機器智能(AI的軟件、硬件)在特定使用環(huán)境下的行為是符合人類倫理和法律規(guī)范的。“負責(zé)任的人工智能”是一個人、機、環(huán)境有機統(tǒng)一的智能生態(tài)系統(tǒng),要求人工智能系統(tǒng)在設(shè)計、開發(fā)、管理、使用和維護過程中,所有相關(guān)的角色(包括設(shè)計者、開發(fā)者、管理者、使用者、維護者等)承擔(dān)其行為的倫理、法律和社會責(zé)任,形成社會技術(shù)系統(tǒng)的責(zé)任體系。
人工智能對整個社會體系的顛覆性影響,也意味著人工智能技術(shù)中責(zé)任體系的構(gòu)建是復(fù)雜的。漢斯·約納斯認(rèn)為:在“倫理真空”的技術(shù)時代,越是復(fù)雜的技術(shù),越凸顯人類責(zé)任的重要性。這種責(zé)任不單是單個人的責(zé)任,還有整個團隊的集體責(zé)任;不單是當(dāng)下的責(zé)任,還有對未來社會的前瞻性責(zé)任;不單是某一行業(yè)、某一領(lǐng)域的責(zé)任,還有整個社會技術(shù)生態(tài)鏈的集體責(zé)任。人工智能技術(shù)——作為復(fù)雜技術(shù)的典范,其責(zé)任歸屬涉及源點到節(jié)點、再到分布式圖景中的一整套社會技術(shù)生態(tài)責(zé)任體系。
在負責(zé)任的人工智能的社會技術(shù)生態(tài)責(zé)任體系中,“元責(zé)任”(meta-responsibility)構(gòu)成了責(zé)任體系的核心要素,其概念的深度和廣度均超越了傳統(tǒng)的責(zé)任范疇。Meta在希臘語中意味著“超越”“在……之后”或“變化”。這一概念在信息科學(xué)中也常被使用,例如:“元數(shù)據(jù)”“元信息”“元語言”。在人工智能領(lǐng)域,“元責(zé)任”不僅涵蓋了人工智能整體發(fā)展方向、倫理框架及責(zé)任歸屬的根本性責(zé)任,而且還深入涉及人工智能系統(tǒng)從設(shè)計、開發(fā)、部署、使用到監(jiān)管的全過程責(zé)任考量。以“元責(zé)任”為起點的人工智能責(zé)任體系的構(gòu)建以現(xiàn)有的人工智能倫理原則為基礎(chǔ),與當(dāng)前的法律體系相兼容,構(gòu)建全面和有效的責(zé)任機制。在人工智能系統(tǒng)的早期規(guī)劃與設(shè)計階段,引入元責(zé)任考量,確保系統(tǒng)的設(shè)計與開發(fā)符合倫理和法律要求。在人工智能系統(tǒng)的運行過程中,適用元責(zé)任的評估要求,建立持續(xù)的監(jiān)控機制,及時發(fā)現(xiàn)和解決潛在的問題。在發(fā)生意外或損害時,依據(jù)元責(zé)任框架進行問責(zé),并總結(jié)經(jīng)驗教訓(xùn),用于指導(dǎo)未來的系統(tǒng)改進和優(yōu)化。
“元責(zé)任”是一個很重要的人工智能責(zé)任體系構(gòu)建視角,是構(gòu)建“負責(zé)任”人工智能的基石。總的來說,對人工智能的責(zé)任問題不應(yīng)糾結(jié)于人是否為有限主體,而是需要研究如何以元責(zé)任為起點,推動人工智能責(zé)任體系的構(gòu)建,以確保人工智能的發(fā)展以“負責(zé)任”的方式造福于人類社會。
(本文系2023年度教育部社會科學(xué)研究重大課題攻關(guān)項目招標(biāo)課題《數(shù)字化未來與數(shù)據(jù)倫理的哲學(xué)基礎(chǔ)研究》[項目號23JZD005]的階段性成果)
編輯:薛華 icexue0321@163.com