[摘 要] 人工智能可以作出不同的選擇或不作出選擇是對其行為進行歸責的前提。人類社會基礎價值在人工智能選擇行為歸責中具有重要意義,而實踐需要則為人工智能成為歸責主體提供了現實根基。“預測”將人工智能選擇行為歸責的實踐意義規定在保護固有的人類社會基礎價值、防止將預測變成決定、避免人工智能掌握預測結果選擇操縱權三個維度。對人工智能選擇行為進行歸責應當遵循從價值到實踐的邏輯,既要基于選擇的價值性確立無意識代入的歸責方式,又要將實踐中的限制性規范向價值回歸以建構具有針對性的歸責措施。
[關鍵詞] 人工智能;選擇行為;歸責;價值;預測
[中圖分類號]" N02;B82"" [文獻標識碼] A"" [文章編號] 1008-1763(2025)01-0106-09
Research on the Imputation of Artificial
Intelligence’s Choice Behavior
WANG Shao
(School of Marxism, Tongji University, Shanghai 200092,China)
Abstract:Artificial Intelligence can make different choices or does not make choices, it" is the premise of imputation of its behavior. The basic value of human society has new significance in the imputation of AI choice behavior, and the need for practice provides a realistic foundation for Artificial Intelligence to become the subject of imputation. “Prediction” stipulates the practical value of Artificial Intelligence choice behavior imputation in three dimensions: protecting the inherent human basic value, preventing prediction from becoming a decision, and avoiding artificial intelligence from controlling the selection and manipulation of proediction results. The imputation of choice behavior for Artificial Intelligence should follow the logic of value to practice. It is necessary to establish an unconscious imputation method based on the value of choice, and to regress restrictive norms in practice to value in order to construct targeted imputation measures.
Key words: Artificial Intelligence; choice behavior; imputation; value; forecast
人工智能(AI)“涵蓋旨在解決傳統上分配給人類智能問題的任何技術”[1]。因此,從人類智能角度認識人工智能自然而然。在趨利避害本能驅使下,能夠作出對自己有利的選擇是人類智能的基本表現,在勞動推動下,人與人、人與社會的關系賦予了選擇行為更加重要的智能價值,選擇多了對于個人就成了習慣,對于社會就成了規范,人類社會越發達,選擇行為的智能性就越明顯。鑒于智能技術擬人化的本質屬性,“選擇”是人工智能繞不開的話題。本文的研究起點是:人工智能面對不同的問題能作出不同的選擇,或者不作出選擇,并且這種選與不選的行為一定程度上由人工智能本身決定,那么人工智能就應當對其選擇行為負責。當前,國內關于人工智能歸責的研究呈現兩條進路,一條從法學角度分析歸責何以可能、怎樣進行,一條從倫理學角度分析人工智能道德責任為何重要、如何承擔;國外的研究則側重于從可解釋性、可理解性角度,討論人工智能歸責途徑。國內外學界均未特別關注人工智能選擇行為歸責問題。
習近平指出,“要加強人工智能發展的風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控”[2]。如果我國制造的人工智能需要維護人民利益和國家安全,那么就必須加強人工智能倫理治理,而歸責是倫理治理的終點。廣義上的歸責既包括道德責任的歸結,也包括法律責任的歸結,其基本內涵是行動者的行為不符合某種既定社會規范,因而需要在綜合考慮行為的動因、表現、結果和社會危害性等因素的基礎上對行動者的責任進行確定、劃分和追究。“有一類不同于人類的人工自為者即所謂人工一般智能(AGI)可能會在未來某個時刻出現。”[3]在這一理念下,本文雖然主要探討當前人工智能選擇行為歸責問題,但也會穿插論述未來AGI選擇行為歸責問題。
一 人工智能選擇行為歸責的價值基礎
“無論何時,只要我們的選擇(或意圖)導致了所選擇(所意圖)的行動,我們就都是自由的。無論何時,只要我們的選擇因為我們做出了這些選擇而產生了我們想要的結果,我們就都擁有責任所需要的力量,即能力和自由意志。”[4]人們對選擇行為的直觀感受體現為一種自由,這意味著選擇不是被強制的,也不是人所無法左右的必然規律,否則責任就不能落到選擇者身上。因此,當我們談論人工智能選擇行為歸責的價值基礎時,自由和自由意志必定是話題的中心。我們追問人工智能對其選擇行為是否負有責任,以及如何承擔責任,其實是在將責任所對應的正義和平等代入人工智能,如果人工智能是自主的,那么它的任何選擇行為都可能承載正義和平等,正義和平等當然應該納入人工智能選擇行為歸責的價值基礎中進行討論。
(一)自由和自由意志
不可否認的是,我們是在以類人的方式制造人工智能,與此相應,目前所有人工智能價值層面的研究也一樣是以人的理解去賦予人工智能某些基本價值。在這些價值中,首先受到關注的是自由,特別是自由意志。“說一個人有自由意志就是說當他處于時間之路的岔道口時,至少可以選擇不止一條分岔路。”[5]69-70顯然,選擇是自由意志的定在,不會選擇(受制于主觀)或不能選擇(受制于客觀)的個體不具有或無法實現自由意志。選擇的能力和可能性均與選項相關。通常來說,選項總是存在的,這是自由的前提。但對于人工智能而言,選項需要預先設定,也即我們必須為人工智能設計多個在一種或多種算法支撐下的不同子程序,這些程序面對需要解決的問題有不同的解決方式并可能產生不同后果。相比于人的自由,人工智能選擇行為在以下兩個層面仍存在難以逾越的鴻溝。
首先是多樣性。多樣性是人類借以在無處不在的矛盾中自由推動社會發展的重要質素。人工智能的程序化特征與多樣性天然背離,無論在何種算法驅動下,只要面臨的沖突是相似的,不同程序所設計的選擇通常會在概率上趨于一致,這導致人工智能選擇行為具有規定性特征,因此我們很難說這種選擇代表了自由。其次是自由感。從直覺出發,自由一定是需要被感知到的,也即對自由本身的確信把握構成了一種自由感。人工智能是否具備這種感知能力?僅就目前來說,答案是否定的。盡管如此,我們仍然需要在自由意志基礎上討論人工智能歸責問題,因為當我們討論如何歸責時,隱含的一個前提是主體具有自由意志,這樣其才能為自身選擇行為負責;如果主體不具備自由意志,那么其選擇行為無法歸責。這指向自由意志遭受近現代科學的一系列質疑后仍屹立不倒的終極理由:自由意志是道德責任和法律責任存在的主要基礎。我們可以假設人類必然具有自由意志,我們也可以假設人工智能終會擁有自由意志,否則所有由人工智能引發的責任都只能歸于人類,這顯然會阻滯人工智能科技發展。
自由意志“關系到一系列關于對與錯、罪與罰、強迫與控制的爭論”[6]序言1,具有很強的現實性,但自由意志不是對選擇行為歸責的唯一基礎,即使在自由概念下,選擇行為的歸責也能找到自由意志之外的其他依據。人們所追求的自由廣泛地存在于經濟生活、政治生活、社會生活、文化生活中。從經濟生活來看,人工智能一定程度上解放了勞動者,并且因為人工智能極大地提高了工作效率和準確性,勞動者確實獲得了更多的自由時間。但這種自由是新的自由還是新的束縛,卻需要進一步分析。“一個人對于人類自由理念的投入,其真正核心在于他對自身的態度以及關于自身的經驗。”[7]105人工智能所帶來的自由可能是一種背離勞動者對自身的態度和經驗的新的束縛。人工智能在取代人工的同時,并沒有解決人如何在擁有更多自由時間后仍然可以持續獲得自身生存和生活資源的問題,致使被增加的自由變成了一種形式上的假自由和實質上的真不自由。如果我們立足自由這一人類社會的重要價值去分析人工智能選擇行為歸責問題,那么必須基于兩個維度進行判斷,一是自由意志,二是真實自由,從現實角度看,兩者并不總是一致的。
如上所述,當前的人工智能選擇行為不具有真正的多樣性,人工智能也沒有真實的自由感,因而是不自由的。由于自由意志是歸責的主要基礎,在假設人類具有自由意志的前提下,仿人類智能的人工智能也可以被假設終會存在自由意志。但兩種假設并不相同,對人類的假設具有現實性,對人工智能的假設則具有理想性。自由和自由意志決定責任能否存在,因此它們是人工智能選擇行為歸責的重要價值基礎,但由于當前的人工智能不存在真正的自由和自由意志,且可能會對人的真實自由造成損害,對人工智能選擇行為進行歸責不能簡單固守從自由和自由意志出發的邏輯。
(二)正義和平等
首先看正義。經常被學者用來討論選擇行為的電車難題是正義領域的典型思想案例。最初的電車難題對象是完全剝離身份和年齡的抽象人,經過果戈爾)[8]、伯格曼[9]等人的發展,抽象人假設發展成更加具體的道德兩難問題。當面對年輕人(兒童)和老人這兩類潛在受害者時,大多數人會選擇將電車駛向年齡大的,而當潛在受害者變成自己和他人時,個體犧牲式選擇的比例會隨著他人數量的增加而增加。與人不同,人工智能在作出選擇行為時只能依據已有的沖突子程序進行判斷。正義不能漠視人們的實際生活[10]18,以實際生活為依據是人工智能進行正義選擇的前提,但實際生活不可能被算法和程序窮盡。對于人類而言,選擇和實際生活中的行為可以分離,盡管很多人在犧牲兩難實驗中選擇犧牲自己以拯救多數人,但當他們被問及購買自我犧牲式自動駕駛車輛的意愿時,在0-100的意向區間中,中位數僅為19[11],大多數人可能更傾向于購買犧牲他人保護自己的自動駕駛車輛。這種“說一套做一套”模式在人類實際生活中并不罕見。未來的AGI是否也能學會這一套?在出廠測試時每次均作出犧牲選擇,而在現實中更傾向于保護自己?因此,正義在人工智能選擇行為中既可能被貫徹也可能被遮蔽,與之對應的歸責問題也應做好兩手準備。
再來看平等。如ChatGPT等能夠生成更科學、更智能內容的生成式人工智能出現后,人工智能法律人格問題變得愈發重要。一旦人工智能擁有法律人格,那么擺在人們面前的第一個問題就是人工智能是否享有和人類同等的法律權利,而這實質是平等問題。當人工智能深度融入人類生活后,它是否有選擇權利,它的選擇權利和人類的選擇權利是否在法律面前一律平等就成為必須解決的問題。目前,關于這些問題的討論均是一種事后補救式分析,當使用人工智能發生了權利沖突,人們才開始考慮人工智能的法律人格和選擇權利,很多人傾向于將不利于人的后果歸咎于人工智能選擇行為,而將有利于人的結果歸因于人類的控制。所以,人類是不是以一種比人工智能更高等級生物的身份自居并希望人工智能承擔一切它所參與事件中的責任,而利益卻由人來攫取?也許我們對人工智能的一切討論都涉嫌推卸責任,而不僅僅是出于對AGI的恐懼。如果拋開平等來討論人工智能選擇行為歸責問題,那么我們只是希望人工智能擁有責任承擔的自由意志,卻沒有爭取平等對待的自由意志,這兩種自由意志在人身上無法割裂,甚至沒有先后順序,而在人工智能那里卻被期望只有其一,沒有其二。
自由、平等、正義等價值通常都要靠秩序保障,秩序在維護社會的特定目標、價值觀和美德中推動社會實踐向前發展。一個有秩序的社會必然會尊重社會中不同主體在目標驅動下的合乎社會價值的行為。當人工智能進入人類社會后,人們的第一反應是確保人工智能對人類生活和工作產生有益影響,以保障已經成型的人類社會秩序不被干擾。當我們開始思考人工智能選擇行為歸責問題時,就必須分析人工智能的選擇及其責任對秩序造成什么沖擊,以及現有的維持秩序的限制性規范能否應對人工智能選擇行為歸責問題。
綜上,正義和平等是人工智能選擇行為歸責的重要價值基礎,但正義可能被人工智能遮蔽,所以不能指望人工智能選擇行為都符合正義,而人工智能能否獲得與人類平等的法律人格和選擇權利是人工智能對其不正義選擇行為負責的必要條件。如果要使人工智能和人類一樣平等地對不正義選擇行為承擔責任,則應在維持秩序的限制性規范中賦予人工智能被平等對待的權利。
二 人工智能選擇行為歸責的實踐需要
本部分將從人類歸責行為的歷史發展展開論述,一個貫穿其中的思想是歸責從來不僅來自于理論,而更多地來自于實踐,實踐需要使歸責落地生根。
(一)人工智能成為歸責主體的實踐需要
最初的歸責具有強烈的自然主義色彩和宗教態度,包括無生命的物體都要承擔責任,比如用石頭、鐵片等攻擊人致其死亡后,石頭和鐵片也要受審[12];動物也是常見的責任主體,比如1314年,一頭公牛因襲擊并使一名男子致死而被判處絞刑,1389年,一匹馬因殺人罪被處決[13]。隨著人類認知的不斷發展,理性和自由意志成為歸責的基本前提,無生命物體和動物被排除到刑事責任主體之外。近代以來,法律必須對“道德、政治理論、公共政策和社會現象”[14]作出及時回應的理念深入人心,當法人這一法律擬制概念出現后,實踐需要使不具備自由意志的法人獲得了責任主體資格,盡管該資格的獲得建立在代理人制度(agent system)和雇主責任原則(principle of employer’s liability)基礎上,但最根本的原因仍然是實踐需要。法人成為責任主體是歸責理論的超越性發展,這不僅證明了歸責的實踐性,也對自由意志等歸責價值基礎產生一定沖擊。這似乎表明,當前的人工智能選擇行為背后的自由意志缺失問題并不是阻礙人工智能成為責任主體的理由。所以,問題的疆域拓展到人工智能是否也可以納入法律擬制的框架中。
當無人駕駛成為一項越來越普遍的技術行為后,人工智能可否納入法律擬制框架的問題被提上議程。在學理上討論無人駕駛這一典型人工智能科技歸責問題不僅是防患未然,也是對歸責理論的再反思。第一個需要討論的議題是選擇的他方依賴性。當無人駕駛汽車解放人的雙手甚至大腦后,人們會在駕車時更多地將選擇權交給人工智能,這便使人工智能選擇行為具有了代理性質,從而使人工智能歸責與法人歸責產生相似性。法人基于代理而需要對選擇行為承擔民事上的財產賠付責任或刑事上的罰金責任,人工智能是否也應將自身賠付或被罰沒以完成責任承擔?第二個議題是選擇的物質依戀性。當人們開始放棄讓石頭和鐵片承擔責任時,無生命物體對自身物質形態的無感無論如何都是一個原因,而人類對于自身身體、財產的依戀和重視是人身罰、財產罰成為責任承擔主要方式的一個重要理由。那么,無人駕駛系統對于自身物質形態是否也有依戀性?如果沒有,銷毀或轉移這些物質形態對于人工智能承擔責任又有何意義?第三個議題是算法所決定的選擇行為的歸屬。算法作為無人駕駛的內核具有不可替代的價值,但算法特定的計算邏輯和選擇規則卻是事先設定的,在發生駕駛事故后,人們自然會把目光回溯到算法設計者——這讓無人駕駛系統的選擇行為及其對應的歸責變得模糊。最后一個議題是人工智能的分類與選擇行為的關聯性。人類作為責任主體時,職業、年齡、能否辨認自己的行為等都能成為分類依據,不同的人由此承擔不同的責任,而無人駕駛系統作為責任主體如何分類?是根據車型(應用領域),還是根據算法技術,或是根據其選擇行為與人的命令之間的關系?
將上述四個議題從無人駕駛推向一般的人工智能科技,就產生了代理、生命、獨立性和分類四個關鍵詞,這些關鍵詞均以實踐需要為導向。代理自不必說,人工智能生命體的認定也只能是實踐發展的需求,畢竟倫理絕不允許人類將人工智能制造成和人一樣的碳基生物。所以,生命問題最大的挑戰來自于實踐中的腦起搏器和人工耳蝸等智能義體。離不開智能義體而生活的人類仍然是人類,享有人類生命,但如果其選擇行為受到體內人工智能義體的影響,那么歸責必然會同時指向這些附屬于人類生命的人工智能,人工智能的物質依戀問題部分地轉移到人的生命中。獨立性與人工智能的實踐發展緊密相關,人工智能完全擺脫人類控制、自發生產出新的人工智能、自主選擇社會職業不是不可能,但尚遙遠。在此之前,我們應當關注的是,在技術實踐中,人工智能選擇行為是否可以完全或大部分歸于自身的學習而不是算法的預先設定、歸于自身的主動行動而不是人類的指令。至少到目前為止,人工智能年齡沒有意義,雖然人工智能應用于不同實踐領域確實會導致不同后果,但這種實踐應用基本是人為的,人工智能并沒有選擇應用方向的自由。這與人類不同,人在獲取某種分工身份(比如國家工作人員、公司法定代表人)時默認是自由的,自由取得的身份對應不同的責任承擔,而人工智能的職業身份卻是由人賦予的。
因此,從實踐需要角度看,讓無人駕駛系統等人工智能承擔責任符合代理制度的要求,而在一定程度上“共享”人類生命的人工智能義體也部分地符合物質依戀的要求。人工智能尚不具備真正的獨立性,至于責任主體分類問題,在自由性缺位的情況下,也無法在當前的人工智能選擇行為歸責中深入探討,這兩個問題可能只存在于對AGI的歸責中。
(二)人工智能選擇行為歸責的實踐意義
由于人工智能已大量進入人類實踐場域,實踐確實產生了對人工智能選擇行為歸責的需求,但我們仍然要論證歸責的實踐意義,否則就會陷入工具主義思維中。如果人工智能選擇行為不能勝過人類選擇行為,我們一般沒有理由讓人工智能進行選擇,其選擇行為及歸責對實踐的意義就很小。在AGI未出現之前,人工智能選擇行為超越人類選擇行為的主要表現是預測的精準性。預測對于選擇的意義體現為預測結果對選擇行為的引導價值,如果能夠比較精確地預測結果,那么主體就能作出更合理的選擇。作為責任最重要依據之一的自由意志在現代科學中受到的最大阻擊便來自預測——如果人的行為都可以預測,那么所謂的自由意志可能就真的只是人的美好想象。里貝特1985年的經典研究得出了“一個自發自愿的行為在大腦中的啟動最初是無意識的”[15]結論。該結論對自由意志理論產生強烈沖擊,但并沒有撼動多數學者對自由意志的信心,這種信心既源于該研究及其后的類似研究均缺乏證否自由意志的強力證據,更源于自由意志對人類行為及其責任承擔的巨大價值。作為矛盾的智慧體,人類一方面宣揚有意識的自由意志,一方面又渴望能夠精準預測行為發生,人工智能等許多科技從誕生之日起就承載了這個渴求。不容忽視的是,大多數普通人同意預測很難做到——不僅他人不可能看透我們的內心,無法預測我們的行為,有時候,在行為顯露出來的最后一刻之前,我們自己都不能將預測和行為一致化。這一點也曾被實驗證明:“甚至當一個動作啟動后,都有可能改變和取消那個已經展開的動作。”[16]因此,人類在預測方面的“缺陷”是自由意志和選擇行為,乃至歸責在實踐中不能被隨意放棄的重要原因,分析人工智能選擇行為歸責的實踐意義可以也應當從預測出發。
大數據為預測帶來新變革。“大數據預測的準確性越來越高,它能夠預測行為的發生。”[17]242在大數據技術加持下,人工智能的預測能力超過人類已成為現實。從預測角度探討人工智能選擇行為歸責問題,至少需要關注三個議題:一是人工智能的預測是否會影響到人類社會基礎價值?二是預測和選擇之間的間隙有多大?三是預測結果是不是被選擇的?這三個議題在人工智能選擇行為歸責中的實踐意義體現為:人工智能預測行為是選擇行為的基礎,但預測行為不能破壞人類社會基礎價值,否則無法獲得辯護;如果預測直接指向選擇,那么預測行為和選擇行為將合二為一;選擇行為以預測為前提,但預測本身也可能是一種為了導致某種選擇結果的可選擇行為。下面對這三個議題進行討論。
人工智能如果能極為精確地預測行為的發生及結果,從而為進一步的政治行為、商業行為提供準確選項的話,那么這些政治、商業行為背后的預測者就天然具有了被預測者所不具備的特權,而這種特權必然會侵害自由、平等、正義等基礎價值。我們可以通過信息公開來抑制這種特權,當預測者和被預測者都能平等而便捷地獲取預測信息時,權力操縱就變得困難。但盡管如此,只要權力仍然存在,就必須依靠責任去平衡它。這種責任如果只指向人類,那么就沒有討論的必要,所以在此討論歸責的意義是如何矯正可以進行預測的人工智能的錯誤選擇行為以避免各類基礎價值被侵害。如果預測本身會侵損隱私、預測結果會使自由變成事先可知行為、預測結果的使用會導致不平等甚至歧視發生,那么人工智能就應承擔責任。為了使歸責在預防和糾正兩個層面發生效力,預測的自我中斷措施必須預先存在于人工智能的程序設計中。
當預測行為和選擇行為合二為一,也即只要預測出某種結果就選擇采取相應行為時,人工智能的預測行為就與歸責直接關聯。這里還可以細分成兩種情況:一是人工智能的預測結果被政策、制度設定為人們可在不進行判斷的情況下直接采用,二是人工智能直接根據預測結果作出某種選擇。后者自不必說,人工智能必須為其決定承擔責任;前者雖然由人工智能背后的人最終決定,但這種決定不具有選擇意義,因為選擇被預測所規定,所以歸責應當在人工智能那里完成大部分。
“‘真正’智能的系統不僅能按照模板組織采集到大量數據,從而盡可能有效地達到預期目標,還能夠(在最廣泛的意義上)學習,其方式是根據所獲得的信息調整自己的行為。”[18]217由此,預測行為確實可能是一種可選擇的行為,也即在收集和分析大量數據后,人工智能會在某種目的下根據分析情況調整預測行為。這使得預測結果成為一個不確定的模態,最終輸出的預測結果或許是人工智能主動選擇的結果,即使其背后有人類的選擇權力,權力事實上也被人工智能在預測中的選擇行為所控制。這時必須將責任直接歸于人工智能。
至此,從預測角度出發,人工智能選擇行為歸責的實踐意義在三個維度上存在:為了保護固有的人類社會基礎價值,為了防止將預測變成決定,為了避免人工智能掌握預測結果選擇操縱權。
三 人工智能選擇行為歸責的邏輯進路
對人工智能選擇行為進行歸責既有一定價值基礎,又是對實踐需要的必然回應,那么,歸責就應遵循從價值到實踐的邏輯,基于選擇的價值性和實踐的現實性進行安排。選擇作為自由的直觀感受態,是區別自由與非自由的關鍵,當存在潛在或實際的選擇干預時,就會出現非自由的意識感受。同樣,平等、正義等價值也不同程度地建立在意識感受基礎上。因此,從價值角度分析選擇行為可以以意識代入作為引子。在人工智能作出選擇行為的場域中,基于秩序確立的針對人工智能的限制性規范是否和人類社會的自由、平等、正義等基礎價值保持一致,是在實踐中對人工智能選擇行為歸責的基本依憑。
(一)無意識代入在歸責中的應用
意識一直是科學研究中的經典問題。盡管科學家從fMRI掃描和EEG實驗到通過猴子的自我鏡像意識、植物人和正常人的大腦對照實驗、裂腦病人言行分析等研究來不斷推動意識研究,但時至今日,給出“意識到底是什么”的明確答案仍然遙遙無期。然而,弄清意識的機理卻是人工智能科技躍遷到另一個階段的必然前提。盡管目前尚無法打破意識為自身設置的壁壘,但我們仍然可以從常識出發去了解意識在人和人工智能之間是如何搭建溝通橋梁的。一個無法反駁的事實是,人們并不總是對自己的行為進行有意識的控制,比如一些重復性的操作工作,當工人非常熟練之后,一般不會出現有意識的意向,在這種情況下,操作者甚至處于類似人工智能的自動狀態;又如一些人往往會不自知地抖腿,并且在抖腿時,仍然可以進行一系列復雜的用腦活動,甚至在精神高度集中處理難題時,抖腿的頻率還在無意識地加快。
上述分析引出本部分的核心議題:我們一直陷于假設人工智能有意識這一遙遠的命題中來進行各種預防式的研究或制度安排,但事實上,人有時也會進行無意識的活動,而人類社會的歸責制度多數情況下不會特別區分人的選擇行為是有意識的還是無意識的或是既有意識又帶有無意識,那么,為何我們要苛刻地要求人工智能的所有選擇行為都要是有意識的呢?當然,假設人工智能有意識,進而具有自由意志、平等態度、正義觀念,并能夠進行自主的選擇,然后再據此探討人工智能歸責問題確實是一條幾乎沒有邏輯瑕疵的認知路徑。本文并不想作出顛覆性的認知改革,而只是提供一個選項以說明人工智能選擇行為即使不在有意識范疇中也可以進入歸責視野里。
盡管無意識依附于意識而生,沒有意識,就沒有無意識,但意識和無意識的這種共生性并不會成為無意識代入人工智能選擇行為歸責的絕對障礙。本文并不是假設人工智能具有人的無意識,而只是將人工智能選擇行為與無意識下人的選擇行為做擬同認定,從而在人類行為歸責進路下嘗試討論無意識代入人工智能選擇行為的歸責問題,事實上是對人工智能進行了一次人化擬制。此外,正如意識沒有被充分認識一般,無意識和意識的共生關系并不能下一個必然的結論,科學的不確定性也為本文可以進行無意識代入的歸責討論提供了一個兜底保障。
但這仍然存在一個必須解決的難題:人工智能的無意識不能被研究確證,又如何能將人工智能選擇行為和人的無意識選擇行為進行擬同呢?正如對人工智能有意識的假設內蘊著人工智能的意識與人類具有同一性一樣,無意識的假設也需要解決同一性問題。相較而言,此同一性問題更容易解決。人工智能尚沒有意識,解決其將來的意識和人的意識的同一性問題是在無的基礎上進行有的推導,而人的無意識行為和人工智能的行為具有相似性卻是現實存在的,并且人工智能的無意識與石頭、鐵片等無所依附的純粹無意識根本不同,人工智能也不具備人類由非意識所控制的一些生理活動能力,所以用當前的無意識去衡量人工智能所作出的類似于人在無意識狀態下的行為相對更加可行,并且無和無的同一性比有和有的同一性更純粹。此外,即使AGI到來,如果我們仍然相信人和人工智能具有意識同一性,并且相信意識和無意識具有共生關系的話,那么與有意識如影隨形的無意識也一定會存在于人工智能選擇行為中,因而對無意識代入的歸責研究不會過時。
負責任創新、預期治理、敏捷治理是近年用于規制人工智能等科技的理論框架,其中的法律、倫理和科技與社會(Science, Technology, and Society,簡稱STS)的綜合應用模式已越來越成熟,但在未將人工智能社會視為人類社會一部分的前提下,各類理論框架都難以說是完整和恰適的。不過,負責任創新理論確實提出了一個值得借鑒的觀點:人不應屈服于技術決定論,技術決定論忽視了人類的制度和預先設計對技術的形塑價值,使責任還沒開始承擔就被放棄。當我們打破技術決定論的神話后,就可以更加審慎和客觀地檢視人工智能和人的關系,一方面人類和人工智能面臨共同的無意識歸責境地,這是技術所不能解決的問題;另一方面,既然人類和人工智能能夠在現階段找到這種同一性,那么人類如果在歸責中需要通過制度安排價值,人工智能就同樣需要通過設計來維護價值。
當前的人類行為歸責盡管以價值為導向,但卻不太考慮無意識問題,僅在歸責中存在“意外事件”“公平責任”這樣的偽無意識問題——意外事件是沒有意識直接參與,而不是無意識影響了行為選擇和結果發生;公平責任是人對意識驅使下的選擇行為本不需要承擔責任,而出于秩序維護和利益衡平等原因承擔部分責任的特殊形式。此前所有的人類行為歸責理論和實踐要么將無意識和意識合二為一,比如處于自動狀態的工人出了錯仍然視為出錯的一刻是意識在引導行為;要么將無意識排除列意識之外,比如一個對行車路線爛熟于心的司機在無意識接管意識意向的情況下發生車禍被直接視為主觀過失。但是,在人類社會,這些既有的歸責規定是非常值得珍視的經驗,它們既化解了諸多矛盾,也提醒人們更多地依靠有意識而不是任由無意識來接管行為或選擇行動,但當這些規定用于只有類似于人的無意識行為而尚沒有意識的人工智能身上時,就捉襟見肘了。以下在“人工智能作出選擇行為必須遵循人類社會基礎價值”的理念下,從現有的人類行為歸責路徑出發,為無意識代入人工智能選擇行為的歸責理出基本邏輯思路。
人類和人工智能的最大區別是人類被認為是進化產生的,而目前的人工智能是人類創造出來的,“扮演上帝”的論調雖然過于自信,但確實使人類在創造物面前呈現出天然俯視心理。當前關于人工智能的各類哲學社會科學研究均不同程度地體現出這種心理傾向,即使是悲觀、擔憂和驚懼式的研究也并沒有將人工智能與人類等量齊觀,而多將人工智能視作人自掘墳墓的工具。于是,在人工智能哲學社會科學研究領域出現了奇怪的景象:我們在研究中以人的思維去揣度人工智能,一方面相信人工智能即使產生意識,也只能是人類意識的翻版,另一方面又在俯視之中假設人工智能會超越人類,并很可能反過來俯視甚至傷害人類。這一景象事實上反映了人類的一種獨特心理認知:我所創造的物不能超越我,但我不得不考慮存在這種可能。這其實是對科學不確定性原理的畏懼,人類在該原理面前無法保持真正自信。所以,一切關于人工智能的反思研究最終都回歸到對科技發展的人為控制上,這種控制通常是倫理,有時是法律。控制傳統從近代科學誕生之日起就已出現,到了二十世紀六七十年代在卡遜(Rachel Carson)和羅馬俱樂部的推動下達到頂峰,并隨著科學技術的“倫理、法律和社會問題”(Ethical, Legal,and Social Issues,簡稱ELSI)研究領域的創立而逐漸走向專業化。所以,人工智能歸責研究在今時今日仍然處于保持科技可控性發展的論域中,而ELSI所包納的全部學科,無論是倫理學、法學還是STS、科學社會學都以人類社會基礎價值為出發點,那么我們也沒有理由使人工智能選擇行為歸責研究超越這個范疇,況且,無意識代入為人工智能選擇行為歸責以人類價值為追求提供了更具針對性的理由:正因為當前人工智能選擇行為和人類的無意識選擇行為類似,那么二者擁有共同的價值追求必然而然。
鑒此,對人工智能選擇行為進行歸責,首先要考慮其選擇行為是否違背了人類社會的價值追求;其次,因為當前人工智能選擇行為類似于人類的無意識選擇行為,所以責任承擔原則中的過錯責任原則、過錯推定責任原則均難以適用,唯有無過錯責任原則可以有限適用,當人工智能選擇行為違背了人類社會基礎價值,且具有實際危害后果時,可以適用無過錯責任原則;最后,對于具體的責任承擔,可以參考法人歸責的雙罰制,即在對人工智能進行處理的同時,追究直接責任人員的責任。
(二)限制性規范在實踐中的歸位
限制性規范是歸責的前提,責任的出現、衡量和追究均以違反維持實踐秩序的限制性規范為啟動要件。限制性規范以兩種方式滲入人工智能選擇行為中,一是在算法程序中預先設定,二是在人工智能選擇行為作出后進行事后追責。但算法和選擇行為之間還有一個過渡環節,即人工智能基于算法進行的后天學習,人工智能選擇行為同時受初始算法和后天學習的影響。預測是人工智能選擇行為歸責的重要實踐根基,預先設定的限制性規范一般都能體現預測性,但事后追責的限制性規范卻很難具有預測性。因為事后追責所針對的人工智能選擇行為受算法和后天學習雙重影響,人們雖然了解后天學習的機理,但卻難以預測人工智能后天學習的情況和效果,更難以預測后天學習和選擇行為之間的對應關系。預先設定的限制性規范具有預測性,事后追責的限制性規范難具預測性,導致兩種限制性規范發生“脫離現象”。如上所述,人工智能選擇行為歸責要以人類社會基礎價值為追求,限制性規范的確立和實施自然也要以人類社會基礎價值為引領,但“脫離現象”使限制性規范在設定和追責中出現價值分離,所以必須分析限制性規范如何在實踐中向價值歸位。
為了制定出契合人工智能選擇行為歸責的限制性規范,人們必須充分考慮人工智能實踐的獨特性,而不是將之與人類實踐混同。由于后天學習情況和效果難以預測,人們不能準確了解人工智能實踐行為,導致對人工智能選擇行為進行事后追責的限制性規范無法完全基于人工智能獨特實踐,而要更多地考慮人類社會普遍實踐。因為價值追求一致,所以把針對人類實踐的歸責機制應用到人所制造的人工智能上確實具有可行性,但應用中存在兩個不可忽視的難題。其一,人類在文明社會數千年的演進中,形成了獨特的人性特質,這些特質不僅受到遺傳影響,更受到民族、種族、國情、風俗、習慣的影響,人工智能顯然不能獲得如此豐富的實踐體驗,但它們的特質在一定程度上來自于設計者、制造者和使用者,由此產生一個必須要追問的問題:是否中國的人工智能具有中國特色,而美國的人工智能別具美國風情?其二,人工智能可能跨越實踐范疇而直接影響到人類社會基礎價值。比如近年出現的數字經濟,在產生新的經濟增長點的同時,借助數字智能技術改變勞動市場固有規則,通過建構智能勞動敘事邏輯,產出新的資本權力并可能加強對勞動者的支配,從而影響了勞動者的自由。因此,在將人類選擇行為歸責機制適用到人工智能選擇行為中時,要審慎解決這兩個難題。
認為技術的研究、設計、開發和治理受某種普世意識形態的影響是一個不可能成立的虛幻想法。大科學時代,受到國家資助的人工智能科技必然要與該國的意識形態保持一致,也就是中國的人工智能當然具有中國特色。事實上,這一差異性問題并不是因為人工智能的出現而發生,不同文化傳承和生活環境所導致的個體差異在人類社會普遍存在,不同的人對相同事件的看法可能大相徑庭,即使是同一人在不同心境和環境下對同一事件也可能會產生前后不一致甚至矛盾的態度,但法律、道德等社會規范總有很多能超越個體經驗而獲得廣泛認同,那為何在人工智能這里行不通呢?原因有二,一是人類具有相同的人性和生存模式,不同的人之間總有一些相同的價值認知;二是人與人之間可以進行充分的溝通與交流,在辯論和妥協中逐步使認知趨于一致。與人相比,人工智能種類繁多,不同的應用領域幾乎斷絕了人工智能之間“人性”相通的可能;在意識出現之前,人工智能之間也不可能進行充分交流。因此,在對人工智能選擇行為歸責時,應當以一個道德域或法治域(通常是一個國家)的一般歸責原則為基礎,并參照該域中人類選擇行為歸責機制來確定對人工智能進行事后追責的基本要求,這表明以某種類似于“機器人法則”的限制性規范來規制所有人工智能行為的想法不切實際,無法施行。
當人工智能大規模應用后,智能化的工作環境會在多大程度上擠兌人類勞動者的生活資源尚未可知,但自由、平等、正義等價值可能遭受到的沖擊是可以想象的。對人類勞動者而言,真正的自由不僅是可以選擇拒絕從事不公平或無價值的工作,還包括可以選擇從事公平而有價值的工作,能為其提供這種可得選項的社會才是有可能實現“人的自由而全面的發展”的社會。當人工智能獲得意識后,它可能會將信息和數據作為構建新權力的基礎,用冷冰冰的算法邏輯代替仍可由人腦預測的資本邏輯來構筑人類勞動者無法跨越的利益藩籬,“機器人不消費它們所生產的東西,而剩下的人類又沒有錢去購買”[19]的適于極端強權滋生的環境可能會出現。這種環境導致分配正義在人和人工智能之間遭遇前所未有的挑戰,它不再是資源配置問題,也不是技術變革問題,而是人與人工智能人性相通的問題。限制性規范必須考慮到人工智能所具有的規模化能力、權力化欲望和無情化態度(人工智能難以和人類產生真正的共情,不管是有意識還是無意識),因此要在算法程序和技術規則中增加更為簡捷但嚴厲的限制性規范,比如可以考慮采用先斷線(斷電)再調查的顛覆性追責程序。
總之,對人工智能選擇行為進行歸責必須把握好人工智能實踐與人類實踐的聯系與區別,以不破壞人類社會基礎價值為導向,在解決實踐性難題后針對性地制定限制性規范。
四 結 語
選擇行為是人類建立在生物本能上的最基本的智能表現,如果我們從人類智能出發去制造人工智能,那么人工智能要在人類社會承擔責任就不可能繞過選擇行為的價值基礎和實踐需要。因此,關于歸責的思考首先就必須面對選擇問題。認識到科技應當增加人類的福祉是人類智能可以被稱為智能的基點,科技創新可以成為人類實現價值目標的保障則是人類愿意向技術人工物分享自身智能的前提。所以,我們必須依靠自由、平等、正義等人類社會基礎價值來設計人工智能,并深入思考至少兩個問題:人工智能被設計用于不同的生活和工作領域分別指向什么樣的基礎價值?人工智能科技和制度如何相互協調以促進價值目標達成?不同的應用領域有不同的價值要求,設計和開發階段的價值導入必須以應用領域的價值規范為指引,而人工智能是否遵循價值規范的直觀體現是其會作出什么樣的選擇行為;制度和科技的協調需要直接推入選擇行為的歸責中,因為人工智能目前只有選擇行為既指向真的智能又指向真的實踐,而獨特的歸責是在人與人工智能價值追求一致下界分人工智能選擇行為和人類選擇行為的重要方式。因此,人工智能選擇行為的歸責實際上遵循著一條從價值到實踐再回歸價值的邏輯進路,正因為算法程序中注入了被選擇的基礎價值,才可能在應用時產生人工智能選擇行為正確與否的問題,而實踐需要和實踐意義又為人工智能選擇行為提供了歸責理由、情節判斷、承擔方式與價值追求保持統一的可能。
設計、開發和應用人工智能必然受到人與社會的雙重影響,人工智能治理問題同樣如此。因此,僅通過制定規則來規范人工智能的應用或制定政策在事后針對人工智能的錯誤選擇行為是不夠的。在這個前提下,人們通過負責任創新、預期治理等一系列科技治理理論,認識到利益相關者的特定價值觀對人工智能等科技的發展具有決定性意義,因而引入價值選擇和政策干預來規制研究設計和技術開發。只有讓設計者和開發者將人類社會基礎價值融入人工智能設計和開發過程中,人工智能科技才能對人和社會有益。如此,無論是人工智能樂觀主義者還是悲觀主義者都獲得了一個可以接受的平衡:面對無法停滯的人工智能科技,我們必須深刻理解人工智能和經濟、社會發展的相互作用關系,基于人類社會基礎價值對設計和開發人工智能進行監督、對人工智能選擇行為進行歸責,進而有效地接受和包容人工智能科技創新可能帶來的不確定性。
[參 考 文 獻]
[1] Santoni de Sio F, Almeida T, van den Hoven J. The future of work: freedom, justice and capital in the age of Artificial Intelligence[J]. Critical Review of International Social and Political Philosophy, 2024(5): 659-683.
[2] 習近平.加強領導做好規劃明確任務夯實基礎 推動我國新一代人工智能健康發展[N].人民日報,2018-11-01(1).
[3] 韓水法.人工智能時代的自由意志[J].社會科學戰線,2019(11):1-11+281.
[4] Moore M S.Stephen Morse on the fundamental psycho-legal error[J]. Criminal Law and Philosophy, 2016(1):45-89.
[5] Inwagen P V.Freedom of the will[M]// Feinberg J, Shafer-Landau R. Reason and responsibility: readings in some basic problems of philosophy, Boston: Wadsworth, 2011.
[6] 徐向東.理解自由意志[M].北京:北京大學出版社,2008.
[7] Strawson G. On \"freedom and resentment\"[M]//Russell P, McKenna M. Free will and reactive attitudes, London: Routledge, 2016.
[8] Gogoll J, Müller J F. Autonomous cars: in favor of a mandatory ethics setting[J]. Science and Engineering Ethics, 2017(3): 681-700.
[9] Bergmann L T, Schlicht L, Meixner C, et al. Autonomous vehicles require socio-political acceptance an empirical and philosophical perspective on the problem of moral decision making[J]. Frontiers in Behavioral Neuroscience, 2018(12):1-12.
[10] Sen A. The idea of justice [M]. Cambridge, Mass: Belknap Press of"" Harvard University Press,2009.
[11] Bonnefon J F, Shariff A, Rahwan I. The social dilemma of autonomous vehicles[J]. Science, 2016,6293: 1573-1576.
[12] Hyde W W. The prosecution and punishment of animals and lifeless things in the middle ages and modern times[J]. University of Pennsylvania Law Review and American Law Register, 1916(7): 696-730.
[13] Hibschman H. When animals were criminals[J].Lega Chatter, 1938(4): 38-48.
[14] Beale S S. The development and evolution of the U.S. law of corporate criminal liability and the Yates Memo[J]. Stetson Law" Review, 2016(1): 41-70.
[15] Libet B. Unconscious cerebral initiative and the role of conscious will in voluntary action[J]. Behavioral and Brain Sciences, 1985(4): 529-539.
[16] Schultze-Kraft M, Birman D, Rusconi M, et al. The point of no return in vetoing self-initiated movements[J]. Proceedings of the National Academy of Sciences of the United States of Americal, 2016(4): 1080-1085.
[17]舍恩伯格,庫克耶.大數據時代:生活、工作與思維的大變革[M].盛陽燕,周濤,譯.杭州: 浙江人民出版社,2012.
[18] 格雷斯,魏根特.智能代理與刑法[M]//陳澤憲.刑事法前沿:第10卷,北京:社會科學文獻出版社,2017.
[19] Hughes C, Southern A. The world of work and the crisis of capitalism: Marx and the fourth industrial revolution[J]. Journal of Classical Sociology, 2019(1): 59-71.