雖然人工智能(Artificial Intelligence,AI)已經成為一個人盡皆知的術語,但其概念定義廣泛且模糊,并未形成普遍的共識。而自20世紀初就開始有關“人工智能是否會取代人類”的爭論時至今日仍然存在。但事實上此類爭論并無太大意義,這不僅僅是因為當前人工智能技術發展依然面臨著諸多硬性瓶頸,更是因為對于人類社會的發展而言,重要的在于清楚地知道人工智能到底帶來了哪些革命性的顛覆。無論是將人工智能視為一種治理技術,還是福柯筆下將其看作國家權力下的裝置,審視其在公共領域與治理發生的“化學反應”,是絕佳的透視窗口,其中包括治理范式的轉向以及由此帶來的價值變遷。而思考技術引發的風險下如何協調促進與規制人工智能發展的價值目標,以及如何設計人工智能時代的政策規范和風險因應策略等問題,不僅涉及對傳統治理框架和制度的深刻反思,是對以“未來治理”問題為主旨的有益探索,更是推動人工智能同經濟社會深度融合的前置性要件。
從歷時性看,中國最深刻的社會轉型發生在互聯網大行其道之時。在以科層組織為載體的公共權力資源衰微和技術治理強制性闡釋泛濫的契機之下,人工智能嵌入治理實際上要解決的是互聯網時代傳統信息傳播范式超載的危機。而算法作為技術架構,自然決定了治理的方向和維度,也奠定了人工智能嵌入治理的范式基礎。這旋即可以體現為對兩個基本問題的解答,即算法的治理與治理的算法。事實上,這也是回答人工智能時代“治理什么”以及“如何治理”的關鍵性問題。
第一,算法的治理。2016年的“魏則西事件”將百度搜索算法推上輿論的風口浪尖。2006年,美國家長咨詢網站KinderStart對谷歌提起法律訴訟,原因是谷歌改變了搜索排名方法,導致其排名一落千丈。無論是對百度搜索的詬病還是對谷歌的起訴,問題的本質都在于詰問算法是否具有自主的治理權力。自步入智能時代后,幾乎我們從事的所有事情都由算法決定。各種各樣的網絡服務商提供的平臺依靠它們獨特的算法規則,決定我們的決定,接受著我們大量的數據,最終甚至比我們自己更了解自己。而當人工智能技術不斷成熟普及,算法權力也日益成為一種社會權力時,日趨緊迫的一個重要議題就是,算法的治理在多大程度上可以被廣泛接受。而這背后必須要審視的是人工智能是否具備英國技術哲學家大衛·科林格里奇所說的三種根本屬性。
第二,治理的算法。近幾年,不斷爆出的數據泄露事件讓大數據時代的隱私問題成為人們關注的焦點。但事實上,真正值得我們焦慮和擔憂的或許是,當我們高度依賴由算法支配的智能生活時,當我們讓渡了“識別性”而獲得便捷性和高效性的生活軌跡時,是否意味著我們的個體自主性正在逐步喪失?泛化這個案例所要面對的根本困境是討論人類的主觀意識在多大程度可以被程式化,作為詮釋人類意志自主性的推理和判斷在多大程度上能夠被算法所取代。置于公共領域,這是一個治理算法化的問題。如果我們從法律領域出發來看待這個問題就比較容易理解,即法官的自由心證是否可以被人工智能所取代。這是步入人工智能時代后全社會所共同關心的議題之一。而我們討論治理的算法,真正關切的問題是算法能為治理做什么。這取決于我們對治理主體、價值、方式、手段等的理解,也取決于算法本身的發展狀態。
互聯網的發展歷史表明,網絡空間的生成和擴散可以被看成是一個由商業力量推動主導的生產性過程。這個邏輯同樣適用于人工智能的發展和應用,而商業邏輯的一個永恒推動力則來自于效率的提升。自人類社會進入20世紀以來,效率與公平就一直是治理體系的核心價值,二者也維持了相對的平衡。但就人工智能在治理領域的應用而言,效率導向始終占據著上風。而效率邏輯的“長驅直入”,不是因為效率和公平在主流價值觀中存在高下之分,而是因為對于人工智能而言,把握如何提高治理效率,遠要比去把握如何實現公平、正義更容易。而在效率邏輯驅動下的人工智能治理模式亦帶來深層次治理人格的突變。如果說,在農業社會的統治型社會治理模式中,人的等級差別和權力關系造成了普遍的人格依附,近代社會政治生活因工業化產生的工具理性膜拜,幾乎祛除了公共領域的獨立人格,那么以算法和數據為統攝規則的智能社會,則以高度的精準性和客觀性剝奪了社會治理者的自主性。正是依賴算法的高度獨立性,福柯所言的“技術的主體性”概念愈發清晰,這也印證了“技術并不僅僅是工具,或者不僅僅是達到目的的手段;相反,其是政治行動者,手段與目的密不可分”。這個政治行動者,在效率邏輯的不斷驅動下,有著極強的動力以技術的迭代替代制度的更新,并能夠通過不斷增設專門機構吸納技術嵌入,在短期內大幅提升政府行為效率與體制效能。但長遠來看,層層增設的機構和無處不在的人工智能監控設施,可能使人的主動意識、理性精神、自覺擔當消失于無形,由此讓人逐漸促成一種機械服從人工智能安排的習性,人的社會性成為人工智能擠壓出來的副產品。政府對人工智能的普遍應用,如各式各樣的APP,在相當程度上造成了治理人員的技術依賴,那些依托個人情感和自由意志的治理經驗和嫻熟技能已經不再重要,理性、自由意志和個人情緒亦變得沒有必要。而不斷迭代升級的治理技術,如人臉識別系統,試圖用智能監控替代公共安全制度,不僅蘊藏發酵著巨大的公共安全風險,而且缺乏人文關懷的管理也讓政府與公眾之間的距離愈發拉大。
人工智能的“黑箱”問題,即機器在完成某項任務時,它們是怎樣思考和決定的,其過程到底是什么,一直困惑著人們。而深度學習使這一問題越來越嚴重。原因是深度學習的機器涉及數以千計的人工神經元,這些神經元排列成數十甚至數百個錯綜復雜的互聯層。第一層的每個神經元都會接收大量數據信息的輸入,進行復雜運算,并輸出新的信號,一層一層地向上傳送,最后產生整體輸出結果。人工智能與其他科學技術最大的不同就是它具有可以獨立完成預定任務的自主性。但是人工智能的這種自主行為與人類的決策和行動存在根本不同。具體而言,目前數據驅動的人工智能所使用的方法本質上屬于分類、歸納、試錯等經驗與反饋方法,在方法論上并不完備。深度學習驅動下人工智能的演化路徑有著極大的不確定性,其根源在于人類智能與人工智能存在本質差別。盡管人工智能系統設計總是模仿人腦的工作方式,但是在限定的時間內,人工智能極有可能給出人類完全沒有考慮過的出人意料的解決方案,即一個通過合并算法和深度學習后得出的“最優解”。但這樣的“最優解”卻有可能并非是人類之福。例如,近年人工智能技術應用于災害救治成為一種必然的趨勢,但由于災害情境的復雜性、動態性以及高度不確定等特點,若使用全自動智能機器人技術進行實時決策,將極有可能造成如經典倫理學實驗“電車難題”中那樣進退維谷的困境,只是悲劇分配的選擇權從司機的手里轉到了人工智能也就是算法那里。依賴于深度學習驅動進化的人工智能治理極有可能導致人們在國家與社會系統性的疏離夾縫中更為艱難的處境。
顯然,學習算法基于的大規模數據搜集、輸入并不能鞏固事件的確定性,人類社會業已存在的數據都存在明顯的滯后性和偶然性,難以指導對于當前和未來的預測或分析,特別是在那些不具有明確目標或者工作產出績效不明確的人類活動之中,這種滯后性和偶然性會帶來更大的問題。數據和算法的緊密依存將會導致未知的“黑箱效應”,進而衍生出難以預估的安全風險,其中治理規則的不可解釋性便是自工業社會以來橫亙在人類面前的最大“困惑”。現在各大企業、機構應用人工智能和復雜的算法是必然趨勢。一般來說,算法會比人類職員表現更佳,但問題在于,如果算法里藏著某種不公,我們將很難察覺。真正可怕之處并不在于目前所討論的某類“算法歧視”帶來的不公,而是這套規則體系將可能不會遇到任何挑戰,因為它無從解釋,更加不可苛責。
當治理表現出更明顯的技術維度時,不同主體之間的強弱差距也更為明顯。從表面上看,這種強弱差距或者不平等似乎在于掌握了數據和數據解析工具的人相對于那些沒有掌握數據和數據解析工具的人擁有巨大的優勢,而實質上,數據解析對人的行為的過度“了解”,會對人形成一種看似精細實則往往似是而非的數據化或量化的刻板印象。例如,在一家企業中,管理者可以輕易通過數據解析透視下屬的各種特質、能力以及行為傾向,進而為成員匹配適合的崗位和職務,人盡其才、各司其位看似是一個帕累托最優的結局,但問題是組織成員上升進步的其他可能性因為“無所不知”被關閉。人類社會對公平的假定和追求正是進入羅爾斯的“無知之幕”后所設定的。無論是正義的社會分配方式,還是判斷特定道德問題正義與否,其必要條件和前提都是“你對自己將來會成為什么人一概不知”。但精準的數據解析和算法模擬撕裂了橫亙在人類面前的“無知之幕”,個體微粒化且高度可視化進一步帶來的是治理價值的“懸浮”和“混亂”。
就公共領域而言,最為關注的議題之一就是機器人與人類的主體地位平等問題。在未來,擬人態機器人進入我們的生活成為必然,當我們必須接受算法統攝下的人工智能成為新的甚至是主要的治理主體時,更應當在深層次加強對認知的解釋與構建,其中對主體性地位的認識和構建是關鍵。而涉及關于治理主體意識的更新,并不是簡單地將人工智能納入現有的治理體系之中,給予其相應的法律地位,而是要進一步解決人工智能技術發展的定位問題以及重申“人”的主體性地位,進而使人類真正認識到,“激情、熱情是人強烈追求自己的對象的本質力量”。“機器換人”拉開了強人工智能時代勞動者主體性危機的序幕,但目前我們已經逐步確立了這樣一種共識:保護人,而不是保護工作。據此,我們也應當在智能技術迅猛更新迭代的進程中逐步確立對主體性地位新的認識,“我們可以知道的比我們所知的更多,即我們執行的許多任務都依賴于難以編碼化和自動化的默會知識、直觀性知識”。換言之,伴隨人類優勢遞減的趨勢不可逆轉,人類最終將不得不接受自我進化、發展的責任,“不再有任何對人做出先驗性規定的因素存在,每個人都可以根據自己的行為和行動去理解和認識人們的身份和社會角色,每個人都通過自己的行為和行動去獲得自己的身份和社會角色”。
首先我們應當意識到風險預防與風險控制在操作規則和目的上并不一致。風險控制很大程度上是為了盡可能減少技術普遍應用所帶來的顯性或隱性的危害和損失,而風險預防則是為了最大程度杜絕風險性事件的發生。技術是把“雙刃劍”,其中所包含的風險往往具有不確定性和遲滯性。當一種新技術對社會的影響在科學上尚無定論的時候,如果這種影響有可能是負面的、巨大的和不可逆轉的,決策者就應該假定它會造成這種影響,并據此來制定相關政策和法律,這就是“風險預防原則”。在邏輯上,如果將風險預防理解為先期目標,那么風險控制就是兜底原則。
從人工智能調整和改變后的社會關系出發,只有在默認算法“可責、可罰”的前提下進行規則和倫理規范的建構才能保障“人工智能更好地服務于人類”這一核心邏輯。誠然,有學者指出,人工智能有強弱之分,當前的弱人工智能缺乏自覺和自主的能力,因此不應當被視為是司法體系中的可追責對象。但事實上,無論是算法下的“黑箱效應”還是“算法權力”的無遠弗屆,都已經對人類構成了實質性侵權。這促使治理者們不得不開始思考,如何能在真正意義上規制人工智能借由“技術中立”的幌子“橫行霸道”。歐洲議會于2016年4月頒布的《一般數據保護條例》(GDPR)規定,在基于用戶層面的預測的算法決策等自動化的個人決策中,應賦予公眾一種新的權利——“解釋權”,即公眾有權要求與其個人相關的自動決策系統對其算法決策作出必要的解釋。事實上,所謂的“解釋權”,不僅僅是在制度層面打開算法決策的“黑箱”,以立法的形式強制要求保留相關數據與算法決策過程的“黑匣子”,或許更具現實意義的做法是在其應用之前就在可控制的前提下對人工智能進行追責機制的技術建構,如依托區塊鏈數據可溯源的特性構建完整的、防篡改的責任鏈條。而在出現較大的危害和爭議時,有著可以申訴的空間和機構,通過對后果的追究倒逼算法決策的內在機制與過程的透明性。例如,歐洲為保護數據信息制定的新法令中甚至包括一條“解釋權”——有權要求作出決定的機器作出解釋,該法令于2018年5月生效。而當進一步將精準追責與糾錯補償結合起來時,就能夠在全社會形成防止惡意使用、算法歧視等更為務實的目標。這是構成新的治理規則形態的“基礎性要素”,即構建以“解釋權”為基礎的精準追責機制,讓算法權力的運作鏈條更加透明,逐步消除人機雙方的力量不對等狀態,從而真正實現“可解釋的人工智能”。
治理尚存在算法失效或者本就應當禁忌的領域。正如我們懷有法律對任何個案都有矯正正義價值的期待,人工智能至少在當前的智能范疇內還無法獨立進行“自由心證”。在更高意義上,我們應當而且必須對人工智能在某些領域的“長驅直入”保持審慎的態度和距離。一份來自牛津大學人類未來研究所的《人工智能何時超越人類》報告指出,裹挾了過多周邊技術(如區塊鏈、量子計算、納米科技、基因工程等)的人工智能極有可能發展為互聯網時代的“利維坦”。為了避免這個災難性的后果,人類開始將更多的目光投向人工智能的倫理建設,“算法正義”是規制人工智能技術風險不可或缺的向度。而在政策層面,努力創設人文智能協作治理場景是關鍵。所謂人工智能時代的人文主義,不僅僅是指增強智能系統的人機交互設計,而且必須關注這個時代的社會規范和秩序的升級,特別是在多學科融合的視角下構建新的正義原則以及思考和探討如何在人工智能時代振拔人類的能力。