陳 鵬
提 要: 大數據的出現和人工智能深度學習算法的重大突破,推動著人工智能在國家治理中應用場景的不斷拓展和應用程度的日漸加深,國家治理形態發生著深刻的變革,人類正逐步進入到以算法為核心的智能治理時代。算法在國家治理中的應用,有利于降低國家治理成本、提升國家治理能力和改善國家治理績效。同時,由于算法自身的不完備性,算法在運行過程中也不同程度地存在算法黑箱、算法歧視、算法獨裁、算法戰爭的隱憂,人工智能可能取代人類成為國家和全球治理的主體。面對算法在國家治理中的應用所產生的機遇和催生的風險,我們在積極推動算法技術發展以不斷推進國家治理現代化進程的同時,也要加大對算法進行治理的力度。明確算法作為治理手段而非治理主體的定位、增強算法的可解釋性和運行過程的透明性、設計算法倫理并將其嵌入算法設計和運行過程、構建全球算法治理機制是智能治理時代有效規制算法的基本進路。
大數據的出現、深度學習算法的重大突破和云計算技術的日漸成熟,使得人類的生產方式、生活方式和管理方式發生著深刻的變革,人類正步入到人工智能時代。人工智能技術的出現及其在國家治理中應用場景的不斷拓展和應用程度的不斷加深,推動著人類社會交往方式和現代國家治理格局發生著深刻的變革,國家治理正逐步向智能治理形態轉變。作為一種新型的治理形態,智能治理“是以擁有先進算法和強大計算能力的智能技術平臺為支撐,通過對大數據的提取和分析,來自主完成特定治理任務的治理模式。其中,數據是智能治理的依據,算法是智能治理的核心,算力是智能治理的支撐”①陳鵬:《智能治理時代的政府:風險防范和能力提升》,《寧夏社會科學》,2019年第1期。。算法作為智能治理的核心,在現代國家治理中應用場景不斷拓展的同時,其應用深度也日漸加深。算法在現代國家治理中的應用,有利于降低國家治理的成本、提高國家治理的精準性和改善國家治理的績效。同時,由于算法在設計、研發和運行過程中存在不可解釋性、缺乏透明性問題和核心算法被少數發達國家和少數企業掌握等問題,使得算法在應用過程中存在算法黑箱、算法歧視、算法獨裁、算法戰爭等隱憂,人工智能存在取代人類成為國家治理主體的可能。
目前,學術界對于算法的研究主要集中在技術和應用兩個層面。在技術層面的研究上,理工科的學者主要側重于對算法的內涵、特征和技術發展進行研究。如宋杰等人對MapReduce大數據處理平臺與算法技術的研究歷程進行了論述①宋杰、孫宗哲、毛克明等:《MapReduce大數據處理平臺與算法研究進展》,《軟件學報》,2017年第3期。。在應用層面的研究上,哲學和人文社科類的學者已經開始從某一個方面對算法的應用及其產生的風險進行論述。例如,劉培等人對算法的倫理問題及其解決進路進行了探討②劉培、池忠軍:《算法的倫理問題及其解決進路》,《東北大學學報》,2019年第2期。,張凌寒從法律層面對算法的規制進行了研究③張凌寒:《算法規制的迭代與革新》,《法學論壇》,2019年第2期。,賈開從公共政策層面對算法技術及其應用進行了論述④賈開:《人工智能與算法治理的研究》,《中國行政管理》,2019年第1期。。從現有的理論研究成果來看,既有研究主要側重于算法的技術或者應用研究的某一方面,缺乏對算法在現代國家治理應用中產生的成效、存在的隱憂和應采取的算法治理措施的系統論述。在智能治理時代,我們需要在算法技術的發展應用與風險防范之間尋求有效的平衡,在推動算法在國家治理中應用場景持續拓展和應用程度不斷加深的同時,人類也需要構建起有效的算法治理機制以應對算法應用可能帶來的風險甚至是危機,確保國家治理秩序的穩定和全球治理秩序的有序。
算法是人工智能的基石之一,是“一種有限、確定、有效并適合用計算機程序來實現的解決問題的方法,是計算機科學的基礎”⑤Robert Sedgewick、Kevin Wayne:《算法》(第四版),謝路云譯,北京:人民郵電出版社,2012年版,第6頁。。20世紀50年代初“圖靈測試”的提出,標志著人工智能技術開始出現,人類通過設計特定的算法來驅動人工智能機器完成特定的行為和任務的愿景正逐漸變為現實。但是,由于這一時期的人工智能算法處于監督學習階段,人工智能機器只能依據人類設計的程序和指令來完成特定的行為和任務,尚不具備自主學習并生成新的程序和指令的能力,這也在很大程度上制約了人工智能技術的發展。進入到21世紀之后,伴隨具有自主學習能力的人工智能深度學習算法取得重大突破以及大數據時代的到來和云計算技術的日漸成熟,人工智能正由傳統的弱人工智能向強人工智能時代轉變,深度學習算法在現代國家治理中的應用場景不斷拓展、應用程度不斷加深,推動著國家治理成本的降低、國家治理能力的提升和國家治理績效的改善。
伴隨經濟社會的快速發展,人類社會交往程度不斷加深,現代國家治理面臨的治理任務日漸增多,治理難度也隨之不斷增加,國家用于治理的人力、物力和財力的投入也隨之不斷增加。為了有效應對日漸繁重的治理任務,治理主體利用先進的治理技術手段來降低國家治理難度和成本成為現實的選擇,技術治理成為現代國家治理的重要手段。在傳統技術治理中,技術僅僅是治理主體利用來完成治理任務和維系治理秩序的工具,技術本身并不能自動實現治理任務完成和治理秩序維系的功能,人類依舊是國家治理的主體和中心。不同于一般的技術治理手段,深度學習算法的出現和快速發展,使得人工智能機器具有了自主學習的能力,進而改變了傳統人類利用技術手段來實行治理的格局。通過不斷地自我強化訓練和學習,具備深度學習算法的人工智能機器可以根據具體的應用場景來生成相應的治理方案并自動執行治理方案,從而使得治理主體在很多原本需要投入巨大人力來保障的治理場域可以完全交給人工智能機器來完成,治理主體不僅實現了極大的解放,也在一定程度上降低了現代國家治理的成本。
國家治理是治理主體利用一定的治理手段來實現特定的治理任務和維系特定的治理秩序的活動和過程。面對日漸多元化的治理需求,不斷提升國家治理的精準性是現代國家治理要解決的重大問題。由于國家用于治理的人力、物力和財力資源是有限的,特定的治理主體要想實現對治理對象的多元化、個性化的治理需求進行及時且有效的回應的目的,存在著治理資源、工作能力和工作時間等方面條件的約束。而大數據時代的到來和人工智能深度學習算法的突破,為國家治理精準度的提升提供了難得的契機。借助于海量的大數據,深度學習算法在國家治理中的應用可以在治理對象的治理需求識別、治理方案的設計和優化、治理方案的執行和監控等方面發揮非常重要的作用,大大提高國家治理的精準性。例如,在治理需求的精準識別上,傳統的國家治理需要通過各種各樣的正式或非正式的渠道來收集公民、企業和社會組織的治理需求,且公民、企業和社會組織在表達自身的治理需求和偏好時還不同程度地受到主客觀條件的制約,使得治理主體獲取的治理需求信息存在一定程度的瑕疵,進而影響到治理方案的設計和執行。而在生產、生活和行為的數據化成為常態的大數據時代,深度學習算法通過自動提取和分析海量的大數據,“對這些數據進行系統地加工并且正確地闡釋,使得人們可以通過這些數據對個人或者群體及其行為進行深入的推斷”①羅納德·巴赫曼、吉多·肯珀等:《大數據時代下半場——數據治理、驅動與變現》,劉志則等譯,北京:北京聯合出版公司,2017年版,第9 頁。,從而可以快速、準確地判斷出公民、企業和社會組織真實的治理需求和偏好,然后有針對性地設計出個性化的治理方案,使得國家治理的精準性大大提高,治理對象的滿意度也不斷提升。
現代社會是一個風險不斷集聚的社會,國家治理面臨的任務日漸繁重,治理難度也不斷增大。同時,人民群眾日益增長的美好生活需要,也對國家治理提出了更高的要求。面對風險不斷集聚的社會環境和人民群眾日漸提高的治理需求,加快國家治理體系和治理能力現代化的步伐,不斷改善國家治理的績效是現代國家治理的必然趨勢和內在要求。國家治理績效的改善,需要在國家治理體系的構建和完善、國家治理能力的提升和強化等方面著手。人工智能深度學習算法的出現及其在現代國家治理中的深度應用有利于不斷豐富和完善現代國家治理體系,提升和強化國家治理能力。首先,在國家治理體系的構建和完善上,具有深度學習算法的人工智能系統正逐漸成為國家治理體系中的重要主體之一。例如,浙江省杭州市在城市交通治理中所使用的城市大腦系統,就是一款由阿里巴巴公司研發的擁有深度學習算法的人工智能系統,該系統通過對與其連接的交通信息系統提供的數據信息進行快速的處理和分析,可以適時地調整和優化杭州市各大路口的交通信號,使得城市交通通行狀況得以大幅提升。其次,在國家治理能力的提升和強化方面,傳統的國家主要依靠有限的決策信息和決策者的經驗來制定和選擇政策方案,政策問題界定的些許偏差往往會直接影響到整個政策議程的成敗,受制于時間等因素的限制政策方案的試驗難以有效執行。而深度學習算法在現代國家治理中的應用,可以在政策問題的準確界定、政策方案的科學設計和合理優化、模擬政策執行的過程與結果以有效規避政策執行風險等方面發揮重要的作用,使得國家治理能力得到切實有效的提升和強化,實現國家治理績效改善的目標。
深度學習算法的出現和快速發展,不僅帶來了人工智能技術從弱人工智能時代向強人工智能時代的跨越,推動了人工智能應用場景的不斷拓展和應用程度的不斷加深,更對現代國家治理格局和國家治理秩序產生了深刻的影響,“人類正在進入一切皆可計算的時代”①徐恪:《算法統治世界——智能經濟的隱形秩序》,北京:清華大學出版社,2017年版,第323頁。。先進的治理技術是一把雙刃劍,“技術上最偉大的勝利與最大的災難幾乎并列”②[瑞士]漢斯·昆:《世界倫理構想》,周藝譯,北京:生活·讀書·新知三聯書店,2002年版,第16頁。。算法在國家治理中的深度應用,在降低國家治理成本、提高國家治理能力和改善國家治理績效等方面呈現出積極成效的同時,也由于算法技術自身的不完備性③黃博文:《算法不完備性及其治理——以互聯網金融消費者保護為中心》,《西南金融》,2018年第8期。,使得我們可能將會面對算法黑箱、算法歧視、算法獨裁、算法戰爭等現實或潛在的隱憂,在未來的國家治理體系中人類也可能面臨被人工智能取代而漸趨邊緣化的風險。
算法屬于計算機科學的概念范疇,作為人工智能的兩大基石之一,人工智能算法是特定的設計者和研發者設計出來用于完成特定任務的程序和指令的集合。弱人工智能與強人工智能的劃分標準,主要就取決于人工智能擁有的算法是否具備根據數據集自主生成作業指令的能力。人工智能技術在自20世紀50年代初出現之后的很長一段時期內沒有太大的進展,主要原因在于人工智能的算法始終停留在監督學習算法階段,人工智能機器不具備自主學習和強化訓練并自主生成行動指令的能力。深度學習算法的出現,使得人工智能機器具備了根據數據集來自主學習和強化訓練的能力,可以依據特定的應用場景的變化來自動生成作業指令。深度學習算法的出現,拓展了人工智能的應用場景,但也因為深度學習算法的設計和應用存在不可解釋性,使得算法在應用過程中不同程度地存在算法黑箱的問題。算法黑箱的出現,主要源于算法設計的不可解釋性和算法自主生成指令的不可解釋性兩個方面。
首先,由于算法設計和研發過程存在不可解釋性,致使算法黑箱易于生成并引發諸多不確定性風險。“計算機系統隱含的偏見和利益取向多年前就已引起廣泛關注。多項研究均顯示,軟件產品具有隱蔽性的特征,特定的權力結構、價值觀和意識形態已經事先被嵌入其中。在軟件的遮蔽下,‘有限性、許可、特權和障礙’等限制不易被人察覺。”④張淑玲:《破解黑箱:智媒時代的算法權力規制與透明實現機制》,《中國出版》,2018年第7期。人工智能算法從本質上來說是執行特定任務的程序和指令的集合,算法的設計者和研發在設計和研發算法時,不可避免地會將自己的偏好和意圖植入到算法中去,使得算法在運行過程中能夠按照設計者預設的價值和意圖來不斷地生成新的指令,以完成特定的治理目標。例如,在政治領域,“人工智能算法和大數據兩者結合可形成一種強有力的政治武器,可用于影響甚至是操控選民的輿論,進而可能引發政治風險”①魏強、陸平:《人工智能算法面臨倫理困境》,《互聯網經濟》,2018年第5期。。如果算法具有可解釋性,其他主體可以很清晰地看出算法中植入的特定價值取向和利益企圖,進而可以采取相應的措施來有效規制,打開算法黑箱。但是,由于現有的絕大部分人工智能深度學習算法的設計和研發過程是處于不公開的狀態,沒有開源的算法指令缺乏可解釋性,從而導致算法在其技術外表之下潛藏著特定設計者和研發者的價值取向和利益企圖,算法設計者和研發者可以很輕松地以技術的外衣來掩蓋運作的黑箱,進而實現自己特定的利益企圖。
其次,深度學習算法在具體的應用過程中自主生成的算法指令存在不可解釋性,也會引發算法黑箱的生成。與人工智能的各種類型的監督學習算法不同,深度學習算法具備在脫離人類的情況下自主完成學習和強化訓練的功能,進而形成根據具體的外部場景來自動生成新的算法指令來完成特定的行為或任務。如果說算法在設計和研發階段的不可解釋性所引發的算法黑箱問題,是因為算法的設計和研發環節的不透明導致的,通過引進必要的算法研發透明機制是可克服和避免的,那算法在具體的應用過程中產生的不可解釋性和算法黑箱問題就是由人工智能系統自身生成的,是在脫離人類控制的狀態下引發的,人類對其很難解釋和控制,這也正是最值得人類擔憂的算法黑箱類型。
算法的設計和運行主要依據供算法訓練的數據所表達的信息。數據是對既往發生的事件和行為等進行的客觀記錄,特定的數據會給特定的國家、地區、人群、種族、民族、職業等賦予特定的特征,這些特征就成為算法在應用過程中對這些國家、地區、人群、種族、民族、職業等進行自動識別的依據并作出相應的評判結果。因此,數據是算法進行治理的重要依據,而要確保人工智能機器自動生成的算法及其運行過程是公平公正的,那首要前提就是確保數據的收集是真實且全面的,虛假的數據和來源不全面的數據是很難保證算法在國家治理中應用的公平和公正的。同時,由于“算法及其決策程序是由它們的研發者塑造的,在細節上滲透著研發者的主觀特質”②汝緒華:《算法政治:風險、發生邏輯與治理》,《廈門大學學報》(哲學社會科學版),2018年第6期。,從而使得算法歧視和算法偏見也很難避免。具體來看,算法歧視的產生主要源于以下三個方面。
首先,算法設計者和研發者的偏好和意圖會誘發算法歧視。算法是特定的設計者和研發者負責完成的,算法設計者和研發者的偏好和意圖會被植入到算法指令中去,進而引發算法歧視的出現。例如,美國部分地區法院在利用犯罪風險評估算法COMPAS來進行犯罪風險的預測和評估時發現,該算法判定的黑人犯罪的概率是白人的兩倍,從而造成對黑人的不公正的歧視。這一結果的出現,主要源于在美國既有的犯罪數據中黑人的犯罪率明顯高于白人,如果用一個群體數據所揭示的特征來推定該群體中的成員必然具有該類特征,對于該個體來說肯定是不公正的。
其次,數據系統的歧視會導致算法歧視。“數據在本質上,是人類觀察世界的表征形式”,由于“人類文化是存在偏見的,作為與人類社會同構的大數據,也必然包含著根深蒂固的偏見。而大數據算法僅僅是把這種歧視文化歸納出來而已”。③張玉宏、秦志光、肖樂:《大數據算法的歧視本質》,《自然辯證法研究》,2017年第5期。大數據時代的到來,改變了傳統數據時代數據采集、存儲和處理成本高、難度大的不足,海量的大數據使得人類在判斷特定群體自身和與其相關聯的特定行為和事件時,不再受制于因果關系的約束,接近全樣本的大數據成為人類決策和行為的主要依據。“大數據掌控者們借助越來越智能化的算法分析和利用著我們的數據,開發著靠數據化的人類經驗喂養的人工智能產品,在為我們的生活提供越來越多便利的同時影響著我們的選擇和決策,并在此過程中積累起日益膨脹的財富、技術和人力資源。”①鄭戈:《算法的法律與法律的算法》,《中國法律評論》,2018年第2期。但是,我們也要注意到大數據的數量雖然多但畢竟不是全樣本,部分沒有被采集到的數據可能是對人類的決策和行為有重大影響的關鍵數據。同時,供人工智能算法訓練并自動生成新的算法指令的數據庫的很多參數是受特定的主體控制的,這些控制數據的主體可以在數據的采集對象、采集范圍、采集標準和采集時間等參數上依據特定的偏好和意圖進行設置,進而影響算法運行的結果,體現特定主體意圖和偏好的數據采集使得算法運行的結果存在針對特定國家、地區、種族、民族、群體和職業等歧視和偏見的可能。
最后,數據鴻溝導致的算法歧視。在大數據時代,個體已經成為被數據算法定義的數據人②馬長山:《智能互聯網時代的法律變革》,《法學研究》,2018年第4期。。但是,大數據時代的數據鴻溝問題也非常突出,還有少部分群體因為行為習慣的原因,其自身生產的數據非常有限,算法很難據此對其個體特征和行為偏好進行判定,也可能會導致算法歧視和算法偏見的出現。例如,金融系統在利用算法來評估客戶的信用狀況并據此來判定授予多少信貸額度時,如果該客戶很少有金融交易行為產生,那么算法很有可能將該客戶判定為信用等級偏低致使該客戶失去貸款資格。據中國人民銀行的數據顯示,截止到2017年5月底,中國人民銀行的征信系統共收錄了9.26億自然人的信息,還有約4.6億自然人信息沒有收錄或者沒有相應的交易信息。
深度學習算法的技術突破,使得人工智能的應用場景大大拓展,智能時代的人類生產、生活、社會交往和國家治理都發生了深刻的變革,很多原本需要人類完成的繁重的勞動都可以交由人工智能機器來完成,人類離實現自由而全面發展的目標又更近了一步,人類的解放和理想社會的實現變得可期③高奇琦:《人工智能、人的解放與理想社會的實現》,《上海師范大學學報》(哲學社會科學版),2018年第1期。。但是,在人工智能時代,伴隨算法應用場景的不斷拓展和應用程度的不斷加深,國家治理的主導權正逐步“從人手中轉移到算法手中”④[美]克里斯托弗·斯坦納:《算法帝國》,李筱瑩譯,北京:人民郵電出版社,2017年版,第197頁。,算法的權力屬性正逐漸呈現出來。“算法權力是一種人工智能技術平臺的研發者和控制者在人工智能應用過程中,利用自身在數據處理和深度學習算法上的技術優勢而生成的對政府、公民、社會組織等對象擁有的影響力和控制力。”⑤陳鵬:《算法的權力:應用與規制》,《浙江社會科學》,2019年第4期。因此,我們在為人工智能算法取得重大突破感到欣喜之余,也要正視掌握核心算法設計和研發技術的主體可能會利用算法來推行技術霸權甚至是實現算法獨裁的可能。“算法權力從表象上看是一種技術權力,但其背后潛藏著控制算法設計和研發過程的資本的權力,而且在不遠的將來,算法權力有可能會脫離人類的掌控并演化成人工智能對于人類的技術優勢甚至是霸權。”⑥陳鵬:《算法的權力:應用與規制》,《浙江社會科學》,2019年第4期。
在人工智能時代,數據和算法在經濟發展和國家治理的重要性日漸凸顯,“掌握了數據就意味著掌握了資本和財富,掌握了算法就意味著掌握了話語權和規制權”⑦馬長山:《智能互聯網時代的法律變革》,《法學研究》,2018年第4期。。而從目前算法的設計和研發格局來看,主導算法特別是核心算法設計和研發的主體主要集中在少數發達國家的少數幾家企業。相比之下,在國家治理中對深度學習算法智能平臺利用較多和依賴較深的主權國家等主體,在算法的設計和研發上不僅缺乏主動的意識,也缺乏必要的投入,進而處于算法技術上的劣勢。這些企業通過在人工智能算法及其相關技術的巨大投入,已經完成了人工智能底層模塊的搭建工作,所有的人工智能應用系統和計算過程都需要依賴于這些底層模塊。掌握了人工智能底層模塊的企業,不僅建立起對公民、企業、社會組織和主權國家的技術優勢,而且也很輕易地就能獲取公民、企業、社會組織和主權國家在應用這些模塊過程中產生的各種類型的數據,數據的優勢和算法技術優勢的疊加,更加催生了少數企業利用算法推行數據霸權和算法獨裁的可能。
人工智能深度學習算法的重大突破,是科學技術發展歷史上的重大突破。與其他類型的技術變革和技術創新主要是處在人類可以控制的狀態下生成和發展不同,伴隨人工智能深度學習算法的不斷發展和日漸成熟,人類已經愈發難以控制這種技術在實踐應用中的安全邊界,算法戰爭便是算法在應用過程可能會引發的給傳統安全和國家主權帶來巨大沖擊的隱憂之一。算法戰爭主要體現在算法使得很多不是武器的物理實體變成武器和算法成為發動戰爭的手段之一。
首先,算法對武器的內涵和外延進行了重新界定,許多原本不是武器的物理實體經過算法的驅動可能會成為攻擊性的武器,戰爭的風險急劇增加。武器是戰爭雙方進行較量并決定最后誰能取勝的重要因素,加強武器裝備技術的研制是現代國家取得戰爭優勢的重要保障。從冷兵器時代到熱兵器時代再到現代的核武器時代,武器裝備的性能和殺傷力雖不斷增強,但是武器的類型并未發生多大的變革。可是,進入到人工智能時代之后,之前完全由人類來操作的武器開始變得智能化,這些“具有指揮高效化、打擊精確化、操作自動化、行為智能化等特點的人工智能武器,可以‘有意識’地尋找、辨別需要打擊的目標,它同時具有辨別自然語言的能力,是一種‘會思考’的武器系統”①鄭戈:《算法的法律與法律的算法》,《中國法律評論》,2018年第2期。。同時,將普通的物理實體安裝上帶有深度學習算法的智能系統后,瞬間就可以將其變成攻擊性的武器,使得戰爭發生的風險急劇增加。例如,汽車是交通工具,但是無人駕駛的汽車可以成為攻擊對方的武器。
其次,算法會改變現有人類對戰爭內涵和外延的界定,算法戰可能會成為繼軍事戰、貿易戰之外的一種戰爭形式。傳統意義上的戰爭主要是指軍事戰,此后貿易戰也逐漸成型。但是,人工智能時代的到來和深度學習算法的重大突破,使得技術戰爭正逐漸成為主權國家之間戰爭的重要類型之一。在不久的未來,“伴隨著自主武器系統‘自主’性能的逐步提高,機器算法或將取代人本身而成為軍事行動的實際決策者和執行者,從而開啟‘致命決策的去人類化’進程,傳統戰爭形態也或將由目前的‘人與人之間的相互傷害’模式演變為‘人機大戰’或‘機器人之間的相互殺戮’”②董青嶺:《新戰爭倫理:規范和約束致命性自主武器系統》,《國際觀察》,2018年第4期。。而且,戰爭的雙方也將由可能從傳統的兩個或多個主權國家或地區變成企業與主權國家。一方面,掌握核心算法技術優勢的少數發達國家可以利用自身在算法和數據上的技術優勢,對算法和數據上處于劣勢的廣大發展中國家發動技術戰爭,以實現特定的原本需要依靠發動軍事戰爭或貿易戰爭才能獲取的利益。另一方面,少數掌握核心算法技術優勢的超級企業,可以利用自身在算法和數據上的技術優勢發動對主權國家的技術戰爭,通過建構起資本對主權國家的技術優勢來實現特定的利益意圖。
人工智能深度學習算法的重大突破和在國家治理中應用場景的不斷拓展,在豐富現代國家治理體系的同時,更有效地降低了國家治理的成本和難度,有利于提高國家治理的精準性和改善國家治理的績效。但同時,我們也要注意到,伴隨深度學習算法在現代國家治理中應用程度的不斷加深,人類對人工智能和深度學習算法的技術依賴正不斷加深。一方面,面對日趨繁雜的治理任務,治理主體有依賴技術來提升治理效率和降低治理難度的內在需求,進而為技術在國家治理中的嵌入提供了強大的驅動力。另一方面,治理主體在責任承擔上的“避責”心理,也驅動著技術在治理中應用范圍的不斷拓展和應用程度的不斷加深。伴隨人工智能時代的到來,算法在治理中應用不斷加深,“智能治理會加劇‘動因漂移’現象,即將很多問題交給智能技術處理,出現問題的時候則可以將責任推給技術設備,此時責任問題變成了應該升級智能設備、程序和算法的問題”①劉永謀:《技術治理、反治理與再治理:以智能治理為例》,《云南社會科學》,2019年第2期。。
技術治理是國家治理的手段之一,人類對于技術手段的更新和技術治理的發展本無需擔憂,但具備深度學習算法的人工智能在國家治理中的應用,不同于一般的治理技術手段的更新。在國家治理中的具備深度學習算法的人工智能,不僅僅是一種治理的技術和手段,它具有一定的自主意識且這種自主意識會伴隨人工智能技術的不斷發展而更趨成熟,人類對人工智能依賴的程度也隨之不斷加深,智能治理正逐漸成人類利用人工智能來治理變成人工智能來自主治理,智能治理時代的人類在國家治理體系中的地位面臨被邊緣化的可能,在不久的將來人工智能可能取代人類成為國家治理和全球治理的中心,而人類也將極有可能從原來的治理主體演變為治理的對象。
算法和數據是人工智能的兩大基石,深度學習算法的重大突破和大數據時代的到來以及云計算技術的快速發展,使得人工智能算法在現代國家治理中應用程度不斷深化,給國家治理體系的完善和治理能力的現代化帶來了前所未有的機遇。但同時,由于控制算法研發和設計的資本憑借自身在算法和數據上的技術優勢,會將自身特定的價值偏好和利益意圖植入進算法,由此引發算法黑箱、算法歧視和算法獨裁問題。此外,伴隨算法自主決策能力和獨立意識的不斷增強,在不久的將來人類可能會逐漸失去對智能算法的控制進而引發算法戰爭的風險,人類在國家治理和全球治理體系中也面臨被邊緣化的可能。因此,以現實問題為導向的全球治理研究逐漸成為新趨勢②薛瀾、俞晗之:《邁向公共管理范式的全球治理——基于“問題—主體—機制”框架的分析》,《中國社會科學》,2015年第11期。。面對算法在國家治理中的深度應用所帶來的機遇和可能會引發的隱憂,如何在推動算法技術不斷發展和完善的同時加強對算法及其應用的規制,以實現技術發展與社會安全的平衡,是值得智能時代的人類深思的課題。而明確算法作為治理手段的定位、增強算法的可解釋性和運行過程的透明性、在算法設計和運行全過程中嵌入算法倫理、明確算法應用的安全邊界和構建全球算法治理機制等是實現對算法有效治理的基本進路。
科學技術是第一生產力,人類社會進步和發展的歷史在一定程度上就是科學技術不斷向前演進和發展的歷史。治理技術手段的不斷進步,是國家治理水平和治理能力提升的重要保障。深度學習算法等先進的技術治理手段在提升國家治理中的嵌入,在幫助降低國家治理難度、節約國家治理成本和改善國家治理績效等方面的收效比較顯著,但同時也易于使人類陷入技術依賴的困境。國家治理是技術治理與價值治理的有效結合,很多國家治理事務的處理涉及到多元治理主體和治理對象之間的價值取向的沖突和利益訴求的博弈,單純依靠技術手段是不可能解決的,技術治理僅僅是價值治理的輔助,治理技術不能取代更不應該取代治理主體在國家治理中的主體地位。因此,伴隨人工智能算法在現代國家治理中嵌入程度的不斷加深,我們需要堅持工具理性和價值理性平衡的原則,明確人工智能算法是技術手段而非治理主體的定位,要清醒地認識到再先進再智能的算法只能是國家治理主體借助于降低治理難度和提升治理效率的工具而已,不能不加約束地任由其在國家治理中發揮作用,更不能產生對算法的技術依賴甚至是算法崇拜,將算法在國家治理中的應用范圍和應用程度控制在人類可以掌控的范圍之內。
算法是一定的主體設計和研發出來用于完成特定任務或實現特定目標的程序和指令的集合。算法的運行就是依據特定的程序和指令來運作的過程,從技術角度來看算法本身是不會產生黑箱的。但由于算法的設計和研發過程是不公開的,算法語言大多處于不可解釋的未開源狀態,除了算法的設計者和研發者等特定主體,其他人是很難理解算法的設計和運行過程的,算法黑箱的問題也就難以有效破解。而且,伴隨深度學習算法技術的日漸成熟,算法在應用過程中會不斷地自主生成行動指令,算法的設計者和研發者對自主生成的算法指令也越來越難以解釋,算法黑箱及由此引發的治理風險將隨之不斷增大。對此,需要出臺相關的法律法規,對算法的設計和研發主體的設計和研發行為進行嚴格的規范和約束,要求相關研發主體在不涉及到核心商業機密的前提下盡可能公開算法設計的原理和目的,加大開源算法的研發比例,增強算法的可解釋性,確保算法運行過程處于透明的可監控狀態,最大限度地消除算法黑箱及其帶來的不確定性治理風險,讓“那些對結果抱有懷疑的人可以掀開‘引擎蓋子’看個究竟”①[美]弗蘭克·帕斯奎爾:《黑箱社會——控制金錢和信息的數據法則》,趙亞男譯,北京:電子工業出版社,2015年版,第262頁。。同時,為了有效應對人工智能算法最終脫離人類控制而誘發危及人類生存的風險,相關法律和法規需要明確人工智能算法需要加入人工智能自我終結機制,在危及到人類生存的風險產生時,人工智能會自行終結,以最大限度地保護全人類的安全。
從技術層面來看,作為程序指令集合的算法本身是不會有任何偏見和歧視的。但由于算法的設計和研發主體在設計和研發算法的過程中植入了特定的偏好和意圖,致使絕大多數算法從誕生之日起就是存在特定的價值預設和利益傾向,應用這種算法在運行過程中所產生的判斷和運行的結果必然是帶有一定的針對特定地域、群體、種族、民族、職業的偏見和歧視的。而且,伴隨深度學習算法在實際運行過程中不斷自主生成新的算法指令,使得特定的算法偏見和算法歧視在應用實踐中不斷被強化。對此,必須要構建相對完備的算法倫理,將之嵌入到算法設計和算法運行的全過程中,以最大限度地避免算法偏見和算法歧視的產生。目前,美國和歐洲等國家和區域已經開始在算法倫理的編制上開始付諸行動并取得了一定的成果。例如,美國計算機協會于2017年1月發布了包含七個方面的算法倫理原則,分別是利益相關者責任、救濟機制、算法使用機構責任、鼓勵可解釋算法研發、數據治理、算法審查要求、實時檢查責任。相比之下,我國在算法倫理的構建和嵌入上還比較滯后。國務院在《新一代人工智能發展規劃》中明確提出,要建立人工智能的倫理規范體系。為此,在算法應用的規制和治理上,我們在注重技術層面對算法的發展和規制進行有效平衡的同時,需要盡快成立國家層面的人工智能倫理委員會,出臺相關的算法倫理標準規范,用于規范和約束算法的設計和運行過程,盡最大可能地消除算法偏見和算法歧視。
伴隨大數據和人工智能時代的到來,數據和算法的權力特性日漸凸顯,算法技術對各主權國家之間的競爭態勢和資本與國家之間關系格局的演變產生了深刻的影響。掌握數據和算法技術優勢的少數發達國家對廣大發展中國家的競爭優勢更加明顯,而“由于缺乏相應技術積累,發展中國家并沒有充分有效的方式保護自己的數據安全,也沒有足夠的能力應對算法所帶來的干涉。人工智能技術的進步將進一步凸顯其在政治安全領域的脆弱性特征,傳統的國家政治安全將面臨嚴峻的考驗”①封帥、魯傳穎:《人工智能時代的國家安全:風險與治理》,《信息安全與通信保密》,2018年第10期。。同時,擁有核心算法技術和數據存儲處理優勢的少數企業正逐步構建起對主權國家的權力優勢,算法獨裁和算法戰爭的風險正逐步臨近。“針對人工智能技術的兩大重要基礎——大數據和算法,很難形成以國家為界的封閉式治理,其天然涉及到一系列跨境治理議題。”②俞晗之、王晗曄:《人工智能全球治理的現狀:基于主體與實踐的分析》,《電子政務》,2019年第3期。因此,面對算法在國家治理中應用場景的不斷拓展及其可能出現的算法獨裁和算法戰爭等隱憂,構建由主權國家、國際組織參與的全球算法治理機制非常必要。一方面,主權國家、國際組織要加大在算法研發、應用以及應對和防范算法獨裁方面的技術合作力度,積極推動全球范圍內的算法研發和運行透明機制的建立,將算法應用過程中可能出現的風險控制在人類可以預見并能有效應對的范圍內。同時,各國應該本著為人類終極命運負責的原則,為算法的和平利用達成相應的國際協議,推動算法研發和算法應用等問題上的公正的國際秩序的建立。另一方面,推動能夠為國際社會所接受的有關算法設計、研發和應用過程的法律規則、倫理準則和道德規范的制定,要以此來嚴格規范和約束資本在算法研發和使用上的行為空間,明確算法應用的邊界,防止和抑制算法獨裁現象的出現。