999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能嵌入政府治理的倫理風險及其防控

2021-03-30 06:51:32譚九生楊建武
探索 2021年2期
關鍵詞:人工智能

譚九生,楊建武

(湘潭大學 公共管理學院,湖南 湘潭 411105)

人工智能技術以其顛覆性、革命性發展正引領人類邁向智能時代。人工智能是建立在現代算法基礎上,以數據為支撐而形成的具有感知、推理、學習、決策等思維活動并能夠按照一定目標完成相應行為的計算系統[1]。人工智能的本質是依據深度學習對海量數據進行統計分析與行為模仿的人造智能,數據、算法與算力構成了人工智能的技術核心。人工智能發展為提升政府治理能力帶來新契機,政府應用人工智能提升治理效能,是更好滿足人民美好生活需要和夯實政府治理正當性的基礎。然而,人工智能技術的不確定性、政府治理結構的復雜性以及技術應用不當等因素,也會觸發諸如算法歧視、隱私安全、自主性弱化、參與極化、責任模糊等倫理風險。這些問題影響公眾對政府治理價值的認知,削弱政府治理的正當性,反而可能成為政府治理現代化的阻滯因素。習近平指出:“要加強人工智能發展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控。”[2]因此,研究人工智能嵌入政府治理的倫理風險及其防范,對發揮人工智能的價值、建設人民滿意的服務型政府具有重要的理論和現實意義。

隨著人工智能技術的突破性發展,目前學界針對人工智能及其倫理風險已有所研究。一是研究人工智能的倫理風險。西方學界主要集中關注智能機器道德性及其實現[3],機器設計[4]1-7、應用以及與人類相處等智能責任問題[5]ⅶ-ⅷ,由此也引發對智能技術使用中存在的公平正義[6]171-182以及隱私的關注[7]101-128。國內學者聚焦人工智能如何導致倫理風險:數據自身偏見、大小樣本的地位懸殊、敏感屬性都會導致算法歧視[8];機器人沒有能力承擔全部道德責任[9],引發人工智能的責任歸屬與隱私安全問題[10]。二是研究人工智能嵌入政府治理的倫理風險。西方學者重點從隱私安全[11]187-201、社會公平[12]等層面探究人工智能引發的政府治理倫理風險。國內學界主要從政府合法性、政府信息安全、公共責任界定等方面,探討人工智能嵌入政府治理的倫理風險。比如,人工智能回應公民政務咨詢將挑戰政府權威性和合法性[13],人工智能的嵌入可能引發新的政府信息安全問題[14],政府公共行政過程中人工智能難以確立主體地位[15]。

從已有研究來看,一方面沒有明確區分人工智能嵌入政府治理倫理風險的指涉對象,即行政倫理或社會倫理;另一方面缺乏對人工智能嵌入政府治理的倫理風險生成機理的探析。鑒于此,本文著重探討兩個問題:一是人工智能嵌入政府治理會產生何種倫理風險,二是人工智能嵌入政府治理的倫理風險是如何生成的。本文的核心關注點在于從技術理性與價值理性二元互動視角,詮釋人工智能嵌入政府治理的倫理風險樣態、生成機理以及防范策略。

1 技術、價值與實踐:人工智能嵌入政府治理的內在邏輯

隨著大數據、云計算、物聯網、機器學習等核心技術的蓬勃發展,人工智能實現從簡單邏輯推理向自主性、智能化的快速轉換。而智能技術群創新的整體推進,推動著政府治理日益智能化。技術的更新迭代為人工智能嵌入政府治理提供了可能,而政府為維護其合法性、改善其功能需求必須吸納人工智能技術,從而滿足人民美好生活需要。從應然與實然角度來看,政府治理與技術吸納實質是一種雙向互動關系,這構成了人工智能嵌入政府治理的內在邏輯(如圖1所示)。

圖1 人工智能嵌入政府治理的內在邏輯

1.1 從網絡連接到智能融合的技術邏輯

技術作為生產力中最為活躍的要素,持續推進的技術變革不斷推動生產力發展,繼而引起社會生產關系與經濟基礎的大變革。從人類對技術運用的邏輯來看,在某一技術的發展初期,人類習慣基于傳統理念與方式對其加以理解與運用,但隨著對技術本質與特點的理解加深,人們能在融合傳統技術基礎上創造出全新載體。人工智能嵌入政府治理的實質是政府運用人工智能,在大數據、算法以及算力等核心技術的幫助下,簡化治理復雜性,從網絡連接走向智能融合的過程。簡而言之,智能時代政府治理范式逐漸由“數據+算法+算力”模式全新定義,以數據連接的高速率化解政府治理壓力,提高治理能力。其一,基于數據集成的網絡連接從最初的機器與設備之間的連接,到縱向上突破政府不同層級間的物理阻隔,橫向上實現各職能部門的機構調整,形成互聯互通的網絡社會,有效解決政府信息連接問題。數據如同奔流在信息高速公路上的車輛,極大提高政府公共服務傳遞效率。其二,人工智能所擁有的機器模型、云計算、神經網絡等技術,為處理政務大數據提供技術可能,能將非結構化數據轉換為結構化數據,并借助于算法與算力分析不同數據間的關系,將公共領域海量化、碎片化的數據進行智能融合,并轉換為可以進行預測以及探尋規律的規則、關系和模式等資料,以技術體系的解構與分化重塑政府治理方式。其三,算力則為數據整理與算法運行提供硬件支撐。近年來,以圖形處理器、云計算、泛在計算等為代表的并行式計算模式與系統相繼出現,有效滿足快速高效的獲取數據能力、云端推理與訓練等特定計算需要。

1.2 推進政府治理現代化的實踐邏輯

政府治理是源于對公共問題的回應與解決而形成的行動網絡。處于大變革時代的政府,面對日趨繁重的治理壓力和風起云涌的技術革命,其信息處理能力與數據爆炸、公共服務能力與公共需求之間的張力日漸明顯。而全能政府模式所推崇的管理藝術與統治機制,使其對社會的影響力與控制力存在明顯局限性。面對更為繁重的治理壓力,傳統的管理與治理技術已無法滿足治理需要。正如吉登斯所言:“傳統國家本質上是裂變性的,其國家機器可以維持的行政權威相當有限。傳統國家有邊陲(包括次位聚落邊陲)而無國界,這一事實表明其體系整合的水平相對有限。”[16]63因此,政府寄希望于不斷吸納先進技術革新治理方式,補齊治理短板。政府治理現代化就是要通過運用科學方法改善治理體系,本質上提升政府治理能力,而人工智能技術的革命性發展提供了難得機遇。一方面,政府通過運用先進工具收集政務數據,并分類分配至各下級部門,以智能化方式給政府治理提供最新數據支撐,快速解決問題,從而提高治理效能。另一方面,通過運用先進算法以及云計算等工具,研判政務數據中隱藏的民意和趨勢,以此分析民眾關切點、預測民眾訴求,為政府決策與政策執行提供精準化引導。如近年來出現的杭州城市大腦系統和廈門“i廈門”智慧門戶,實現了政府治理從人工治理轉向智能治理,從單向管理轉向協同治理,從模糊治理走向精準治理。

1.3 以人民為中心的價值邏輯

正如休謨所言,任何學科最終都要回歸到人性問題[17]2。人類為了改善自身生存狀況,實現美好生活需要而借助技術展開的行政集體活動,創造了一個集價值、制度與行為于一體的人化世界——公共行政。但公共行政不僅僅是一種理論與現實的準則供給,更應關注人的問題,回到“公共行政學本質上是對人的行為的研究”這一核心議題。無疑,人的關懷是公共行政的倫理價值依歸。人類創造技術的目的在于將人從繁重的體力勞動中解放出來,使人能在更多自由時間里享受美好生活。作為對公共價值權威性分配的政府,其目標在于實現善治,以滿足社會需求,服務于人民大眾,以維護政治合法性。因此,滿足人民美好生活需要成為技術與政治共同的價值追求。人工智能規模化嵌入使政府治理能力增強得以可能,為滿足美好生活需要提供了技術支持。然而,善治不只是意味著公共秩序的穩定維護、公共物品的有效供給,更需要一種實現人的自由全面發展的價值指引,主要體現為以人民為中心。從應然角度視之,無論人工智能如何影響政府治理,其價值歸依始終是促進人類邁向美好生活。因此,從行政價值關系的主體與客體結構出發,立足于新時代我國社會主要矛盾轉換的現實國情,政府應革新政府治理價值觀念,揚棄技術決定論,從人民的生存需要、發展需要、幸福需要等方面,將人工智能視為助力公共服務、促進公平正義等公共“至善”的器物形態工具,這便是人工智能嵌入政府治理的價值邏輯。

2 人工智能嵌入政府治理的倫理風險樣態

人工智能在嵌入政府治理過程中可能因為失去倫理管控,陷入智能技術偏軌的泥潭。從本質來看,風險是潛在損益的可能性,具有客觀屬性,而倫理是處理人與人、人與社會等關系時的道德準則。因此,倫理風險實質是某種價值減損的可能性。人工智能嵌入政府治理的倫理風險,指人工智能嵌入政府治理的過程和活動給社會帶來的不確定的倫理負效應。人的尊嚴是人機關系中的最高倫理價值,在政府治理的具體實踐中,抽象的人的尊嚴可具象化為安全、公平、責任、民主等倫理價值。政府治理行為的公共性決定了其主要指涉對象是社會倫理,而非職業倫理。這種社會倫理可分為安全、公平、責任、自主以及民主風險范疇,且在具體情境中又有不同的表現形式,構成了動態分層的倫理風險體系。

2.1 隱私侵犯:安全風險的聚焦點

一般而言,安全是人在獲得或維護權利過程中心理與身體不受侵犯的狀態。當前,安全已成為公民個體基本生活價值訴求,也是政府治理的重要目標。為提高治理能力,政府愈發引入人工智能。如面對日益繁重的治安防控壓力,南京、杭州等地區公安機關著力打造“智慧警務”。也有諸多政府打造智慧政務,將政務服務數據化,并借助人臉識別等技術實現“無人干預自動審批”。但應看到,在具體治理實踐中人工智能是建立在海量數據之上,既需收集電話號碼、精準位置、個人愛好等個人社交數據,也需收集人臉、聲音、虹膜等生物識別數據。由于數據采集不當、數據存儲不安全、算法安全漏洞、智能平臺技術短板等原因,這些數據容易遭到泄露、篡改,給個人隱私、人身、財產、就業等造成安全風險。據媒體報道,主研人臉識別布控系統且與多個地方政府、公安部門開展智能安全合作的深圳深網視界公司,在2019年2月發生超過250萬人的數據可被獲取、680萬條記錄泄露的大規模數據泄露事件,其中涵蓋了諸多身份證信息、人臉識別圖像及捕捉地點等極其隱私的數據[18]。2019年5月,美國巴爾的摩市政系統遭到黑客攻擊長達數周而未恢復,黑客通過勒索軟件直接綁架市政系統,并要求政府提供相應贖金,否則讓系統內所有數據永遠丟失,而在美國聯邦調查局官員卡爾·加塔斯看來政府越來越過分依賴人工智能機器學習,而又疏于安全風險防范,才造成如此安全事故[19]。

2.2 公正損益:公平風險的引爆點

在倫理層面公平主要蘊含平等和均衡之義,強調無排他性的分配與認可,公平始終是人類社會發展的永恒價值追求。然而,人工智能嵌入政府治理可能造成公平的損益。一是算法歧視。開發者潛在的價值偏見,加上智能算法規則存在的程序、過程的不透明、不公開等技術黑箱缺陷,對社會公平形成挑戰[20]。漢娜·弗萊(Hannah Fry)認為,算法是一種新的理解人與機器之間的關系,她通過分析社會生活中的案例,發現社會日益依賴算法帶來的重大決策自動化,并揭示了算法偏見是如何嵌入代碼中及其對人類社會倫理產生的負面影響[21]73-90。英國杜倫郡警察和計算機科學學者一直在運用人工智能系統開發危害評估風險工具“HART”,以預測嫌疑人繼續犯罪的風險。然而,警方在開發此工具時,將郵政編碼作為其建構風險預測的因子,區別對待窮人、富人,“涉嫌”歧視窮人[22]。這一算法黑箱所引致的種族、階層等歧視,對社會公平造成一定破壞。二是階層分化。智能革命革新政府治理理念與方式,也改變人類生活方式,將個人不斷拉進智能化社會,塑造數字自我。然而,智能時代公眾得以參與政府治理的數據權利并非人人擁有。根據第45次《中國互聯網絡發展狀況統計報告》顯示,截至2020年3月,我國網民規模為9.04億,互聯網普及率為64.5%[23]。以此視之,我國仍有接近5億民眾沒有接觸網絡,即使算是已有的9億多人也不能保證能有足夠的資源或技能了解和運用人工智能。事實上,智能科技巨頭幾乎擁有與政府相同甚至更強大的數據收集與處理能力。這些有影響力的智能科技寡頭可能會阻礙本已稀缺的數據權利流向普通階層,使雙方在發展能力、資源占有程度與社會影響力等方面存在巨大差距。這種不平等與不對稱加大了不同層級間的失衡[24]31,造成“智能鴻溝”,形成新智能權利的“富人”與“窮人”。

2.3 責任模糊:責任風險的凸顯點

責任是倫理的本質所在,主要強調個體分內應做的事情,并對自己行為負責。公共行政之維的責任是指因身份或職位而被賦予的職責。人工智能在實現政府治理的責任時存在的責任風險也是其所面臨的倫理困境之一。一是責任主體模糊。人工智能時代,表征為過失責任追究的傳統機械式責任倫理規則,無法有效應對人工智能技術模糊性帶來的責任倫理劃分[25]。巴特亞·弗里德曼(Batya Friedman)認為,盡管大多數研究者意識到計算機的識別算法和確定性性質缺乏相應的“人”意志,但仍約有20%的研究將責任歸咎于機器的錯誤[26]。人工智能嵌入政府治理涉及設計者、使用者,加之人工智能本身具有模糊性,倘若使用過程中造成隱私數據泄露乃至財產損失,確定責任主體存在較大困難。比如,運用人工智能輔助政府決策,但決策并非單個個體行為,而是多重合力作用下的結果,權力轉移中出現的裂縫使得歸責與問責愈發困難。二是責任邊界模糊。維護公共秩序、提供公共產品、滿足人民需要是政府治理的本職所在,而在弱人工智能階段,人工智能僅是政府治理的輔助手段而不是治理主體。因此,政府與人工智能間應達成“政府的歸政府,技術的歸技術”和諧關系,不可出現責任越位、轉讓等現象。然而,在實踐中二者的責任邊界往往糾纏不清。2019年,美國加州議會通過議案禁止警方在人體攝像頭上使用面部識別技術,此舉在力圖減少執法歧視問題外,還意在提醒警方智能技術僅用于縮小嫌疑人范圍而不是自行決定逮捕誰[27]。

2.4 技術依賴:自主風險的誘發點

從倫理視角來看,人的自主性強調人是具有自我價值判斷和自主選擇的道德主體。人工智能的顯著特點是機器的自主學習,能模擬或替代政府行為,使政府治理從經驗向數字、從被動向自主模式轉變。然而,人工智能技術在優化政府治理時又使得公務人員形成技術依賴,阻礙自主人格形成。一是技術依賴損害決策自主性。越來越多的政府正不斷升級識別技術,將智能識別機器廣泛用于維護公共安全,試圖以技術性思維取代制度性思維,使行政人員成為依附于智能機器的齒輪,等待技術提供“最優決策”,而不是思考應遵循何種價值觀與程序決策。二是“技術和技術平臺的確能夠以‘躍進’的方式提升體制效率和體制韌性,但是這種提升效應是短期的,不僅難以持續,而且還會造成體制的長期固化”[28]。政府通過不斷增設專門機構吸納人工智能嵌入,試圖在短期內大幅提升治理能力,但層層增設機構使“組織變成一個巨大的機器,緩慢且笨重地在最初確定的方向上蹣跚前進”[29]130,反而制約了行政人員管理與組織的自主性。三是技術依賴影響自主性行政人格的形成。人工智能技術嵌入政府治理在一定程度上將行政人員從事無巨細的繁重工作中解放出來,并創造出某種“舒適區域”。但這如同溫水煮青蛙,造成眾多行政人員逐漸將自己與數據和算法捆綁,過分依賴人工智能技術,擠兌行政自主的空間與基礎,抑制從政府治理實踐中獲得進化的能力,遇事先求助于智能技術,而非主動思考解決。

2.5 參與弱勢:民主風險的關鍵點

在理論層面民主更多被闡釋為一種制度安排和政治體制。在價值層面,民主主要強調公平,有機會參與決策。政府治理是一個科學化、民主化過程,而民主正是其本質特征所在。政府運用人工智能解構政府與社會的傳統關系,拓寬了民主的廣度、深度、幅度。然而也存在民主風險。一是技術主導下的公民參與弱化、分化。受晦澀難懂的專業知識限制,人工智能技術始終被少數具有專業知識的專家所掌握,并形成技術精英群體。技術精英群體了解人工智能技術,更易接近政府權力中心,憑借專業知識擁有對政府治理的強大話語權,容易使政府治理不建立在“普通公民”基礎之上[30]307。而因知識與經驗等差異,碎片化的普通民眾甚至無法理解何為智能技術,更遑論參與治理對政府決策施加影響。如此一來,反而變相提高了參與門檻,導致公民參與弱化、分化。二是治理權力技術化、資本化催生“超級權力”。面對不斷增加的治理壓力以及對智能技術的不熟悉,政府愈發依賴甚至不得不將部分特定治理權力讓渡于優勢企業,而人工智能的復雜性以及科技企業的優勢,使得企業在部分技術治理標準制定中擁有絕對話語權[31]。更可怕的是,這些優勢企業憑借對智能技術創新的壟斷地位,能保持對智能技術的持續擴張,不斷強化其壟斷地位,逐漸形成能操縱政府治理的“超級權力”,這實則是反民主的表現。

3 人工智能嵌入政府治理倫理風險的生成機理

揭示人工智能嵌入政府治理的倫理風險生成機理,在很大程度上能有效解釋倫理風險為何以及如何生成的演化邏輯,這也是風險防控的樞紐。人工智能嵌入政府治理的倫理風險是一個有機系統,其生成是多重因素共同作用的結果,除了系統內的源發性和觸發性等基本因素外,還包括行政生態環境等系統外的其他要件,系統內外各要素在政府治理實踐中互動耦合,最終導致倫理風險生成(如圖2所示)。

圖2 人工智能嵌入政府治理的倫理風險生成機理

3.1 路徑界定:風險的實踐生成論

馬克思主義認為人類社會生產的本質是實踐性的。實踐構成了人的生存與發展的基本形式,具有主觀與客觀、價值與事實相統一的特性,既受到人的理智制約,也易被欲望、情感等非理性因素所干擾。實踐的二重性特點決定了只要有實踐活動就必然無法回避風險。可見,人工智能嵌入政府治理倫理風險不是人為想象的,而是產生于“個體的與社會的、傳統的與現在、事實的與價值的、經驗的與規范的多重視角之間互相轉換與不斷融合”[32]的實踐過程之中。因此,將實踐作為風險的本質契合了人工智能嵌入政府治理倫理風險的生成根源。

從生成性視角來看,政府治理本身是一種實踐生成過程,是特定時期內政府行為的集合。在政府變革治理模式,獲取社會支持與資源供給過程中政府治理已不是封閉的體系,而是一個與社會各要素不斷交互的開放大系統。然而,在交互過程中實踐活動的擴展將自然運動后果與人類社會生活緊密聯系,使人類面臨超出傳統自然的風險,而這種風險來源于人類治理實踐。引入人工智能是政府治理適應時代發展要求之選擇,但相關標準和價值準則處于動態演變中,且囿于人工智能的不確定性、主體認知結構的局限性,這一過程超出了政府治理活動的理性邊界,極易誘發倫理風險。

從政府治理的價值層面來看,一方面,政府治理強調運用相關工具與方法進行公共治理,滿足社會需求。因此,公平正義、秩序穩定、社會和諧等均是政府治理的核心價值追求。然而,這些價值追求本質上是相互獨立,且無法優先排序,一旦相互沖突政府便陷入倫理兩難境地。著眼于此,政府希望借助人工智能的理性算法為其提供清晰的價值最優解,但這一解答無法保證結果是至善的,易陷入技術至上主義漩渦。另一方面,其他治理主體有著不同的價值追求,如科技企業主動融入政府治理中,主要目的是獲取發展資源而實現組織擴展;公眾則期望政府通過引入人工智能以滿足其需求和保障權益。因此,實踐過程中利益主體間關系錯綜復雜和行動偏好迥異成為倫理風險生成的重要因素。

3.2 風險生成:多重因素的互動耦合

政府治理系統可分為內部和外部兩大系統。由于技術治理不可避免地受政府科層系統規定和制約[33],因此,內部系統自然是剖析人工智能嵌入政府治理倫理風險生成的核心。但政府治理是“由環境包裹著的行為系統”[34]325,并且在人工智能技術的加持下政府治理更加呈現出系統協同性、主體多元性、過程動態性,其實質是主體、客體、環境以及智能工具等內外因素間互動合作行動的動態治理過程[35]。倫理風險并非倫理自身的風險,而是一種倫理建構中的風險表現,與人類社會具有緊密關系。因此,探索人工智能嵌入政府治理的倫理風險生成,不能割裂系統內外間的相互關系。

從系統內部來看,倫理風險生成遵循著“因素集聚—因素擴散—后果生成”的過程。一是風險因素集聚。倫理風險因素主要包括人工智能技術的不確定性,如算法安全漏洞、算法歧視、數據共享能力弱、數據使用違規等;政府治理結構的不完善,主要包括組織結構匹配性弱、AI與決策機制難兼容、AI監管制度不健全、AI應用追責機制局限等;公眾倫理風險感知,如倫理關心程度差異、利益趨向性選擇、對AI和政府系統不信任等。整體而言,這些因素可以分為客觀存在的源發性和主觀判斷的觸發性兩種因素,這些因素是倫理風險生成的根源,且使得倫理風險具有不確定性和實踐性特點。但源發性與觸發性兩類因素本身并不會主動造成風險,在倫理風險發生之前二者只是潛在風險因素,處于隱匿狀態,更不會對社會價值造成損益,此時社會公眾也無法感知風險。二是風險因素擴散。風險因素是事實存在且處于不斷聚集狀態,多種因素互動耦合所形成的風險合力能否導致最終的倫理風險生成,取決于是否有具體行為超出對風險合力的控制范圍。隨著外部環境日益復雜化,特別是傳統整體性治理模式已難以產生持續的治理動能,政府必須吸納人工智能以緩解治理壓力,提高治理效能。但囿于政府治理結構、理念等不健全,政府引入人工智能用于具體治理實踐時,易對社會價值造成事實上的損害。此時,政府治理活動便成為扣動倫理風險生成的開關。三是風險后果生成。政府的價值損益行為刺激社會公眾的風險感知覺醒,促使源發性與觸發性因素耦合形成合力,而主觀與客觀條件互動加速風險因素擴散,此時隱匿風險便轉化為外顯風險并傳遞至全社會,風險因素開始轉化為風險事件,從而造成倫理價值損失。如現在諸多城市正重點開發的“重點人群身份識別系統”功能在于秩序管控,但由于算法安全漏洞、數據使用違規、政府人工智能監管制度不健全、政府職能邊界與人工智能融合矛盾等原因,造成對安全、公平、責任、自主以及民主等價值損益,使得社會公眾逐漸對人工智能、政府治理系統產生不信任。同時,社會公眾會依據價值損失進行利益權衡,當價值損益超過容忍界限,將尋求制度性的利益訴求以維護自身權益。一旦利益訴求無法滿足時,社會公眾就會轉向非制度性的表達渠道,在系統內部聚集倫理風險,此時倫理負效應便開始顯現,造成倫理風險后果。反之,當價值損益仍在容忍范圍之內時,倫理負效應則仍處于隱匿狀態。

從系統外部來看,人工智能嵌入政府治理涉及AI研發企業、第三方機構評估、媒體介入、社會倫理文化等具體環境要素,這些因素是倫理風險生成的誘發傳導變量,推動風險因素及風險后果的“集聚-擴散”。研發企業擁有對人工智能的解釋話語權,如果其濫用數據,且不注重解決算法的安全性與解釋性困境,則會成為風險因素集聚的主體。同時,第三方機構評估本應發揮著診斷與阻隔風險的功能,但由于利益誘導、監督機制缺失等原因,其存在權力尋租,導致不負責的行為叢生,可能將已知的風險因素視而不見,任其綿延至政府治理中,放大倫理風險。在信息爆炸時代,當倫理風險因素出現時,媒體的介入成為分水嶺,如果能及時向社會宣傳、發布關于人工智能的科學知識與積極信息,則能消解社會緊張感,不會點燃社會情緒。如果發布不實信息,不負責任地將社會輿論引向政治化與復雜化,將降低社會對政府與人工智能的信任感,成為風險醞釀、發酵、擴散的重要推手。而這一重要推手成為激活消極社會倫理文化的關鍵,推動消極社會倫理文化迅速蔓延,并逐漸瓦解社會倫理信任體系。這些外部要素具有不同的文化背景、認知維度、歷史視界,體現出特定目的性行動,故會基于不同標準把握認知對象,導致事實與價值之間的張力不斷擴大,在系統外衍生出機構、文化等新問題,使得政府治理行為存在異化風險,刺激倫理風險產生。

當倫理風險僅在系統內生成時,政府可通過相關途徑在機制上防止風險演化,但如果系統外衍生出其他風險,加劇風險因素的集聚、擴散,且使得倫理風險在社會群體中不斷傳導,倫理風險就難以避免。可見,人工智能嵌入政府治理的倫理風險是內外多重因素互動耦合的結果,二者以政府治理實踐過程為主線,形成了“內部系統風險內生—外部系統風險衍生—社會群體風險傳導”的倫理風險生成路徑。

4 人工智能嵌入政府治理的倫理風險防控策略

人工智能技術群的突破性發展,使政府治理難以拒絕智能技術及其使用。然而,這一吸納過程所產生的倫理風險是復雜的,專注于某一節點、某一因素的碎片化防控舉措,無法有效應對倫理風險對政府治理價值的損益。科學在于求真,而倫理在于求善。因此,需要以維護人民安全為宗旨,實施“監管智能技術-優化政府治理結構-提升公眾風險感知能力”三要素協同的倫理風險防控策略。

4.1 強化負責任人工智能技術的突圍

當前,人工智能正成為撬動政府治理精細化、智能化的杠桿。傳統觀點認為,人類對自我創造的技術產品最為熟知,“非常清晰清楚怎樣將東西轉配在一起以及怎樣將它們拆開”[36]21。然而,人工智能作為一項具有廣闊運用前景的技術,同時也是一項充滿挑戰的顛覆性技術,指令代碼的晦澀難懂、算法的涌現性和自主性等帶來的技術黑箱,使得人工智能發展已超越社會系統的適應能力,它將諸多不確定性風險帶入政府治理中,成為誘發倫理風險的基礎性因素。可見,加快人工智能核心技術突圍,以負責任態度確保技術安全,是解決其嵌入政府治理產生的倫理風險難題的關鍵。

其一,加強人工智能核心技術的突破創新。相較于目前已知的其他科技,人工智能技術復雜的交互程度、研發的分散程度,使得人類目前對其了解仍處于初步狀態,特別是作為人工智能核心的算法,在其嵌入政府治理中可能由于透明度、解釋度不夠導致使用者無法理解其運行原理,也就無法有效管控其風險。因此,我國應抓住人工智能技術發展的戰略機遇期,加強人工智能核心技術的突破創新。如增強算法透明度,可在不涉及核心機密以及所有者權益基礎上,適度公開算法準則、操作標準;增強算法解釋度,以有效避免算法決策錯誤和歧視而造成的倫理價值損益。

其二,強化人工智能創新主體的責任意識。人工智能的核心技術算法是由技術開發者、設計者所掌握,因此其發展如何與技術創造主體密不可分。然而,一旦技術創新主體將帶有偏見、歧視等錯誤價值植入算法中,并帶入政府治理中極其容易誘發倫理風險。正如愛因斯坦所言,使用科學技術“究竟是給人類帶來幸福還是帶來災難,全取決于人自己,而不取決于工具”[37]56。而相比于法律規制的滯后性,責任意識監管更具前瞻性。因此,必須強化人工智能創新主體的責任意識,將其轉化為創新主體易于理解與接受的代碼植入人工智能設計中,使其接受責任倫理,并內化為道德自律,實現倫理規制與技術創新的融合。

其三,完善人工智能技術風險的評估機制。若要減少因技術漏洞而導致的倫理風險,完善的風險評估機制必不可少。尤其是對于尚存在技術黑箱的人工智能而言,一方面須從算法容錯設計、技術漏洞檢查和修復等[38]方面加強監管與評估,對存在算法黑箱的人工智能技術,應禁止運用于安全責任要求較高的政府治理領域;另一方面要創新風險評估機制,加快推行用戶參與式、體驗式風險評估。避免“技術先行”策略,在人工智能投入政府治理前可在一定范圍內進行適應性論證使用,根據用戶體驗實際情況評估技術風險,以提高風險評估的科學性。

4.2 完善政府治理結構

人工智能嵌入政府治理引發的倫理風險是在治理實踐中生成的,而治理結構的動態調整與適應是保障政府治理有效實現的關鍵之一。完整合理的政府治理結構能配合人工智能技術的高效識別、智能處理,合理分配公共權力和權威,保障政府計劃以及職責的充分運行。而傳統政府治理結構遭遇人工智能時將面臨著慣性束縛,無法有效回應治理訴求。一方面,治理結構的層級節制與人工智能開放性、政府職能邊界與人工智能融合矛盾,使得組織結構匹配性弱。另一方面,經驗決策、信息孤島、人工智能人才缺失、平臺建設滯后等,導致人工智能與政府治理決策機制難兼容。加之人工智能應用追責機制局限,極易觸發責任倫理風險。再一方面,目前我國針對人工智能安全標準、應用安全評估、漏洞監測披露等監管制度不健全,落后于智能技術的迭代更新,關鍵性制度缺失造成政府治理結構割裂。因此,“應當創設和完善相關治理機制,以此來承接人工智能技術的道德承諾、責任規則以及實踐規范”[39],形成對接人工智能技術的政府治理結構,以降低倫理風險可能性。

其一,完善政府組織結構以匹配智能技術。傳統“條塊”分割式的政府組織結構隨著智能時代的到來,面臨治理碎片化、數據信息無法共享、權責關系不清等弊病,無法適應人工智能時代的扁平化結構要求。因此,一方面要重塑各級組織結構,搭建人工智能運行監管機構與數據共享平臺,及時管控人工智能嵌入政府治理過程存在的風險;要明確組織職能邊界,構建責任清晰的政府治理決策機制;要實現跨部門信息資源交換與共享,以推動建立公共數據演練數據庫,增強數據安全性。另一方面要構建以政府為主導的對話與合作平臺,圍繞人工智能發展、規劃以及運用場景等議題,加強與科技企業、社會力量的溝通與合作,以增強對系統外風險誘發因素的引導能力。

其二,加快相關制度體系建設。“倫理責任的實現不僅依靠內在的道德力量,而且必須將這種力量外化為一種制度安排,這樣才能使道德之花結出豐碩的技術‘善’果。”[40]173人工智能嵌入政府治理需要建立與之相適應的制度體系,以彌補制度缺失帶來的裂痕。目前我國個人隱私數據保護、責任追究、算法歧視規制、人工智能第三方評估機構監管、技術容錯糾錯等制度滯后于人工智能發展,且尚無科學、完整的事先倫理審查機制,無法有效應對人工智能嵌入政府治理中帶來的倫理價值損益。另外,要加強對媒體的監督,抑制倫理風險在媒體傳導中不斷擴散。

4.3 提高公眾倫理風險感知能力

某種事物之所以產生風險,除了其本身存在的不確定性與復雜性外,主觀感知也是重要因素。倫理風險作為風險的重要議題是主觀與客觀相結合的結果。當風險因素通過各種中介傳遞之后,個體能從價值、心理和文化等方面感知風險因素,形成風險判斷,放大或縮小倫理風險,最終形成公眾倫理風險感知。從人工智能嵌入政府治理來看,個體對倫理關心程度差異、公眾對人工智能與政府系統不信任、公眾對政府運用人工智能帶來的利益趨向性選擇、信息豐富性程度等,是公眾倫理風險感知觸發倫理風險的重要因素。當個體對倫理關心程度較高時,其倫理風險感知就越高,反之亦然。當公眾對人工智能、政府系統越信任,則越能減低倫理風險感知,反之如無法兌現政府價值承諾、否認專家權威,則更易引發公眾對政府系統不信任、心理恐慌以及技術擔憂。公眾的倫理風險感知還深受風險信息獲取多寡等影響。可見,風險感知是倫理風險因素轉化為倫理風險的中介機制。

其一,加強公眾倫理風險教育。倫理風險素養影響公眾倫理風險感知水平,倘若公眾對倫理風險認知較少甚至存在盲區,則可能會產生技術恐慌,甚至可能夸大倫理風險。作為新興技術,一些公眾對人工智能一知半解,當看到大量智能機器取代人工勞動時,更容易加劇公眾對人工智能技術的擔憂與恐懼。因此,加強人工智能技術及其嵌入政府治理的教育,幫助公眾知曉科技倫理與道德標準,從而充分了解人工智能技術風險及其倫理負效應,有助于提升公眾的倫理風險認知能力。

其二,擴大公眾的技術決策參與。加強公眾倫理風險教育,增強公眾的倫理風險認知有助于減小技術恐懼感,但仍難以擺脫專家至上思想的桎梏。引入人工智能的本意在于提高政府治理能力,但假如這一過程缺乏公眾參與,遮蔽公眾對政府引入人工智能目的的知情權,將加劇公眾對人工智能、政府系統的不信任。因此,要搭建專家與公眾的交流對話平臺,拓寬公眾參與渠道,優化參與形式,提高公眾的技術決策參與意識,增進公眾對技術嵌入政府治理的接受度、信任度,在政府治理與公眾利益間尋找最佳利益契合點,疏導公眾對人工智能的焦慮。

其三,強化政府信息公開。在某種程度上而言,風險是以個人日常生活信息為依據構建的。在智能信息時代,個人對倫理風險的感知在一定程度上是對所獲取信息的甄別與選擇過程,信息的多寡深刻影響公眾的倫理風險感知能力。因此,信息公開是倫理風險感知的現實需要,其對規避倫理風險走向實體化發揮著重要作用。一方面,在運用人工智能過程中,政府需在保護商業隱私前提下,依據《政府信息公開條例》向社會公眾及時披露技術運用合理性、潛在風險、對個體心理與利益的損益程度,尤其是可能對個人倫理價值造成危害的重要信息。另一方面,要向社會公眾告知政府運用人工智能的具體形式、倫理標準、操作流程,并充分保障老年人等特殊人群的智能技術知情權,實現政府信息公開與社會信息傳遞的互動。如此,既保障公民知情權,也增強對人工智能技術和政府系統的信任和信心。

5 結語

當前人工智能的快速發展勢不可擋,為政府治理提供了嶄新工具。“數據+算法+算力”所全新定義的智能政府治理模式,實現從網絡連接到智能融合的技術躍進,在分析、診斷、預測以及決策等層面提升政府治理能力,推進政府治理現代化。然而,在人工智能嵌入政府治理過程中可能失去倫理管控而出現倫理風險。作為一種價值減損的可能性,倫理風險在政府治理實踐中呈現出安全、公平、責任自主以及民主等樣態。從政府治理實踐過程來看,人工智能嵌入政府治理中的倫理風險是多重因素互動耦合的結果,剖析生成機理有助于有效防控化解倫理風險,充分發揮人工智能在助力政府治理能力提升中的積極作用。誠然,人工智能還存在著“算法黑箱”等不足,嵌入政府治理引發倫理風險也不可避免。但不必過分夸大倫理風險,也不必悲觀否定其價值,社會仍能形成合力,最大限度降低倫理風險,推動人工智能與政府治理同頻共振,實現人民美好生活需要。當然,人工智能技術更新仍處于進行時,在未來人工智能將發展成何種狀態,政府治理又將如何適應,這一問題值得學界持續關注。

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 精品黑人一区二区三区| 无码一区中文字幕| 欧美色综合网站| 亚洲综合在线网| 久久久久无码精品国产免费| 亚洲精品国产日韩无码AV永久免费网| 无码综合天天久久综合网| 欧美日韩国产一级| 久久精品国产在热久久2019| 扒开粉嫩的小缝隙喷白浆视频| 国产尤物视频网址导航| 四虎亚洲国产成人久久精品| 伊人激情综合| 久久久亚洲色| 日本道综合一本久久久88| 免费不卡在线观看av| 欧美视频在线播放观看免费福利资源| 国产精品护士| 麻豆精品视频在线原创| 国产精品久线在线观看| 国产成人高清精品免费软件| 国产第八页| 999精品色在线观看| 国产性精品| 91精品久久久无码中文字幕vr| 亚洲国产成熟视频在线多多| 成人午夜天| 日韩精品亚洲人旧成在线| 国产在线精品香蕉麻豆| 欧美精品1区| 自拍偷拍欧美日韩| 欧洲欧美人成免费全部视频| 久久成人国产精品免费软件 | 亚洲h视频在线| 亚洲欧美激情另类| 亚洲香蕉久久| 久久不卡精品| 2021无码专区人妻系列日韩| 成人国产精品网站在线看| 欧美a在线| 国产麻豆另类AV| 人与鲁专区| 日本一本正道综合久久dvd| 日日摸夜夜爽无码| 91外围女在线观看| 99成人在线观看| 亚洲大尺码专区影院| 国产地址二永久伊甸园| 国产91蝌蚪窝| 欧美一级高清片久久99| 高潮毛片无遮挡高清视频播放| 青草娱乐极品免费视频| 精品国产自| 日本不卡在线| 99中文字幕亚洲一区二区| 欧美成人A视频| 成人在线观看不卡| 麻豆国产原创视频在线播放| 国产丝袜第一页| 国产精品精品视频| 亚洲精品国产日韩无码AV永久免费网| 永久天堂网Av| 欧美成人综合视频| julia中文字幕久久亚洲| 亚洲综合片| 91香蕉视频下载网站| 91人人妻人人做人人爽男同| 免费aa毛片| 国产三级毛片| аv天堂最新中文在线| 玖玖精品视频在线观看| 思思热在线视频精品| 亚洲一区网站| 精品久久777| 亚洲欧美自拍中文| 美女被操黄色视频网站| 中文毛片无遮挡播放免费| 永久成人无码激情视频免费| 国产成人亚洲欧美激情| 国产乱子伦无码精品小说| 91色综合综合热五月激情| 久久国产乱子伦视频无卡顿|