999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

公共性算法制度建構的技術聯結邏輯及其調適

2024-01-01 00:00:00高健張宸瑜
湖北社會科學 2024年4期

收稿日期:2023-11-20

作者簡介:高健(1982—),男,法學博士,紹興文理學院馬克思主義學院研究員(浙江紹興,312000),南京林業大學人文學院研究員(江蘇南京,210037);張宸瑜(1989—),男,東北師范大學政法學院博士研究生(吉林長春,130117)。

基金項目:江蘇高校哲學社會科學研究重大項目“江蘇青少年網絡使用及社會交往風險防范實證研究”(2022SJZD079);中國青少年研究會2023年度立項課題“青少年網絡使用及社會交往風險防范實證研究”(2023B34);紹興文理學院2023年度科研重點項目“新時代黨的創新理論青年化闡釋的效果評價研究”(2023SK009);紹興市哲學社會科學規劃專項課題“中華優秀傳統文化融入高校思想政治課的內在邏輯研究”(145381)。

摘要:公共治理領域廣泛運用的算法工具推動了公共性算法的制度建設需求的產生。從治理角度而言,使用算法工具有助于規避傳統政府決策的風險、提高政府運轉效率,彌補傳統政府監管的不足。公共性算法對公共治理的技術邏輯在于,首先通過語言訓練為算法實踐提供數據基礎,然后借助其人機交互功能解決實際社會問題,最終實現公共利益。在構建公共性算法的制度時,需要從技術、倫理、法律等多個方面采取綜合措施,引導公共性算法在輔助公權力主體進行治理過程中走向良性發展軌道。具體而言,在算法準入方面,需要確立公共性算法的實際邊界;在算法設計中,應注入社會核心價值以增強算法工具的能力;在實際應用中,需防止濫用權力以保障權利安全;在司法裁判方面,需要司法機構確定公共性算法運行的實際邊界,并切實保障治理對象的法定權益;最后,在算法監督方面,必須限制數據利用以維護公共秩序。

關鍵詞:公共性算法;生成式人工智能;ChatGPT;數字政府

中圖分類號:TP18;D63" " " 文獻標識碼:A" " "文章編號:1003-8477(2024)04-0056-14

在當代信息社會中,科技的飛速發展和數字化的進步正在極大地影響著我們的社會。在這個背景下,算法已經成為推動社會進步和提高效率的重要工具之一。然而,傳統的算法應用常常受到私有化和商業化的限制,引發公眾對算法決策的可見性和公正性的疑慮。“隨著公共事務治理場景中算法工具的廣泛應用,算法治理逐漸成為公共管理或治理的新形態。”[1](p18)為此,產生了一種稱為公共性算法制度建構的新型算法制度模式。公共性算法制度建構旨在通過強調公眾參與、公正決策和社會利益的重要性,實現算法決策的透明、公開。由于算法具有權力屬性,其具備公共性價值,而這種公共性價值需要受到保護。[2](p101-102)

從根本上講,人工智能的本質即算法,算法在一定程度上被視為人工智能的一種更接地氣的通俗表達。算法是在數據資源的基礎上,由計算機來模擬某些人類的思維和智能,實現和完成的某種特定功能的輸出,以替代或增強人類實現某些任務的能力。[3](p7)從應用場景來劃分,大體可以分為針對特定對象的個性化應用和服務于不特定對象的公共性應用。例如,算法可以應用于分析客戶個體偏好并形成專門針對個體偏好的推薦,制造商可以基于此算法為客戶定制特定型號的產品,此種應用場景為算法的個性化應用;政府部門開發的具有公共服務性質的智能政務平臺則屬于算法的公共性應用。然而個性化應用風險可控、影響范圍有限,“公共性”應用更容易帶來普遍性的社會風險。[4](p58)因此,如何對公共性算法進行制度建構,從而規避公共性算法的社會風險,是當前亟待研究的課題。

一、治理利好:公共性算法制度建構的三重現代面向

新一代生成式人工智能是現代化計算機信息技術在人工智能領域的突破性代表。“近年來,新一代人工智能技術取得了顯著突破,尤其ChatGPT自推出以來在語言理解和內容生成方面展現的卓越性能,”[5](p45)所謂生成式人工智能,是基于算法、模型、規則生成文本、圖片、聲音、視頻和代碼等內容的技術。1目前,新一代生成式人工智能以大算力為基礎,用強算法處理海量大數據,在自然語言處理、計算機視覺、語音處理等領域表現優異,同時也能夠提供內容創意生成、對話搜索、代碼生成等服務,為自動駕駛、金融風控、醫療保健、物聯網領域提供了技術支持。[6](p34)新一代生成式人工智能除了在上述領域發揮著底層技術架構作用外,在公共性算法制度構建方面也能發揮作用,從而為數字政府建設提供技術支撐,助力實現新時代法治政府的現代化。通過新一代人工智能參與數字政府建設,政府公共性算法制度建構具有三重現代面向:助力政府決策繼而規避傳統政府決策的風險;提升政府效率繼而優化傳統政府運轉的效果;強化政府監管繼而彌補傳統政府監管的不足。

(一)助力決策:規避傳統政府決策的風險

在治理情境下,政府治理的核心內容是政府決策,而政府決策作為政府權力運行的一個重要方面,實質是政府運用行政權力進行公共選擇的行為。[7](p45)在傳統政府治理中,收集、整理、分析信息與數據不僅需要掌握合理的方法,找到正確的信息來源,還需要大量的時間與人力。這意味著部分傳統政府存在決策效率低下、準確性不足、成本巨大等劣勢。將人工智能運用到政府決策中,可以有效規避傳統政府決策存在的上述缺陷。一方面,新一代生成式人工智能具有更大的語料庫、更高的計算能力和更強的自我學習與創新能力,不僅可以高效搜索海量信息,更可以實現自動化篩選和整理,這有助于規避傳統政府決策的風險;另一方面,新一代生成式人工智能在參與和輔助政府決策過程中,可以有效減少人為主觀決策或經驗決策帶來的負面影響,其可以為政府決策提供更加客觀、科學和準確的各類信息,從而實現政府決策的科學化,但并非替代政府決策。

第一,新一代生成式人工智能有更大的語料庫、更高的計算能力、更強的自我學習能力,有助于規避傳統政府決策的風險。在中國式現代化建設過程中,新興技術可以融入現代化建設中。新一代生成式人工智能技術相比以往的人工智能技術,表現出人機對話的高智能化、語料庫的豐富化以及學習能力的深度化特征。生成式人工智能憑借深度學習與生成算法,通過檢查訓練示例以最大限度地利用現有數字內容的分布模式,從而生成不同于學習樣本的、多樣化的、具有原創性的新內容。[8](p44)這意味著新一代生成式人工智能可以利用現有數據內容從而生成新內容,初步具備了數據搜集、整理、加工等能力。在傳統政府決策過程中,政府工作人員往往需要搜集、整理和加工數據,從而為決策提供現實依據。但是在一些情況下,工作人員面對海量數據時往往力不從心,甚至會增加在數據處理過程中的出錯概率,從而使得政府決策出現錯誤,影響決策的準確性。

第二,新一代生成式人工智能可以參與和輔助決策,減少因人為主觀決策或經驗決策帶來的負面影響,但不是代替政府決策。當我們在談論人工智能技術參與和輔助政府決策時,其實存在兩種關于治理的想象,即人工智能的治理和通用人工智能的治理,而這兩種關于治理的想象可以歸結為一點:人工智能是否存在自主意識或具有像人的智慧。[9](p14-15)當我們設想人工智能具有自主意識和存在像人一樣的智慧時,其實是將人工智能作為具有理性的“人”來對待,即通用人工智能。這新一代生成式人工智能向通用人工智能邁進了一步,但是這種通用人工智能在當下仍存在于人腦的想象中。現實中的人工智能并不具有人的智慧,只是具有統計學意義上的算法重復和高速運算的特征。它只能為政府提供決策所需要的數據信息,從而展現出盡可能多的決策選項,但無論如何,人工智能都無法替代政府做決定,即只能輔助政府決策。

(二)提升效率:優化傳統政府運轉的效果

繼黨的十九大提出推進“效率變革”之后,黨的二十大報告明確提出了“提高行政效率”的發展要求。在數字化時代如何提高行政效率就成為了政府需要完成的一項課題,政府治理和數字技術的結合可以成為該課題解決的一種可行路徑。為了提高數字政府的行政效率,僅僅優化行政組織規模是不夠的,還需要進行治理工具的創新。新一代生成式人工智能技術可以為政府提供技術支持,從而提高行政效率,解決傳統政府治理模式下治理成本高的問題。它有助于優化政府的結構規模和結構數量,通過數字技術與政府運轉的結合,實現政府運轉模式的轉型,從而優化政府行政效果,推動政府治理的精細化。

傳統政府治理模式下,我們觀察到政府規模龐大、機構設置復雜,存在制約治理成本降低的問題。這一問題表現在政府呈現出自上而下的科層式結構,并且根據不同的職能設置了各種部門。同時,政府在運營和服務方面基于傳統治理模式存在成本高昂的挑戰,這反過來降低了政府運營服務的質量。然而,生成式人工智能可以簡化政府規模和機構數量,從而大幅度降低政府組織成本和運行成本的問題。第一,傳統政府部門的部分職能可以通過人工智能來實施,從而由線下轉向線上,過去線下的政府部門及其人員配置將由此發生改變,原先需由大量工作人員完成的工作任務可以被人工智能完成,工作人員的任務由原先的創造轉變為審核,從而能夠減輕政府人員工作壓力。第二,傳統政府部門的職能是在科層式政府結構中呈現出來,經由最高決策部門下發指令,經政府內部各部門層層傳達,最終由終端行政人員實施,囿于該結構的復雜性,職能的發揮需由多部門參與,這就涉及不同部門之間的協調。在生成式人工智能技術的加持下,政府職能的發揮可以一定程度上擺脫政府科層結構的制約。這使得傳統的行政行為轉變為電子行政行為。即行政主體直接依靠電子技術設備,根據事先設定的算法和程序,減少了人工介入或干預,這可以大幅度降低行政成本。

所謂數字政府是指為適應數字化發展趨勢,將數字技術廣泛應用到政府管理服務而構建的數智化的政府運行新形態,以推動政府治理流程優化、模式創新和履職能力提升。[10](p46)人工智能推動數字技術與政府運轉高度融合,有助于轉變政府運轉模式,實現政府治理精細化。在全面建設社會主義現代化的時代背景下,中央不斷推進政府職能優化、推進政府治理模式轉型升級、推進數字政府建設,以適應未來的社會主義現代化建設需要。數字政府的建設離不開新興技術。新一代生成式人工智能可以實現人機交互,其不僅包括政府內部的人機交互,還包括政府與公民之間的人機交互。在政府內部的人機交互中,人工智能可以降低政府運轉成本,實現政府運轉模式的升級;而在政府與公民之間的人機交互中,公民個人可以利用手機等智能設備隨時在生成式人工智能中表達需求,政府則可以通過這種人機對話實時獲取公民需求,這有助于政府更好地識別公民個人需求,拉近數字政府與人民群眾之間的距離,及時了解人民群眾亟待解決的現實問題,實現政府服務供給和需求之間的平衡,助力政府治理的精細化和具體化。在數字政府中,政府運轉模式和政府治理方式都不同于傳統政府,其除了政府效率的顯著提升外,更重要的是適應了社會主義現代化的需求,是在數字時代的一條新的群眾路線。

(三)強化監管:彌補傳統政府監管的不足

在傳統政府監管實踐中,我們可以觀察到存在著不同程度的數字技術戰略意識缺乏和對數據的重視程度不足等問題。這些問題導致數字政府監管的認識不夠深入、監管執行力度不強以及實施效果不理想等現狀。然而,通過將人工智能技術與政府監管結合起來,可以提升數字政府的監管能力,實現監管的精準化。同時,這種結合也能夠轉變傳統政府監管模式。通過引入大數據、算法和人工智能等技術,形成新的監管模式,幫助政府準確地認識社會所面臨的各種問題,彌補傳統政府監管存在的不足之處。

人工智能技術通過不斷挖掘政府在監管領域的需求,將數據進行算法建模和分析,能夠及時、自主地進行判斷和預測,提高數字政府監管的水平。通過這種方式,人工智能有助于轉變政府監管的模式,實現治理型監管。它能夠更加高效地識別和分析監管目標,提供個性化的監管策略和措施,促使政府在監管是實踐中更加精準地定位問題和采取相應的措施。這種轉變將使政府能夠更好地應對監管挑戰,提升監管效果,并有效地滿足社會需求。治理型監管是建立在新一代生成式人工智能的基礎上,以監管權的開放協同、監管方式的多元融合、監管措施的兼容配適為核心特征的新型監管范式。[11](p117)借助人工智能,政府在實現治理現代化的過程中,可以運用數字化改革的方式推動傳統監管模式的轉型升級,“使之從經驗監管走向循數監管,從線性監管走向智能監管,從分散監管走向協同監管,從模糊監管走向信用監管”。[12](p136)傳統政府監管中,不同監管部門相互獨立,各行其道,面對同一問題可能出現多部門分別實施監管行為的情形。人工智能技術的引入,可以幫助政府實現監管的智能化和可視化,并自動生成監管數據,有利于政府精準認識到監管領域內的重點問題和難點問題。并且,由于新一代生成式人工智能具有自主學習能力,可利用在監管過程中形成的監管數據對監管對象進行智能化分析和研判,準確預測其未來可能的行動方向,提前做好監管準備,真正做到將事后監管轉變為事前監管。

人工智能輔助政府精確地認識到社會急需解決的重要問題,強化對其監管,如藥品領域監管、食品領域監管和金融領域監管等。人工智能技術可以幫助政府強化藥品領域監管,尤其是在藥品研發和藥品審查階段,人工智能技術中的神經網絡技術可以提高藥品研發成功率,優化藥物生產工藝。[13](p1583)人工智能技術可以幫助政府強化食品領域監管,將其應用于食品采購、生產、物流、銷售等各個環節,利用人工智能的智能檢索技術構建食品安全智慧監管信息平臺、利用人工智能的智能代理技術實現食品采購供應商選擇的智慧化、利用人工智能專家系統技術提高食品安全預警系統質量、利用人工智能的智能識別與智能決策支持系統推動食品安全生產管控、利用人工智能機器學習技術減少操作失誤。[14](p173)人工智能技術可以幫助政府強化金融領域監管,其具有兩個應用場景,“一個是監管者應用它來進行監管,另外一個是市場應用它進行合規工作。”[15](p22-23)前者是政府運用人工智能技術直接實施金融監管,后者是市場主體運用人工智能技術進行自我合規,從而實現政府間接監管。這種直接監管和間接監管的融合,正體現了監管模式創新中的協同監管。當然,除了以上三個領域,人工智能技術在輔助政府監管中還存在其他的應用方向和可能性。不論在什么領域,政府都可以借助人工智能技術來實現監管創新。人工智能技術和監管模式相結合,這勢必導致在新時代下政府監管的變革和創新,同時也可以進一步提高政府監管的能力和技巧。

二、超越傳統:公共性算法制度建構的技術聯結邏輯

在公共性算法運行過程中,語言訓練是算法應用的初始環節。語言訓練是指通過大規模的數據集和深度學習技術,讓機器能夠理解和生成自然語言。語言訓練目的是培養機器的智能,使其能夠與人類進行有效的交流和理解。在這個過程中,機器通過不斷學習和優化,逐漸掌握了人類的語義、語法和語境,從而能夠更好地理解人類的需求和問題。語言訓練不僅是算法應用的基礎,也是人機交流的重要環節。人機交流是公共性算法制度建構中至關重要的一環。“從人機關系視野來看,算法行政最為突出的特征是人工智能體嵌入以及人類(公共管理者)角色被替代,人類必須在場的傳統公共行政范式面臨重構。”[16](p82)信息處理是人機交流的核心目標,旨在利用算法技術解決社會實際問題。通過人機交流,人們可以將自己的需求、問題和觀點傳達給機器,機器則能夠根據所學到的語義和語法知識,提供相應的解答和建議。人機交流不僅僅是簡單的問答過程,更是一種合作與共同思考的過程。通過充分的交流與溝通,人類可以從機器身上獲得新的見解和創意,而機器也能夠通過與人類的交流不斷完善自身的算法模型。

公共性算法制度建構的內在價值在于增進公共利益,謀求理性治理。通過公眾參與和透明決策,公共性算法制度建構能夠確保算法決策的公正性和可信度。公眾的參與可以有效地平衡不同利益方的權益,避免算法決策的偏見和歧視。同時,公共性算法制度建構也能夠實現社會資源的合理配置和優化,促進社會的可持續發展。通過合理的算法決策和數據治理,公共性算法制度建構為實現社會治理的科學化、精細化和民主化提供了新的途徑。

總而言之,公共性算法制度建構是超越傳統算法應用模式的一種新型方式,它強調公眾參與、公正決策和社會利益,在解決社會問題和推動社會進步方面具有重要意義。語言訓練和人機交流作為公共性算法制度建構的關鍵環節,為算法決策的透明性和可持續性奠定了基礎。建構公共性算法制度的內在價值在于增進公共利益并謀求理性治理。[17](p81-85)未來,隨著技術的進一步演進和社會意識的不斷提升,公共性算法制度將在構建更加公正、可持續和人性化的社會,防止“算法影子官僚”等方面發揮重要作用。[18](p92)

(一)數據輸入:語言訓練是算法應用的初始環節

“機器創作過程,包括數據輸入—機器學習—結果輸出三個階段。”[19](p653)語言訓練是數據輸入的外在形式,是新一代生成式人工智能學習與運算的起點。通過大規模的文本數據集和強大的深度學習算法,人工智能系統可以自動學習語言的語法、詞匯和語義,進而生成人類可理解的語句和段落。語言訓練的過程中,機器通過分析和理解海量的文本數據,學習其中的模式和規律,從而建立起對語言的深刻認知。這種自動學習和生成語言的能力為人工智能在多個領域帶來了巨大的潛力和應用前景。語言訓練不僅可以用于自然語言處理領域,還可以應用于文本生成、翻譯、對話系統等任務。例如,通過訓練,人工智能可以從輸入的問題中理解意圖并生成準確的回答;可以根據上下文生成連貫的文章;還可以進行實時的多語言翻譯等。這些應用極大地改變了人與機器交互和獲取信息的方式,提供了更加智能、高效的解決方案。此外,語言訓練也為機器理解和應用抽象概念打開了大門。通過對文本的學習,人工智能系統可以建立起對語義和情感的理解,從而實現更高層次的文本理解和推理能力。這為自動問答、智能客服、輿情分析等任務提供了基礎。

在公共性算法制度建構中,語言訓練作為初始環節,在算法應用的初期階段發揮著至關重要的作用。語言訓練的目標是通過處理大量的文本數據,使得機器能夠準確地理解和生成自然語言,從而實現人機之間的有效交流和問題解答。數據輸入是語言訓練過程中的基礎環節,它直接影響著算法的學習效果和應用效能。在語言訓練中,數據輸入的質量和多樣性是確保成功訓練的關鍵要素之一。首先,數據源的選擇至關重要,應該優先考慮大規模、高質量的文本數據集,以確保訓練模型具備廣泛的知識和語義理解能力。其次,在數據預處理階段,需要經過仔細的清洗、標注和歸一化處理,以消除噪聲和不一致性,為訓練提供干凈、一致的數據樣本。同時,數據輸入的多樣性也是至關重要的。語言訓練應該包含多種來源、多領域、多樣性的語料庫,以便訓練模型具備更廣泛的語義覆蓋和上下文理解能力。這樣的多樣性可以包括新聞報道、科技文獻、社交媒體內容等,涵蓋不同領域、不同風格和不同背景的文本。此外,在數據輸入過程中還要注意避免偏見和不平衡的問題。訓練數據應該盡量避免包含性別、種族、地理等方面的歧視性信息,以免訓練出具有偏見的算法模型。同時,應注意平衡各種話題和觀點的比例,以確保算法能夠準確理解和回答各種類型的問題。

語言訓練主要包括若干個階段。第一,數據來源和收集。在語言訓練中,數據的來源和收集是關鍵的第一步。數據來源可以包括互聯網上的各類文本材料,如新聞、博客、論壇等,以及公共數據庫、學術數據庫、社交媒體平臺等。第二,數據預處理和清洗。在數據輸入環節,數據預處理和清洗是必要的步驟。由于數據來源的多樣性,數據的質量、格式和結構可能存在差異,甚至存在噪聲和冗余信息。因此,在數據輸入前需要對數據進行預處理和清洗,以便保證數據的質量和一致性。第三,數據增強和拓展。為了豐富數據集,提高算法的學習效果,數據增強和拓展是常用的方法之一。數據增強可以通過以下技術實現:(a)數據擴充:通過對現有的數據進行人工修改、轉換和組合,生成新的樣本。例如,通過對句子進行刪除、替換、插入等操作,生成新的句子。(b)生成模型:利用生成模型(如生成對抗網絡)生成新的文本數據,以豐富原始數據集。生成模型可以根據已有的數據學習數據的分布特征,生成符合該特征的新樣本。(c)遷移學習:通過將已有訓練好的模型應用于新的相關任務上,實現數據的拓展。遷移學習可以利用已有的知識和模型參數,加速新任務的訓練過程。

總結起來,在公共性算法制度建構中,語言訓練作為算法應用的初始環節,通過數據輸入實現對自然語言的理解和生成。數據來源和收集、數據預處理和清洗以及數據增強和拓展是數據輸入過程中的關鍵步驟。通過合理選擇數據來源、進行數據清洗和標準化,采用數據增強和拓展的技術手段,可以提高數據的質量和算法的學習效果,從而為后續的人機交流和問題解答奠定良好的基礎。

(二)人機交流:信息處理致力解決社會實際問題

“人機交互為人工智能提供了應用需求和研究思路,人工智能也驅動了人機交互技術的發展和變革。”應用新一代人工智能的關鍵步驟是通過采集算法對信息的處理結果,為解決社會實際問題提供助力。在這個過程中,數據的采集和算法的運用密不可分。首先,數據采集是構建強大人工智能系統的基礎。通過收集和整理各種類型的數據,包括結構化和非結構化的數據,機器可以從中提取有用的信息和模式。這些數據可以來自各個領域,如醫療、金融、交通等,涵蓋多種格式,如文字、圖像、聲音等。數據采集的關鍵是確保數據的質量、豐富度和多樣性,以提供準確的信息基礎。然后,通過應用先進的算法,人工智能系統可以對采集到的信息進行深度學習和分析,以提取隱藏的規律和知識。例如,通過深度學習、自然語言處理等算法,可以對大規模的數據進行模式識別、分類、預測和優化。這些算法能夠幫助機器理解復雜的數據結構和關系,從而對現實世界的問題進行有效地分析和解決。利用采集到的數據和應用算法得到的處理結果,人工智能系統可以為解決社會實際問題提供助力。例如,在醫療領域,人工智能可以通過分析患者的健康數據和臨床研究,提供個性化的診斷和治療建議;在城市管理中,人工智能可以通過分析交通數據和人群流動信息,優化城市交通運輸系統;在環境保護中,人工智能可以通過監測和預警系統,提供及時的環境風險評估和應對措施。

“隨著個性化推薦系統等智能技術的廣泛應用,算法傳播帶來了信息傳播的范式革命。”[20](p101)算法引起的最重要的變革是從“人找信息”變成“信息找人”。但“信息找人”的實質并非信息具有了主動性,而是人獲取信息的方式變了,歸根結底還是人對信息的使用。[21](p10)在公共性算法制度建構中,人機交流被視為整個系統的核心環節,它致力于解決和應對社會實際問題。人機交流的目標是通過算法的運算和推理能力,使得機器能夠準確理解人類的語言和意圖,并能夠基于此給出相應的回應和解答。在實現這一目標的過程中,信息處理作為人機交流的基礎起到了關鍵的作用。信息處理通過識別、理解和分析人類語言中的文字、語義和上下文信息,以便機器能夠對其進行適當的響應。在此過程中,算法需要具備文本處理、自然語言處理和推理等多樣化的能力。首先,機器需要能夠識別并提取人類語言中的本質特征,例如詞匯、語法結構和語義關系等。其次,機器需要借助深度學習和數據驅動的方法,對大量的文本數據進行訓練和學習,以獲得廣泛的語境理解和文本生成能力。最后,機器需要具備推理和邏輯思維的能力,能夠從人類語言中推斷出相應的含義和解答。“人工智能研究正向人機交互的方向推進”。[22](p130)人機交互以人為中心,其目標是將機器打造成一個智能助手,為人類提供高效、準確和可靠的信息支持。這意味著機器需要具備高度的智能性和適應性,能夠根據不同情境和需求,靈活地調整自身的表達方式和回答策略。同時,機器需要具備良好的語言表達和交流技巧,能夠與人類進行自然而流暢的對話,理解和滿足其需求。

“人機交互為人工智能提供了應用需求和研究思路,人工智能也驅動了人機交互技術的發展和變革。”[23](p361)人機交流包括三個層次的內容。第一,人機交流的對象與形式。(a)人機交互對象:人工智能算法的人機交流對象主要是人類用戶或智能助手的使用者。通過與用戶進行語言交流,智能助手可以理解用戶的需求、問題和意圖,并給出相應的解答和建議。(b)交流形式:人機交流的形式多種多樣,包括文字交互、語音交互、圖形界面交互等。第二,信息處理的技術支持。(a)自然語言處理:自然語言處理是人機交流的核心技術之一,旨在使計算機能夠理解和生成自然語言。自然語言處理技術包括文本分析、語義理解、命名實體識別、語法分析等,可以幫助機器理解用戶輸入的語言并進行語義解析和推理。(b)知識圖譜:知識圖譜是將豐富的知識和概念以圖的形式進行建模和表示的技術。通過構建知識圖譜,可以為機器提供詳細和準確的領域知識,從而增強其對用戶問題的理解和回答能力。(c)機器學習:機器學習是實現人機交流的重要技術手段,通過對大量數據的學習和分析,使得機器能夠自動地從數據中學習規律和知識,根據學習結果做出相應的判斷和決策。機器學習可以應用于問題分類、問題回答、智能推薦等方面,為人機交流提供有力的技術支持。第三,社會實際問題的解決。(a)問題回答。人機交流可以幫助解決用戶提出的各類問題,包括實時查詢、技術咨詢、政策法規等。通過智能助手的問答系統,用戶可以方便地獲取所需的信息和解答。(b)情景推薦。根據用戶的需求和背景信息,智能助手可以提供個性化的情景推薦,如購物推薦、旅游推薦、學習推薦等。通過分析用戶的偏好和行為模式,智能助手可以為用戶提供有針對性的建議。(c)社會服務。人機交流還可以應用于社會服務領域,如交通出行、醫療健康、教育培訓等。通過與用戶進行交互,智能助手可以提供相關的服務和支持,提高人們的生活質量。

通過人機交流,公共性算法制度建構可以實現對社會實際問題的解決和應對。人機交流的對象和形式多樣,信息處理的技術支持豐富多樣,同時也可以為用戶提供高效、準確和可靠的信息支持。進一步地,人機交流的發展和應用也將促進公共利益的增進,為實現理性治理和社會進步貢獻力量,這使得人機交流成為公共性算法制度建構中不可或缺的重要環節。

(三)內在價值:增進公共利益進而謀求理性治理

“算法治理催生算法規制,算法規制規范算法治理,二者的整合有助于實現公共價值最大化,促進善治的實現。”[24](p12)公共性算法制度建構并不是機械的,也非以完成某種政治、社會任務為目的,其一定是內化了某種價值取向的制度化作業。公共性算法制度建構強調的是在人工智能應用中注重公正、透明和可信的原則。首先,公正是指確保算法設計和運用過程中的公平性和無偏性,避免對個體或特定群體產生不公正的影響。在算法的開發和使用過程中,需要考慮多樣性、包容性和平等性,防止歧視性的結果產生。其次,透明是指公共性算法應該對其設計和決策過程進行透明化,使得用戶和公眾可以理解和評估算法的原理和結果。透明性可以通過開放源代碼、公開數據集、算法審查和解釋性技術等手段實現,這有助于增加公眾對算法系統的信任度,減少信息不對稱和濫用的風險。最后,可信是指公共性算法需要建立起對用戶和社會的信任,確保其操作和輸出的可靠性和準確性。這要求算法系統具備良好的魯棒性和可驗證性,能夠應對扭曲、操縱和攻擊等不當行為,確保算法的結果可信可靠。在公共性算法制度建構中,還需要考慮用戶參與、多方合作和治理機制的建立。用戶參與是指用戶能夠參與到算法制定和改進的過程中,提供反饋和意見,確保算法符合他們的需求和利益。多方合作是指政府、企業、學術界、社會組織和公眾等各利益相關方之間的合作與協同,共同推動公共性算法的發展和應用。而治理機制的建立是為了監督和調節算法的運行和應用,防止濫用和不當行為,并為用戶提供有效的救濟機制。綜上所述,公共性算法制度建構是一項具有價值取向的制度化作業,強調公正、透明和可信原則。公正要求算法設計無偏且公平,透明要求算法設計和決策過程可解釋和可評估,可信要求算法操作和輸出可靠和準確。此外,用戶參與、多方合作和治理機制的建立也是公共性算法制度建構的重要方面,這將有助于確保算法的社會責任和公共利益。公共性算法制度建構在實現理性治理和增進公共利益方面具有重要意義。

1.公共利益的追求

因此,在現代社會,公共性算法制度建構在實現理性治理和推動社會進步方面具有重要意義。通過確立公共利益為導向,公共性算法制度建構可以為社會提供各種公共服務,優化資源配置,滿足人們的基本需求。公共性算法制度建構還應注重公平正義,通過建立公正的算法規則和決策機制,保障資源分配的公平性,促進社會和諧與穩定。同時,公共性算法制度建構也致力于保障社會安全,通過智能化的算法系統,提供精準和高效的安全措施,應對犯罪、災害等風險。此外,公共性算法制度建構應強調可持續發展,以長遠利益為考量,通過智能化的決策支持和資源管理,實現經濟、環境等方面的平衡,推動社會的可持續發展。總體而言,公共性算法制度建構通過追求公共利益和理性治理,為社會帶來福祉和進步,然而,也需要關注潛在的問題和挑戰,如隱私保護等,以確保公共性算法制度的穩健發展和公正運行。因此,在建構過程中應綜合考慮公眾利益、權益保護和社會倫理等方面的問題,以實現更為全面和持續的公共利益。

公共性算法制度通過追求公共利益來實現理性治理,主要包括:第一,提供公共服務。公共性算法制度建構致力于優化社會資源配置和服務提供,以滿足公眾的基本需求,如教育、醫療、交通等領域。通過智能化的算法系統,可以向民眾提供更優質、高效的公共服務,提高公眾福祉。第二,促進公平正義。公共性算法制度建構通過建立公正的算法規則和決策機制,確保資源分配的公平性和社會正義。公共利益被理解為對社會各個群體進行公平照顧和利益平衡的原則。這意味著在資源分配過程中,需要考慮不同群體的需求和權益,并采取相應的措施來確保資源的公平分配和社會的正義。這涉及制定和實施公平的政策和規劃,確保資源的合理配置和利用,以滿足不同群體的基本需求,減少社會不平等現象的出現,促進社會的和諧與穩定。通過這樣的方式,公眾利益可以得到有效的保護,社會公正得以實現。第三,保障社會安全。公共性算法制度建構通過智能化的算法系統,可以在安全領域提供更加精準和高效的應對措施。例如,在預防和應對犯罪、災害等方面,公共性算法可以發揮重要作用,保障社會的安全穩定。第四,促進可持續發展。公共性算法制度建構注重長遠利益的考量,以可持續發展為目標。通過智能化的決策支持和資源管理,公共性算法可以在經濟、環境等方面實現合理的平衡,推動社會的可持續發展。

2.理性治理的追求

“人工智能嵌入治理最為突出的特征是人類角色被替代,人類的決策和理性能力開始被弱化,轉向算法決策、算法理性和算法支配的治理形態。”[25](p104)公共性算法制度建構以理性為導向,強調基于科學、客觀的決策和行為。在當今社會,理性治理成為實現有效決策和公共利益最大化的關鍵要素。公共性算法制度建構通過引入智能算法系統,使決策過程更加系統化、科學化和客觀化。這種理性導向的特點體現在以下幾個方面:首先,公共性算法制度建構借助大數據和人工智能技術,能夠實時收集和分析海量數據,基于數據驅動進行決策。這樣的決策方式有助于避免主觀偏見和個人情感的干擾,使決策更加客觀和準確。其次,公共性算法制度建構在制定決策規則和操作流程時,注重科學性和可證偽性。它傾向于依據科學研究和實證分析,確保決策和行為的合理性和可行性。此外,公共性算法制度建構注重透明度和可解釋性。它強調決策過程的透明,確保決策結果能夠被公眾理解和接受。同時,它也致力于提供決策的解釋和理由,使公眾對決策過程有清晰的了解。最后,公共性算法制度建構鼓勵利用反饋機制和實時數據監測來對決策進行評估和調整。通過不斷修正和改進,確保決策和行為能夠適應變化的環境需求,并更好地服務于公眾利益。總之,公共性算法制度建構通過理性導向的決策和行為,提升了決策的科學性、客觀性和可信度。它為公共利益的實現提供了有力的工具和方法,推動社會的進步和發展。

3.公共性算法制度實現理性治理的關鍵點

第一,數據驅動的決策。公共性算法制度建構依托大數據和智能化分析,能夠基于數據和事實進行決策。這種數據驅動的決策方式有助于避免主觀偏見和情感因素的干擾,提高決策的客觀性和準確性,從而數據驅動決策,賦能國家治理。[26](p1)第二,透明決策機制。公共性算法制度建構倡導建立透明的決策機制,使公眾對決策過程和結果有清晰的了解。通過公開決策依據、透明公正的規則等方式,促進決策的合理性和可信度。第三,風險評估和應對。公共性算法制度建構注重風險管理和應對措施,通過預測和評估可能出現的風險,采取相應的措施進行干預和防范。這種理性的風險管理有助于提高社會的穩定性和安全性。第四,民主參與和反饋機制。公共性算法制度建構鼓勵民眾的參與和反饋,以確保決策過程的民主性和公眾的利益得到充分考慮。通過建立多元化的參與機制和反饋渠道,加強公眾與決策者之間的互動和溝通。通過追求公共利益和理性治理,公共性算法制度建構能夠促進社會的發展和進步,更好地滿足公眾的需求和期待。

三、公共性算法制度建構的多元調適路徑

隨著算法在實現公共利益與維護公共秩序中扮演越來越重要的角色,對于公共性算法的認識和規范也顯得尤為重要。在運用公共性算法的過程中,人們可能會產生一種技術無所不能的幻象,并逐漸陷入技術決定論的思想誤區。人們容易依賴技術的輔助,享受技術帶來的便利和愉悅感,但同時也容易迷失自我,使技術被濫用的可能性增加。值得注意的是,一旦算法技術被濫用,其可能產生的危害性是極大的。“算法權力逐私利、重偏好、追求技術至上,形成一種以數據信息為中心的新型權力,一旦脫離監管或無法合理控制,勢必損害公平價值、公共利益和基本道德,引發諸多社會后果。”[27](p84)為了降低技術被濫用的可能性和其產生的危害性,有必要規范算法的準入標準,明確公共性算法的現實邊界,可從算法準入、算法執行和算法監督等多個層面出發,運用多種手段對其進行價值、技術和手段的調適,引導公共性算法在正確的發展軌道上行進。這樣的規范措施不僅可以確保公共性算法的合理使用,也可以維持公共利益和個人權益的平衡。

(一)規范算法準入:建立公共性算法的現實邊界

為了規范公共性算法的使用和確保其符合公共利益,有必要構建準入機制和發布準入清單,以確保算法技術的進入和退出能夠經過安全過濾的屏障,進而實現對公共性算法的有效管理和監督。[28](p91-92)

一方面,為了加強公共性算法的規范,需要健全算法應用的法律法規。這包括明確使用大數據、人工智能和區塊鏈等技術的制度和標準體系,為算法應用提供明確的指引。同時,還需要明確技術主體的法律責任,借助適當的責任威懾機制,迫使技術主體在合理界限內依法履行職責。

另一方面,應構建算法合倫理審查機制,以防止算法使用中可能出現的倫理隱患。這一審查機制應由多元主體組成的倫理審查機構負責,包括技術專家、公眾、政府和協會等。同時,需要明確和規范審查程序,并明確審查不合格后所需承擔的倫理責任。

此外,需要建立多元合作的技術治理框架。考慮到算法技術應用的專業性,新型技術公司和技術專家成為公共領域新興的重要參與者。在進行算法治理時,需要充分發揮其積極作用,同時通過審慎地整合政府監管、市場自律和社會監督等手段,促進政府、市場和社會的良性互動與協同共贏。

(二)改善執法效果:防止權力濫用保障權利安全

人工智能將會影響數字政府建設的具體流程。在一定程度上,算法將政府決策過程簡化為了數據的分析和處理過程,雖然算法表面上是由行政人員進行掌控,但實際算法滲透到行政權力運行的部分環節,影響了政府決策。與此同時,因為算法權力的不斷擴張與膨脹,還會逐漸侵蝕公民的個人權利,如因為決策過程的秘密性和技術性逐漸剝奪了公民的知情權和參與權,又如因算法決策的自動化導致公民的申辯權和救濟權流于形式。當前政務工作的整體趨勢是逐漸向數字化平臺轉移,人們需要運用信息工具參與數字行政,防止行政權力濫用并保障公民權利和公共利益是數字政府建設中的應有之義。[28](p29)具體而言,需要從以下方面著手。

為了防止權力的濫用,一是行政機關在行政執法過程中充分貫徹適當性原則、必要性原則和均衡性原則三大比例原則。[29](p134)政府在運用公共性算法進行治理時,不僅不能過度收集和處理個人數據,還應該以必要性原則為標準限制對數據的處理深度,對于ChatGPT這類生成式人工智能,需要限制其對政務數據的利用與分析模式,避免應用政務數據得出的結論侵犯個人權益、破壞社會公共秩序。[30](p61)由此可以看出,對于公共性算法的使用是以有效實現公共治理之目的為使用限度。

二是行政機關應增強行政執法的準確性和合理性。雖然數字政府以數據資源為依托可能產生權力濫用的風險,但當其正確合理地運用這些數據資源時,本身也可以有效保障公民權利,設置合適的準入機制可以防止大型智能化企業濫用數據和技術謀取私利的風險;只有掌握足夠多的資源,才能夠避免數字鴻溝和數字貧困等信息不公平現象,并更好地維護公民的合法權益。

三是以技術路徑有效監督規制算法權力的應用。對于公共性算法的監管,需要多主體的介入,不僅是行政機關需要依規依法履職,平臺自身也需承擔義務。根據國家互聯網辦公室等多部門于2021年12月31日頒布的《互聯網信息服務算法推薦管理規定》第8條規定,算法推薦服務提供者有責任定期對其算法機制、模型、數據和應用結果等進行審核、評估和驗證。這種審核評估的目的在于確保算法推薦服務遵守法律法規,并且不設立違反倫理道德、引導用戶沉迷或過度消費等不良行為的算法模型。這一規定的出臺有助于保護用戶權益,規范算法推薦服務的運行,促進健康、公正的互聯網環境的建設。這些要求在行政機關使用公共性算法的過程中同樣適用,即,一方面,算法服務提供者應當對可能產生的風險進行評估,并將可能出現的偏差與錯誤對行政機關進行告知。另一方面,算法服務提供者和設計者還應當加強對算法的解釋,增強算法的可理解性,這不僅能夠有效指引行政機關更為恰當地運用公共性算法,在前端防止危害的產生,還有利于強化公民對算法的理解,減緩雙方信息不對稱的問題。

為了改善執法效果,除了規制權力的使用,強化權利保障也是一條重要路徑。一方面,應當賦予行政行為的行政相對相關人以算法解釋請求權與反算法決策權。即,當利用算法作出的行政結論使人存疑時,行政相對人有權請求予以解釋。同時,個人有權拒絕算法的自動化決策,特別是在認為該決策可能會擠壓或侵占個人權益的情況下。另一方面,行政相對人有請求救濟權。當算法出現風險并對自己的合法利益造成侵害時,行政相對人有權請求進行賠償或重新作出行政決定。概言之,通過對行政性相對人權利的完善,推動公共性算法審慎使用。

(三)推進司法糾偏:個案裁判與普遍規制的嵌入

司法與算法目前呈現交互嵌入狀態,主要分為兩個方面:一是算法對司法的參與,也即所謂的“司法數字化”“司法智能化”等;二是司法對算法的規制,也即用司法方式嵌入算法的發展應用。公共性算法制度建構更強調后者,也即用司法方式對算法進行調適。一般而言,司法對算法進行調適的方式有:一是以個案裁判對算法失范進行矯正;二是通過發布司法指導性案例、司法解釋以及某些規范性文件參與算法治理。具體而言,可以以下述方式推進司法糾偏。

一是通過司法方式對算法準入、語言訓練、數據分析等環節的失范行為進行糾偏。即,充分發揮司法機關的審查作用,及時發現上述環節的錯誤或歧視內容。以對算法歧視的審查為例,美國存有兩種審查模式值得我們借鑒:一是不同待遇審查模式,在這種審查模式中,存在主觀故意或固有刻板印象,是算法使用者承擔責任的前提條件;二是差異性影響審查模式,在這種模式中,并不強調算法決策者是否存在歧視的主觀意圖,而是看算法決策產生的實際結果是否導致了差異性影響。[31](p118-119)雖然兩種模式的具體實施方式并不相同,但都是通過法院審查的方式對錯誤進行糾偏。實際上,該種糾偏方式有其獨特的優勢,不僅能夠更準確、更權威地發現錯誤、認定錯誤,為糾正其他公共性算法中的錯誤起到示范作用,還能以國家強制力為支撐有效地糾正算法錯誤。基于此,我國應當立足于我國的國情,構建適宜的司法糾偏路徑,即不僅需要充分發揮檢察院的法律監督作用,還應當通過訴訟程序,積極發揮法院的司法審查作用。

二是對算法失范的各個環節相關責任人進行法律層面的問責。本文認為可以遵循類型化的邏輯思路,將算法分為行政機關對外承擔責任、行政機關內部責任配置以及第三方算法研發商的責任承擔三種類型。在行政機關的對外責任方面,無論有哪些主體參與行政程序,行政機關始終是行政行為的實施者,而算法行使的行政權力可以看作是行政權力的一種技術延伸。因此,行政機關始終應當承擔行政責任,并根據內部責任配置原則對相關主體進行追責。在行政機關內部責任配置方面,需要建立起理性算法的標準,即在類似情況下,一個理性且健全的算法是否會采取相同的行動。如果是,那么算法可以被認定為是理性的,就無須承擔任何行政責任;如果不是,則可以認定為是非理性的,并根據具體情況進行追責。對于算法運營者存在重大過失或故意的情況,應根據過錯的程度來承擔全部或大部分責任。另一方面,若是因為算法運營者的監管不力或干預不足,那么只需承擔一部分行政責任即可。至于第三方算法研發商的責任,應根據雙方簽署的行政合同作為依據。若是由于研發商的故意或過失導致行政決策錯誤,那么應根據合同約定承擔違約責任。

三是針對算法失范形成有規律性、有預測性的司法裁判導向,以此彰顯政策指引。司法裁判對于社會行為具有重要的引導作用,同樣地,在關于公共性算法相關法律規范尚不完善的背景下,可以充分發揮算法失范有關案例或判決的引導作用,不僅能夠以及時且靈活的方式規范算法的合規運行,還能起到積極有效的警示作用。當然,這些積極作用的發揮需要以司法判決說理能力的增強為前提。即,只有明確了算法失范的理由、對算法失范作出消極處理的原因進行細化與明確,才能使其預測性、引導性作用的發揮成為可能。

四是通過指導性案例、司法解釋或規范性文件等多元形式增加規范供給。無疑,指導性案例與司法解釋都對彌補現有法律關于公共性算法規定的不足有重要意義,而且不同形式的作用各不相同,在各形式的共同作用下形成了有效規范的合力。司法解釋的主要功能是對法律適用過程中的疑難問題進行解釋,并且解釋的對象和范圍不能超出法律和法規的規定。[31](p8)司法解釋可以通過有效的解釋為公共性算法的規制提供規范路徑,是一種高效且便捷的解決方法。此外,指導性案例雖然不具備造法的功能,但其具有明確法律價值和原則的作用,可以為規范和引導公共性算法提供指引。[32](p14)例如,2022年,杭州互聯網法院精心挑選了與數據或算法有關的典型案例,這對于形成合理的算法體系具有積極意義。[33]

(四)服務公共利益:價值注入增強算法工具能力

算法的內在價值可以被視為是“內生于透明過程本身且相對獨立地影響人的自由與尊嚴的價值”。[34](p53)這種內生價值在以下兩個方面得到體現:首先,在積極促進方面,算法透明使得人們在與算法進行交互時能夠理性自主、自我調適和有據可依,并在對算法產生信任的前提下自由地發展個體人格。因此,算法透明使得人的主體性和尊嚴得到了尊重,避免了成為“工具人”的命運。其次,在消極防御方面,算法透明通過提供全景的監督效果,對算法的權力進行審查,從而防止對人格自由和人性尊嚴的威脅。無論是在積極促進方面還是在消極防御方面,算法透明都有助于保障人格自由與人性尊嚴。這說明算法技術的中立性不會阻礙算法決策作為具有準公權力的社會價值導向,并且公共性算法還具有促進公共利益的內在價值。然而,如果對算法過于盲目推崇,可能會導致對人的主體價值相對忽視。同時,以算法中立或技術中立為口號可能會使公共性算法在政府治理過程中失去價值導向。因此,在發展和應用算法技術時,需要平衡考慮技術中立性與公共利益、價值導向之間的關系。必須重視人的主體價值,確保算法的設計和運用符合倫理原則,并在政府治理中保持正確的價值取向。這樣才能充分發揮公共性算法的作用,服務于公眾利益,實現社會的良好運轉。

基于上述問題,需要加強算法的“道德性”,在使用算法時要充分認識到算法的工具本質和人的主體性與尊嚴。康德認為,尊嚴是人的最高倫理價值,尊嚴不僅僅源于個體的自主性權利和尊嚴,更是基于普遍的道德自主性之上的責任和敬重。人的自主性和尊嚴體現在個體可以自由地運用自己的理性,而人的人格應受到尊重,應受到作為人的待遇。因此,為了將價值納入公共性算法的應用中,可以采取以下措施:

一是有效吸納公眾的監督意見,利用公眾對算法決策的要求、希冀以及樸素的正義觀來調整算法決策的實施路徑和算法正義。若是不將人的道德倫理、知識體系納入決策系統當中并形成有效的規制體系,機器將可能會代替人類,繼而影響整個社會結構,這將是十分可怕和難以控制的。二是進一步強調倫理道德對于算法的重要意義,并通過成立倫理委員會的形式將其落實。實際上,以倫理委員會的形式把關算法的倫理道德問題已經成為世界上的主要發展趨勢。1一般而言,倫理委員會主要審查兩方面的內容:一方面是對算法研發人員的倫理問題進行實質性審查,并針對算法的倫理問題出臺相應的標準規則。這些研發人員在從事相關研發工作時必須恪守上述標準規則。另一方面是對算法產品進行審查。雖有學者呼吁將道德準則轉化為智能語言,避免突破倫理底線,但此種呼吁具有操作上的難度。相較之下,若在審理過程中發現算法相關產品可能存在危及倫理的風險,及時停止相關產品的研發以及產品后續的投入使用。

(五)強化算法監督:限制數據利用維護公共秩序

新一代人工智能迭代迅速,但數字政府建設程度依然不足,尤其是監督不足。算法監管的核心是對數據利用方式的監管,以此來確保數據的準確合理使用,消解公共性算法使用的弊端,為實現公共秩序的良好維護提供保障。

一是需要明確公共性算法利用何種數據。算法在沒有獲得授權的情況下使用數據,尤其是政務數據,有不合規之虞。具體而言,政務數據中包含大量的個人信息,目前關于數據開放共享和使用管理的規范性文件層級較低,如《關于加強黨政部門云計算服務網絡安全管理的意見》《上海市公共數據開放暫行辦法》《中山市政務數據管理辦法》等,若僅是依據這些政府規章或規范性文件便對法定的個人信息權益造成侵害,其在很大程度上是不具備合法性與正當性的,故應根據國家對政務數據管理的整體布局來構建對應的合規監管體系。可以從以下方面進行細化:1.細化政務數據開放的許可授權機制,包括政府機構將政務數據的著作權許可給數據利用主體的協議,以及對數據利用主體著作權的獲取和使用進行約束;2.完善個人信息數據的分級開放制度,定期對政務數據的分類分級進行重新評估,確保數據開放的合理性和安全性;3.建立政務數據利用申請制度和利用監督制度,申請利用政務數據時,要求提交身份證明、申請范圍和理由等材料,在數據利用過程中通過多元監督主體監管數據的合規性;4.建立政務數據技術規則架構,通過推動數據技術的培育、研發、應用和更新,提升數據合規的能力,確保數據的安全、有效使用。[35](p148-150)

二是需要明確公共性算法如何利用數據。政府在利用數據進行決策過程中,在數據的獲取、取樣、篩選、轉換以及數據存儲的管理、規則的設計與評價環節都可能會出現歧視,繼而侵害個人權益、破壞社會公共秩序。基于此,必須通過相應舉措來避免使用數據時所產生的歧視問題:1.提供多元的專家團隊,包括數據科學家和社會科學家,以準確識別偏見問題和提高他們的識別能力;[36](p127)2.確保數據的代表性,包括各類代表性與非典型性個體;3.模型設計時要排除偏見,可以通過執行偏見測試等方式提前發現潛在的偏見問題;4.使用公平性指標來量化機器學習算法的公平性,結合傳統性能指標評估模型的整體性能、類別性能和廣泛應用性。另外,也可以設計用于量化機器學習偏見的公平性指標。[37](p99)概言之,通過具體制度的構建與設計來避免數據使用偏見問題的產生。

四、結語

公共性算法的發展為政府治理提供了一種智慧化的途徑,已經成為推動政府治理能力現代化的重要力量。但如何認識、面對、適應以及正確引導智慧化或者數字化公共性算法的發展方向,防止其偏離正軌,仍是一個需要深入思考的課題。從人工智能技術發展的客觀規律來看,盡管人工智能在一些特定任務上取得了顯著進展,但在算法應用的主導權和控制權方面,人類仍然處于核心地位,并具有決定算法發展路徑和應用方式的權力。正是這種權力分配確保了人工智能的良性發展,使其在為人類社會帶來便利和效益的同時,能夠遵循人類的價值觀和倫理道德標準。為此,未來在公共性算法的制度建構中,應當堅持人的主體核心地位,發揮公共性算法的輔助作用,實現技術與人文的和諧統一。具體來說,在算法的設計階段,注重融入社會主義核心價值觀,強化算法的公共價值導向;在算法的應用階段,建立完善的監管機制,防止算法權力濫用對公民權利造成侵害;在算法的評估階段,建立科學合理的評估體系,確保算法決策的客觀性和準確性;在算法的發展階段,堅持技術中立性與價值導向的平衡,確保算法決策符合倫理原則,服務于公共利益。在此基礎上,通過多元共治、多方并舉的方式規范公共算法的設計、運用,引導其在良性的軌道上發展,以確保公共性算法在政府治理中的合理、公正和可持續應用。

參考文獻:

[1]張海柱.算法治理中的算法公共性及其實現[J].自然辯證法通訊,2023,(6).

[2]陶燾.算法的治理:算法權力執行偏差與公共性重塑[J].領導科學,2023,(3).

[3]吳靖.“算法”具有自由意志嗎?——算法主導社會行為背后的幾個悖論[J].中國出版,2019,(2).

[4]孫清白.人工智能算法的“公共性”應用風險及其二元規制[J].行政法學研究,2020,(4).

[5]杜振雷,劉金婷,史金鵬.ChatGPT及其核心技術在科技名詞規范化中的應用潛力與挑戰[J].中國科技術語,2023,(4).

[6]支振鋒.生成式人工智能大模型的信息內容治理[J].政法論壇,2023,(4).

[7]段忠賢,沈昊天,吳艷秋.大數據驅動型政府決策:要素、特征與模式[J].電子政務,2018,(2).

[8]龍柯宇.生成式人工智能應用失范的法律規制研究——以ChatGPT和社交機器人為視角[J].東方法學,2023,(4).

[9]劉宇軒,張乾友.“人工智能+”政府決策:挑戰與應對[J].貴州社會科學,2021,(4).

[10]張夏恒.類ChatGPT人工智能技術嵌入數字政府治理:價值、風險及其防控[J].電子政務,2023,(4).

[11]張欣.生成式人工智能的算法治理挑戰與治理型監管[J].現代法學,2023,(3).

[12]陳潭,王穎.人工智能時代政府監管的實踐轉向[J].中南大學學報(社會科學版),2023,(2).

[13]張星一,呂虹.人工智能在藥物研發與監管領域的應用及展望[J].中國新藥雜志,2018,(14).

[14]王冀寧,吳雪琴,陳庭強.人工智能在食品安全智慧監管中的應用研究[J].中國調味品,2018,(11).

[15]邢會強.人工智能時代的金融監管變革[J].探索與爭鳴,2018,(10).

[16]王張華,顏佳華.人工智能時代算法行政的公共性審視——基于“人機關系”的視野[J].探索,2021,(4).

[17]翟月熒.算法行政的興起、風險及其防控[J].新視野,2022,(3).

[18]王恩媚,李偉權.政務智能化視域下“算法影子官僚”逐利風險的樣態、成因與防范[J].領導科學,2022,(8).

[19]吳漢東.人工智能生成作品的著作權法之問[J].中外法學,2020,(3).

[20]李凌,陳昌鳳.信息個人化轉向:算法傳播的范式革命和價值風險[J].南京社會科學,2020,(10).

[21]喻國明,陳艷明,普文越.智能算法與公共性:問題的誤讀與解題的關鍵[J].中國編輯,2020,(5).

[22]崔中良,王慧莉.人工智能研究中實現人機交互的哲學基礎——從梅洛·龐蒂融合社交式的他心直接感知探討[J].西安交通大學學報(社會科學版),2019,(1).

[23]范向民,范俊君,田豐,等.人機交互與人工智能:從交替浮沉到協同共進[J].中國科學:信息科學,2019,(3).

[24]昌誠,張毅,王啟飛.面向公共價值創造的算法治理與算法規制[J].中國行政管理,2022,(10).

[25]汪太賢,唐祎.人工智能嵌入政府治理:算法圖景、價值問題與回歸路徑[J].中國科技論壇,2023,(2).

[26]趙宏.公共決策適用算法技術的規范分析與實體邊界[J].比較法研究,2023,(2).

[27]龐金友.人工智能與未來政治的可能樣態[J].探索,2020,(6).

[28]劉艷紅.生成式人工智能的三大安全風險及法律規制——以ChatGPT為例[J].東方法學,2023,(4).

[29]劉權.目的正當性與比例原則的重構[J].中國法學,2014,(4).

[30]周佑勇.中國行政基本法典的精神氣質[J].政法論壇,2022,(3).

[31]鄭智航,徐昭曦.大數據時代算法歧視的法律規制與司法審查——以美國法律實踐為例[J].比較法研究,2019,(4).

[32]賀海仁.規范與理由:我國指導性案例的文本價值與功能重構[J].北方法學,2022,(4).

[33]杭州互聯網法院.杭州互聯網法院:數據和算法十大典型案例[EB/OL].http://ytzy.sdcourt.gov.cn/lylsfy/393876/tszs5176/8935261/index.html,2022-10-19/2023-10-01.

[34]安晉城.算法透明層次論[J].法學研究,2023,(2).

[35]任丹麗.政務數據使用的法理基礎及其風險防范[J].法學論壇,2023,(2).

[36]孫躍.數字經濟時代企業數據合規及其構建[J].湖北社會科學,2022,(8).

[37]張濤.自動化系統中算法偏見的法律規制[J].大連理工大學學報(社會科學版),2020,(4).

責任編輯" "賈曉林

1參見《生成式人工智能服務管理辦法(征求意見稿)》第二條。

1參見《生成式人工智能服務管理辦法(征求意見稿)》第二條。

1我國科學技術部會同教育部、工業和信息化部、國家衛生健康委等十部門聯合印發的《科技倫理審查辦法(試行)》正式在法律法規層面明確了我國的科技倫理審查體系,該辦法已于2023年12月1日開始施行。《科技倫理審查辦法(試行)》第四條,從事生命科學、醫學、人工智能等科技活動的單位(包括高等學校、科研機構、醫療衛生機構、企業等),研究內容涉及科技倫理敏感領域的,應設立科技倫理(審查)委員會。其他有科技倫理審查需求的單位可根據實際情況設立科技倫理(審查)委員會。例如,阿里巴巴早在2022年9月就已設立科技倫理治理委員會,其核心成員分別來自阿里研究院、達摩院、法務合規、阿里人工智能治理與可持續發展研究中心以及相關業務板塊,同時,該委員會還引入了外部視角和監督,聘請七位來自科技、法律、公共管理、哲學等領域的專家組成獨立的顧問委員會,為規則制定和倫理審查提供咨詢建議;而百度則于2023年10月正式成立科技倫理委員會,該委員會匯集了各領域專家力量,同時引入權威外部視角和監督,通過專項研討和評估等方式,確保人工智能技術和應用符合法律標準和倫理規范。

主站蜘蛛池模板: 98超碰在线观看| 三上悠亚一区二区| 国产九九精品视频| 99久久国产综合精品女同| 99999久久久久久亚洲| 91探花在线观看国产最新| 毛片大全免费观看| 在线亚洲小视频| 国产精品视频观看裸模| 伊人激情综合网| 777午夜精品电影免费看| 97免费在线观看视频| 欧美精品一区二区三区中文字幕| 永久在线播放| 免费一级无码在线网站| 97se亚洲综合在线韩国专区福利| 亚洲欧洲AV一区二区三区| 少妇被粗大的猛烈进出免费视频| 亚洲国产日韩一区| 欧美成人手机在线视频| 爆乳熟妇一区二区三区| 又污又黄又无遮挡网站| 国产主播喷水| 高清欧美性猛交XXXX黑人猛交| 四虎免费视频网站| 激情影院内射美女| 亚洲AV成人一区二区三区AV| 久久精品无码国产一区二区三区| 波多野结衣一区二区三区四区| 亚洲一级毛片在线观播放| 国产91九色在线播放| 色婷婷亚洲综合五月| 国产丰满大乳无码免费播放| 亚洲床戏一区| 亚洲第一区欧美国产综合| 亚洲成aⅴ人片在线影院八| 爱色欧美亚洲综合图区| 香蕉99国内自产自拍视频| 国产国模一区二区三区四区| 波多野结衣无码视频在线观看| 国产乱子伦视频三区| 国产精品久久久久无码网站| 久久精品人人做人人| 国产成人高精品免费视频| 国产素人在线| 国产人前露出系列视频| 青青极品在线| 色呦呦手机在线精品| 久久久久亚洲精品成人网| 成人福利在线视频| 亚洲一区二区日韩欧美gif| 美女啪啪无遮挡| 伊人天堂网| 欧美成人手机在线视频| 毛片免费在线视频| 国产在线视频福利资源站| 福利在线免费视频| 国产情侣一区二区三区| 国产无码在线调教| 欧美特级AAAAAA视频免费观看| 久久青草精品一区二区三区| 宅男噜噜噜66国产在线观看| 这里只有精品国产| 国产91高清视频| 一级香蕉视频在线观看| 日韩高清无码免费| 无码精油按摩潮喷在线播放| 欧美亚洲国产日韩电影在线| 免费国产小视频在线观看| 国产永久在线观看| 国产91九色在线播放| 国产女人18水真多毛片18精品 | 国产传媒一区二区三区四区五区| 亚洲人成网7777777国产| 色综合热无码热国产| 欧美日本一区二区三区免费| 亚洲精选无码久久久| 国产高清无码第一十页在线观看| 青青草原国产| 最新国产精品鲁鲁免费视频| 欧美午夜理伦三级在线观看| 国模沟沟一区二区三区|