徐亞文,陳路易
(武漢大學 法學院,武漢 430072)
人工智能與法的結合是法律科技發展的客觀趨勢。在地方立法領域,國家也逐步推進立法工作的智能化與現代化。2017年《新一代人工智能發展規劃》提出要“開發適用政府服務與決策的人工智能平臺,研制面向開放環境的決策引擎”。2020年全國人大常委會的“立法計劃”和“工作要點”更是首次提出要建設全國統一的備案審查信息平臺,形成聯結人大機關的電子政務網絡。為了落實中央決策部署,近年來中國法律大數據聯盟、國家法律法規數據庫等各類人工智能平臺陸續建立,各個省市紛紛開展地方立法與人工智能結合的有益嘗試,如天津市人大常委會使用的北大法寶智能備案審查系統、上海市建立的政府立法信息平臺、浙江省政府聯合浙江大學成立的立法研究院,以及多地建立的立法項目庫等。通過大數據、知識圖譜、自然語言系統等人工智能技術搜集、分析立法數據和信息,地方立法的成本顯著降低,質量和效率明顯提高。[1]但是人工智能是一種高度專業性和復雜性的技術手段,在特定的應用場景中往往呈現兩幅面孔:一是以生產和賦權為代表的慈祥面孔,二是以侵入和約束為代表的陰暗面孔。[2]它在為地方立法帶來巨大便利的同時,也使相關法律風險同步出現。基于此,本文立足于“數字法治”下人工智能輔助地方立法的先試先行,分析地方立法智能化可能帶來的法律風險,并探索規制立法人工智能應用的合理路徑。
黨的十九大報告提出要堅持科學立法、民主立法、依法立法,以良法促進發展、保障善治。國家對立法工作的要求越來越高,任務也越來越重。[3]在“信息爆炸”的智能化時代,依靠傳統人工方式的地方立法工作者面臨巨大的工作量和人才儲備匱乏的窘境,很多地方立法的出臺雖在一定程度上實現了社會關系的依法治理,但也暴露出立法矛盾、粗糙、重復、抄襲、無特色等問題,難以實現良法善治的目標。而人工智能作為集當下信息革命的最新成果于一身的技術,能夠在數據學習的基礎上通過自然語言系統進行推理、規劃、決策、交流和行動,具備像人類一樣思考的潛力,彌補人類思維的短板。[4]近年來,伴隨著立法公開和法律數據庫的建立,越來越多的法律數據可以被搜集和利用。立法可以被計算,部分立法決策也可以由人工智能代勞。立法人工智能開始成為地方立法工作者的工具,甚至變為“伙伴”,給地方立法工作帶來諸多便利。[5]170
一方面,人工智能天然的信息搜集、分析、評價和預測功能可以輔助地方立法工作者做出高效科學的立法決策,因為這樣的決策是基于數據理性而非立法工作者的經驗或主觀感受。首先,在信息搜集上,“大數據時代,公共決策最重要的依據將是系統的數據,而不是個人經驗和長官意志”[6]。受制于地方立法工作者的認知水平和客觀條件,以往的地方立法工作者難以頻繁或一次性處理超量信息。而大數據的采集和儲存處理技術可以幫助地方立法機關在全樣本研究的基礎上尋求多元化信息來源,實時捕捉、全面搜集、及時記錄與立法議題相關的資料,并在此基礎上開展數據清洗工作,保留有利用價值、有潛在利用價值的立法資料,剔除無價值的立法資料,改變以往簡化立法的做法,推動立法的精細化。其次,在法律草案編纂上,以北大法寶智能輔助草案生成系統為例,地方立法機關只要按照規則輸入特定的主題、標準、要求和立法調研信息,便可得到一部可供參考的草案文本。除此之外,立法人工智能還可以高效糾正錯別字,改進句式和文本結構,有效消除地方立法中存在的抄襲、抵觸和文本缺陷的弊端。再次,在法律備案上,自2014年天津市人大首次使用北大法寶智能備案審查系統后,河南、河北、黑龍江等省市紛紛展開應用,實現了文件報備、備案、審查、歸檔、收集審查要求和審查建議的全流程管理,實現了對地方法律規范實時、動態和追溯式的審查,有效提高了備案審查的科學性和效率,維護了法律尊嚴和國家法制的統一。最后,在立法評估上,傳統的立法評估存在主體單一化和主觀化、數據缺失、數據失真、結論形式化等弊端,立法人工智能可以通過數據模型的建構,就某項問題進行交叉對比以及定性、定量分析,形成結構化、可視化的評估報告,為地方立法評估活動提供科學參考。
另一方面,立法人工智能高度的開放性和聯結性能夠擴大立法民主參與的渠道,輔助地方立法工作者充分聽取民意。以往地方立法實現民主參與的環節主要是公開立法草案征求意見,方式主要為基層調研、問卷調查、召開論證會和聽證會等。受制于成本和時間,公眾參與立法的范圍十分有限,有些地方甚至存在“作秀”嫌疑,民主參與機制流于形式。而立法人工智能可以有效擴大公眾的立法參與渠道,高效整合公眾的立法意見。在人工智能時代,權力結構呈現“去中心化”的特征,民眾可以在抖音、微博、微信等網絡空間表達自己的見解。爬蟲技術和數據API(應用程序編程接口)技術能夠迅速、全面地從互聯網上采集這些評論意見并自動分類、排重和常識校對,并且通過互聯網等技術實現各地共享,方便地方立法機關汲取民智。[7]另外,通過大數據的挖掘分析和可視化技術,地方立法可以對合理或不合理的民眾意見進行廣泛收集和精細整理。立法意見的整理分析是一項重要的系統工程。一部法律草案的征集意見稿可以收到數十萬條的立法意見。這對于受制于認知能力和客觀條件的地方立法工作者無疑是一個巨大的挑戰。在大數據技術的幫助下,地方立法機關可以大幅度降低計算成本并對公民意見進行實時有效的反饋。
由于技術的雙刃劍屬性,人工智能輔助地方立法過程中必然伴隨著消極影響,尤其是科技異化問題。[8]馬克思在《1844年經濟學哲學手稿》中通過勞動異化較為詳細地闡釋了異化的內涵——人道主義思想體系基本概念的異化即為人道主義的對立面。在主客二分的前提下,主體在實踐中認識和改造客體,最終實現主客體相統一。但異化導致主客體對立,客體開始操控和驅使主體,主體非但沒有實現自我發展,反而被物化和貶低。在人工智能時代,科技異化成為異化理論的重要表現形式之一。具體到人工智能輔助地方立法領域,科技異化是指經由人工智能作用過的立法活動,不但沒有產出高質量的立法成果,對規范對象發揮應有的指引、預測、評價、教育等積極功能,反而構成一股“反我”的力量,壓抑、束縛和否定立法效果的發揮,產生一系列與人們預期相反的負面效果。當前人工智能輔助地方立法的程度尚淺,正面、積極的影響占據上風。但隨著人工智能的不斷革新,二者結合的趨勢可能愈發廣泛和深入。在此過程中,人工智能異化所帶來的負面效果便成為避無可避的問題。根據《中華人民共和國立法法》的規定,地方立法需要遵守依法立法、民主立法和科學立法原則。[9]而立法人工智能的應用可能會反作用于地方立法,影響地方立法過程和地方立法成果的合法性、民主性和科學性。
地方立法的合法性風險主要集中在數據的收集和處理環節。數據的收集和處理是伴隨地方立法全程的必備環節。立法人工智能的應用則將這一環節放到了更加突出和重要的位置,這使地方立法在獲得便捷性的同時,也無形中放大了其在數據收集和處理中的弊端。
一方面,立法人工智能對數據的收集和處理可能使地方立法成果繼續復刻甚至加深社會存在的歧視或偏見,難以貫徹憲法和法律規定的法律面前人人平等原則。在計算機領域流行著一句話:數據的質量和特征決定了模型的上限,模型的選擇決定了它最后能否逼近這個上限。這句話同樣適用于立法人工智能的運作。從數據收集來看,立法人工智能收集的數據本身存在歧視和偏見問題。第一,原始數據是或先進、或落后的人類社會價值觀念的反映或折射,本身帶有歧視或偏見。經由立法人工智能程序收集的數據加工而成的信息,也不可避免帶有歧視或偏見,那么地方立法的平等公正便很難得到保障。谷歌公司曾開發了一款人工智能面試官,輔助企業HR招募錄用人才。盡管它在數學意義上有不錯的表現,但在模擬測試階段仍表現出性別歧視和種族歧視。這些歧視便來源于人工智能面試官的學習對象——人類面試官。[10]正所謂“垃圾進,垃圾出”,偏頗的數據輸入一定會導致錯誤的結果。立法人工智能不是人腦,面對本身存在主觀性的數據,人類可以能動性地判斷或接受社會規則的制約,從而不斷修正自己的行為模式。而立法人工智能只能根據既定的算法模式悄無聲息地不斷重復甚至擴大這種偏見或歧視,這就會導致輸出的結果繼續復制已存在的不平等并通過立法獲得合法性。第二,在大數據時代,社會少數群體和弱勢群體很難發出自己的聲音,容易被湮滅在時代的數據潮流之中。立法人工智能只能收集可以看到的數據資料,對于這些弱勢群體,單憑技術手段很難發掘出來。借助立法人工智能產出的立法結果進一步加劇了這些群體的弱勢地位,導致立法的“隱性歧視”,還沒有充分積累個人信息的社會主體將會被排除在更多商業服務以外。[11]從數據的處理來看,數據需要經過算法轉化才能輸出有參考價值的立法信息。從數據的分類、編碼再到程序建模、數據訓練,每一個環節都離不開研發者的加工。然而這些研發者并非立法領域的專家或其他法律職業者,在算法轉化過程中可能無意識地將個人偏見帶入機器學習中。經過算法深度學習,這種歧視或偏見可能被放大,從而輸出對地方立法工作者帶有誤導性的參考信息,最終影響地方立法內容的公平公正。
另一方面,立法人工智能在進行數據收集和處理時可能導致整個地方立法過程伴隨著泄露個人信息和侵犯個人隱私的風險。立法人工智能極大地增強了地方立法工作者的信息處理能力,這就為官方介入私人空間開辟了通道。地方立法工作者利用立法人工智能可以輕易地搜集、整理和利用來自各方面的數據,不僅僅包括已經公開的法規文本、司法裁判文書等,還可能包括非公開的軟件后臺運行數據等。盡管受法律調整的數據是對個人信息進行加工處理和脫敏以后的衍生信息,并不與信息主體直接關聯,但數據本質上仍是信息的綜合,并非絕對不能與信息主體關聯。[12]一旦這些信息或隱私在地方立法過程中被不當外泄或利用,便會對公民的合法權益造成極大損害。目前便存在某些地方立法機關在立法草案征集環節利用大數據技術對提出立法意見的對象的相關數據進行挖掘分析,依據畫像模型所體現出來的信息決定是否采納該群體的意見。[13]71這明顯超出了個人信息的使用范圍,嚴重侵害了公民的合法權益。
根據《中華人民共和國立法法》第5條規定,立法應當體現人民的意志,發揚社會主義民主,堅持立法公開,保障人民通過多種途徑參與立法活動。民主立法原則要求地方立法過程要充分實現公眾的參與和監督,保證立法公開;地方立法成果要充分體現公眾的意志和利益,為人民服務。然而立法人工智能的應用可能對地方立法過程和結果的民主性產生負面影響。
一方面,人工智能輔助地方立法可能排斥公眾對地方立法過程的實質參與與監督。誠然立法人工智能的應用有利于從形式上拓寬公眾參與立法、表達意見的渠道,但這只是民主立法的一個方面。立法人工智能對民主造成的危害更多體現在其專業阻隔性和不透明性導致公眾在地方立法過程中無法實現對地方立法過程的實質理解與參與,更遑論進行有效的監督。因為地方立法工作者根據智能輸出的結果所做的一系列立法決策并非建立在多方討論、信息透明的基礎上,其中必然包含“不穩定、不公平和不勞而獲的因素”[14]。一是立法人工智能數據庫的構建、算法設計和程序編寫、數據參數權重、定量分析方法的選擇等內容都不能由公眾知情和選擇,也很難通過人類理解的術語進行解釋,從而降低了立法的可解釋性。二是立法人工智能擁有強大的數據處理和智能分析系統,相比之下,民眾缺乏必要的專業知識和技能,很難表達其利益需要或看法建議,同地方立法機關開展辯論和協商。到最后,公眾雖參與了立法,卻無法真正理解立法結果背后的決策機理,流于表面的參與和監督容易造成公眾對立法結果的認同感和信任感降低。
另一方面,人工智能輔助地方立法可能造成“立法劫持”,使地方立法成果不能充分體現公眾的意志和利益。[5]164地方立法中雖伴隨著價值協調和妥協,但應始終以人民的利益為終極價值取向。除了地方立法過程中對公眾實質參與的排斥會影響立法成果的民主性外,在人工智能時代,諸如阿里巴巴、華為、谷歌等高科技公司成為推動智能技術生產和發展的主力軍,他們擁有雄厚的資金,也往往掌握甚至壟斷著該領域絕大部分先進技術。在應用人工智能的過程中,地方立法與高科技公司進行合作是有必要的,但如果應用于地方立法的大數據技術或數據庫被利益群體操控,地方立法工作者便不得不依靠他們來跨越技術鴻溝,而這些科技公司有可能利用其科技實力趁機干擾地方立法,以保護其在該領域的既得利益或壟斷地位,從而使地方立法偏離制定的基本目的,無法實現對公眾利益的保障,地方立法成果便很難體現民主原則。
科學立法原則要求地方立法立足于實踐,科學合理地規定公民、法人和其他組織的權利義務。立法人工智能的應用也對地方立法過程和地方立法結果的科學性產生了不利影響。
立法人工智能給地方立法過程造成的科學性風險主要聚焦在地方立法工作者身上。以往法律的制定主要依靠地方立法工作者主動搜集、篩選、分析信息,做出科學的立法評估、預測和決斷。地方立法工作者作為法律職業的重要群體之一,需要遵守“審慎規范”的職業倫理要求,謹慎評估地方立法可能造成的影響并平衡利弊得失。[15]然而在信息爆炸的時代背景下,地方立法工作者可能基于對科技的盲從或懶惰心理,將輸出的智能結果機械地反映到立法決策和法律制定中。[16]例如當前便存在某些地方借助智能技術手段“東拼西湊”其他地方的規范性文件組合為毫無特色的地方立法的現象。立法人工智能輸出的結果并非科學的結果。一方面,立法人工智能存在技術短板,不能反映與立法有關的社會全貌。比如立法人工智能重要的數據來源之一是網絡爬蟲技術對“微數據”進行搜索和相關性分析,但它爬取的數據有可能是人為炒作的“信息流量”或“熱度”,如易受人為因素操控的“微博熱搜”現象,而偏冷門事件的背后可能才是真正重要的信息。立法人工智能并不能正確辨別媒體報道的“噱頭”,如果地方立法工作者在利用信息時不加以分辨,制定的地方立法就會偏離社會實際。另一方面,立法活動是一項極為重視人文精神且專屬于“人”的獨特活動。代表人文精神的地方立法與代表技術理性的立法人工智能之間存在難以跨越的鴻溝:立法人工智能只能通過數據的檢索、挖掘和分析節約立法工作者部分腦力勞動,卻無法理解立法背后復雜的社會關系。因為立法并非單純的理性計算,還包含相互沖突的法的價值選擇、政策因素考量和情感色彩,所以對于如何取舍和排序,只有具備深厚專業知識的立法工作者才能勝任。長期沉溺于立法人工智能帶來的高效便捷會導致地方立法工作者形成“路徑依賴”,長此以往立法洞察力與判斷能力便會被逐漸削弱,本可以在地方立法過程中通過審慎注意的義務規避的風險便無法得以規避。
立法過程的科學性是立法產出成果可靠性的保證。但是,即便地方立法工作者在立法過程中盡到了審慎義務,新技術的應用還是會給立法成果帶來難以預料、難以避免的科學性風險。這種科學性風險一方面源于智能技術本身的不確定性。人工智能根植于算法,然而算法是一項晦澀難懂的技術,尤其是在與人造神經網絡系統等前沿科技結合后,深度學習可以引發算法迭代并通過大數據量化放大。這個過程極為復雜,就算是研發者團隊也無法知曉其運作過程,也即“算法黑箱”現象。由此輸出的智能結果便很難判斷是否可靠,是否偏離了設定目標。以此智能結果為決策依據的地方立法亦需要承擔這些不確定風險,從而給地方立法的科學性帶來極大挑戰。科學性風險另一方面源于立法技術與智能技術間的專業阻隔性。目前法律職業群體普遍缺乏基礎的自然科學素養,立法領域的大數據、算法等智能技術人才更為稀缺。立法和智能系統開發都屬于專業性活動,技術人員需要了解該產品服務的立法環節在整個立法程序中的位置和作用、與其他立法環節的關系以及立法的整體運作,地方立法工作者需要具備將立法需求進行信息化描述的能力。但從目前來看,二者之間存在溝通壁壘,法律語言和概念又具有模糊性和爭議性,更加劇了開發一套科學專業的立法人工智能的難度。另外,立法人工智能的推理模式是基于數據的相關性推算,而非經過因果關系的推理,因而也會不可避免地產生錯誤,影響地方立法的科學性。
科技發展的最終目的是實踐應用,否則便失去了存在的意義。以往科技法治的經驗證明,科技只有被有效轉化,賦能經濟社會的迅速發展,才能實現造福人類社會的價值。對于擁有極大發展前景的立法人工智能,不能因噎廢食,而應積極、樂觀地接納,同時也需要意識到人工智能在應用上具有其他科技無法比擬的迭代效應。雖然立法人工智能造福地方立法工作,但也會給地方立法造成諸多意想不到的負外部性后果。[17]對此需要前瞻性地預防、約束和引導,最大限度降低可能產生的法律風險,實現立法人工智能應用安全、可靠、可控發展。
人工智能輔助地方立法是一項典型的賦能科技活動,表現為“立法人工智能+地方立法場景”的二層結合關系。[18]前者屬于賦能行動,蘊含效率價值,表明立法人工智能給地方立法帶來效率的提升和成本的降低;后者屬于被賦權的事項,蘊含應用場景的本體價值。從這個意義上說,對人工智能輔助地方立法引發的法律風險的規制需要達到立法人工智能賦能行動產生的效率價值與地方立法本體價值的合理平衡。這就需要深入具體的應用場景,對地方立法和人工智能的規律特性及現實狀況進行精準分析,既要采取措施避免因追求效率提升而產生科技異化風險,影響地方立法的價值定位、風險設定和邊界秩序,又要避免故步自封,致使對相關法律風險的規制擠壓立法人工智能的正常發展空間,影響法律科技對法治建設的支撐和幫助。
目前國內外形成了諸多關于人工智能賦能某種場景的風險治理范式:傳統的行政命令控制式、無須批準式、審慎監管式、元規制模式和協同治理模式。人工智能的發展日新月異,行政命令控制式下,傳統的科層制政府治理結構往往不能快速回應社會關系的發展變化,而且還存在難以跨越的技術壁壘,很容易導致干預不當或干預不足,影響人工智能的進步或是加劇賦能事項本身的異化風險。美日等國采取無須批準式:除非有充足的案例證明某一類智能程序的危害性,否則該智能程序的研發都被默認為允許;英法采取審慎監管式,更關注以數據為基礎的機器學習對公民隱私和自由造成的危害,只有在被證明沒有危險的條件下,某一項新技術或商業模式才能夠被使用。[19]這兩種模式都存在很大弊端。前者預設的是規制主體事后監管的有效性,當事后監管失效時,公共政策便無法解決已造成的風險后果;后者存在天然的邏輯漏洞和實踐上的不可操作性:算法運作往往具有不可預測性,其危險系數更是很難證立,長此以往將嚴重阻礙人工智能的發展。元規制模式實質上與美日的無須批準式并無區別,它包括兩個維度:一方面,規制主體需要劃定一個基礎目標和底線,具體規制的內容和方式由被規制者自行制定;另一方面,規制主體應把更多精力放在提升學習能力上,當行業自治發生偏差且無法調節時,再采取必要手段維護公共秩序。[20]元規制模式賦予人工智能自治的優先權,但人工智能賦能科技活動不同于傳統的技術專業活動,等到自我規制失靈時再介入,很可能已造成無法挽回的嚴重后果。
以上模式要么無法合理規制人工智能應用帶來的風險,要么嚴重阻礙了人工智能的成長,都不是可資借鑒的理想模式。無論是事前監管、事后監管,還是自證危險,其都沿用了傳統的單一主體的治理模式,一律將人工智能視為被監管的對象。然而在人工智能輔助地方立法領域,對法律風險的規制往往包含諸多高度專業性和復雜性的問題,傳統的治理主體并不具備深厚的人工智能專業知識,相關技術性人才也處于緊缺狀態,在規制時顯得力不從心,很容易造成無須批準式或元規制模式下片面追求立法效率而導致地方立法價值本位位移或審慎監管式下立法人工智能發展舉步維艱,難以有效輔助地方立法工作的開展。舉個例子,算法是人工智能輔助地方立法發揮效用的關鍵要素之一。它關系著立法相關數據信息的搜集和預測的質量,影響著立法決策的科學性。但對算法的規制往往涉及法律、道德、專業技術等多層面的問題,政府不再像管理傳統行業那樣享有決策的權威地位。如果立法人工智能算法設計與開發得不到合理規制,地方立法過程和結果的合法性、民主性與科學性就得不到保障;如果對算法程序研發的管控過于嚴厲,立法人工智能便很難實現賦能行動的效率價值。這些治理范式已然無法應對人工智能時代所引發的復雜風險。
與其他治理范式不同,協同治理模式將社會視為一個由公民、法人、政府等諸多治理主體構成的開放復雜的系統整體,主張治理主體的多元化和治理權威的多樣化,提倡各個子系統在利益依賴的基礎上共同參與規則制定,實現信息共享、互利互惠、責任共擔、深度交互的目標,最終達成更高級別的整體治理效應。[21]人工智能輔助地方立法也形成了由地方立法機關、研發企業、公民等不同主體構成的系統整體,這些主體間彼此聯結,相互影響,作用力此消彼長,共同形塑了智能化地方立法的最終樣態。在這個系統中,人工智能輔助地方立法引發的法律風險具有高度復雜性,單個主體都不具備化解全部或某一類風險的完備知識,但法律風險卻與每個主體息息相關。同時,人工智能輔助地方立法牽涉多方利益主體,各個子系統利益的差異和博弈也導致該領域很難形成穩定有序的治理結構。如果不形成治理合力,很容易導致風險規制過程中的價值失衡,影響地方立法的完善和進步。這就使構建該領域的協同治理規則體系顯得尤為重要。結合立法人工智能帶來的相關法律風險,筆者認為可以從主體協同、利益整合和信息交流這三個宏觀層面著手,分別構建多元主體協同治理體系、多元利益協同整合體系和多元信息協同整合體系,為地方立法合法性、民主性和科學性風險治理制定基本的規制框架,實現立法人工智能賦能行動的效率價值與地方立法的本體價值的整體平衡。
第一,多元主體協同治理體系。政府并非由專業技術人員構成,即便引進專家輔助,也需要一定的時間,因而很容易導致法律風險管控不當。合理的做法是,在履行法定職責基礎上,政府可以調動更廣泛的社會力量,形成技術治理的決策權威聯盟[22],促進該領域的自組織系統的形成,提升人工智能輔助地方立法的容錯能力,實現治理效能的“帕累托改進”。
就官方治理層面,政府作為行政管理主體和立法主體之一,在對相關法律風險的規制中占據主導地位。首先,政府可以嘗試依托國家信息中心構建一個立法人工智能發展委員會,負責統一組織和實施立法人工智能研發前的審查、研發中的監督和研發后的評估,從技術層面整體把控算法開發的公平公正和數據產權、應用、交易、共享的規定,盡力避免算法黑箱、技術獨裁、隱私侵犯等風險的出現。其次,從長遠來看,為了有效規制立法人工智能,縮小技術專家與立法專家間的溝通鴻溝,政府有必要有針對性地搭建人才培養渠道,加強對外包公司技術人員的法律專業和道德倫理培訓,加強高校內跨學科人才培養與輸送,保證技術人員對立法需求、程序有足夠的了解,也保證地方立法工作者充分了解立法人工智能的運作機理。最后,政府需要突破制度性障礙,減少公權力對其他治理主體的“擠出效應”,堅持有所為有所不為,著力培育其他治理主體和搭建平臺,如研發企業、行業協會等,促進治理規則的共同參與,彌補政府由于技術、專業、人力等造成的治理缺失。[23]
對于研發機構而言,首先,研發機構需要在遵循國家規定的算法、數據規則和各項技術標準的基礎上做出自我監管的承諾,對立法人工智能產品的質量安全與性能承擔相應的義務和責任。其次,研發機構也要重視其他社會規范功能的發揮。當前人工智能處于發展初期,在各項法律尚不健全的情況下,研發企業需要加強道德責任感和道德自律。例如谷歌公司頒布《谷歌AI的原則》,明確規定本公司未來堅持的四大倫理底線,這便可以在一定程度上填補政府治理和法律規范的漏洞。[24]另外,行業協會可以在法律規范的指導下細化或補充統一的算法研發和數據管理規則、科學倫理標準等。法律不可能事無巨細地規定技術研發過程中的所有問題,行業自治規則可以有效填補這方面的空缺。最后,沒有公眾參與便失去了協同的基礎和對象。要充分保障公民的知情權、參與權和表達權,及時了解公眾的訴求和愿望,以便調整規制法律風險的解決方案。這樣一來,便形成了以政府為核心,研發機構、行業協會、公眾等主體共同參與的治理系統。彼此通過對話與協商,就算法、數據規則的制定、法律風險的預警和評估等方面促進協同合作,推動人工智能立法治理邁向更高級別的有序狀態。
第二,多元利益整合協同體系。如何建立公平合理的利益格局,構建系統、穩健的多元利益整合機制是有效化解法律風險的關鍵。面對人工智能輔助地方立法過程中公共利益、私人利益的此消彼長,關鍵在于構建通暢的利益表達機制、公平的利益分配機制、有效的利益沖突協調機制和規范的利益補償機制。首先,在地方立法過程中,可以完善公眾聽證制度、專家論證制度、政策公示制度等,以保證公民、研發企業等不同利益主體的要求得以通暢表達,加強人工智能輔助立法活動的公眾參與,以便更好調整立法人工智能治理的策略。其次,為了實現利益的公平分配,還需要充分發揮市場調節和宏觀調控的雙重作用,在多元主體協同治理的基礎上公正有序地配置各類主體的資源,避免高科技人才的過度集中造成私人企業對智能技術的壟斷,對算法實行嚴格規制,對數據進行嚴格管理,以避免高科技企業借助合作之機不當干預地方立法活動,發生“立法劫持”現象。最后,在人工智能輔助地方立法過程中,不可避免地存在公共利益與私人利益之間或私人利益之間的沖突,此時當然以公共利益為主,同時可以充分發揮地方立法工作者的主觀能動性,對因技術或數據的弱勢地位而遭到隱性歧視的群體予以合情合理的補償,避免社會矛盾的激化。
第三,多元信息整合協同體系。對法律風險的規制需要健全信息分享、指導、合作與監督機制,搭建信息溝通平臺。信息共享程度作為該領域治理的重要序參量對子系統間的協同運動產生重要影響。沒有暢通無阻的信息溝通,各個子系統便無法實現協同運動。構建多元信息協同機制主要從地方立法機關、研發機構和公民這三類信息源著手,彼此間建立程序化、制度化的信息交流機制,利用現代科技手段從專業技術信息、立法信息和民情信息這三個方面構建覆蓋全面、協同共享的信息網絡。首先,地方立法工作者需要意識到推動科技與法律的共治,不僅是科技手段和法律手段的結合,更需要法律科學與自然科學的交叉、法學家和科學家的交流,共同推動科技朝普惠向善的方向發展。[25]對此,地方立法工作者需要同研發機構保持定期交流,結合本地實際情況合理傳達立法的技術訴求。例如,針對當前立法數據庫不完備的情況,地方立法機關和研發機構可以通力合作構建信息跟蹤動態數據庫,為地方立法提供充足的資料。除此之外,地方立法工作者還需要多途徑擴大立法信息來源,通過實地調研充分挖掘本地特色立法資源,通過搭建社情民意平臺等及時掌握公眾的實際訴求和立法的重難點。其次,研發機構可以借助交流機會充分把握立法的全部流程和某個環節在其中的作用和位置,這是立法人工智能研發的信息基礎。同時研發機構還可以就某項立法需求進行針對性的技術開發和設計。例如針對智能輔助立法過程中產生的技術理性與人文關懷的鴻溝,研發機構可以嘗試在算法中導入立法價值倫理準則,著力開發一套“道德算法”。[26]法安天下,德潤人心。一般情況下,在法律規范缺位時,往往需要倫理道德發揮先導作用,規制和約束新型的社會關系。科技比較發達的美國、德國、歐盟、日本對人工智能的規制研究多是從倫理規范出發。例如,德國的倫理委員會便遵循這個思路提出了一項人工智能報告,該報告中列舉了以人的生命安全為核心的20條倫理意見并要求算法設計者遵守這些倫理規則。[27]道德算法有利于縮小技術設計與立法價值關切的差距,使算法運作過程無限接近專業的立法思維,充分保障公民的權利自由。最后,在智能化時代,構建一個“人人有責、人人盡責、人人享有”的智能社會治理共同體是應對新時代科技發展的應有之義。公民也需要積極參與到立法人工智能賦能活動的法律風險治理中,作為直接利益相關者充分表達對人工智能輔助地方立法的意見和合理訴求。
上述內容主要從構建多元主體治理、多元信息共享、多元利益整合體系這三方面促進各個子系統的協同運動以提升整體治理效能,以期從宏觀層面為規制地方立法的合法性、民主性和科學性風險提供基本框架。對于該體系尚未針對性顧及或僅從宏觀層面提出抽象解決措施的法律風險,還需各主體在協同治理體系基礎上進一步采取規制措施。
首先,對于立法人工智能在數據收集和處理過程中可能導致的立法結果歧視或偏見問題,開發一套“道德算法”誠然有效,通過為智能算法附加倫理規則和價值敏感設計,將關涉立法活動的倫理價值和行為方式轉化為智能產品可以理解的數據模型,然而智能技術雖然可以避開社會歧視與偏見,但道德算法是一個復雜的整體性工程,涉及概念和規則的研究和轉化、模型的構建、專業人才的缺失等難題,技術從設計到研發再到檢驗也要耗費很長時間。此時有必要從其他方面同時著手,例如從源頭——數據提供者出發,增設相關倫理義務。立法人工智能收集的數據主要來源于兩個方面,一是各地方機關或事業單位觀測和記錄的數據,二是企業自身積累的業務數據。這些主體尤其是地方機關和事業單位,需要注重多渠道多維度提供數據,保證數據的全面性和系統性。例如在收集立法意見模塊,地方立法工作者在利用智能技術分析網絡輿情的同時,還需要進行實際觀測和調研,二者相互補充和印證,方可作為下一個立法環節的參考。對于立法人工智能在數據收集和處理過程中可能導致的泄露個人信息與侵犯個人隱私問題,一方面,上述數據提供者在為立法人工智能的運作提供數據時需要滿足無侵權、無權利負擔、內容真實、程序合法等基本義務;另一方面,立法人工智能作為數據處理者需要秉持最基本的“善良處理”原則,依照個人信息保護的慣例,在每次地方立法完成后允許數據主體就已提出的立法意見或建議予以刪除。另外,立法人工智能也需要特別注意對個體與特定數據的模糊處理,并將此項任務貫穿其工作的整個生命周期,從而保障公民法人隱私信息不被侵犯。[13]70要使立法人工智能做到這一點,需要研發機關與地方立法工作者通力合作,將保護隱私的立法需求導入智能算法的研發過程中。
其次,為了暢通公民的實質參與和監督渠道,一方面,地方立法的智能化需要特別注意提高立法的可解釋性。第一,考慮到現階段的技術水平和應對能力,在兩害相權取其輕的思維邏輯下,為了實現立法人工智能的算法、決策過程公開透明和風險的合理預測評估,最好避免使用深度學習模型和關聯性數據,以防止對輸出結果難以預判和解釋的局面。第二,對智能立法成果進行事后解釋是有必要的。在立法后可以披露包括正在優化的目標函數、方法和算法的輸入變量等相關規范[28],并通過可視化技術對機器立法的相關邏輯以自然語言進行解釋,保證公民享有實質上的知情權。第三,根據現有的技術標準,對可以解釋的算法以公眾理解的自然語言進行充分解釋,對依照現有技術不能解釋的算法,需要在整個生命周期內對其不斷進行矯正和優化并予以公示,包括事前對輸入數據的質量控制和事后對立法人工智能性能的測試和驗證,盡力規避技術不確定性帶來的風險,保證公民享有充分的知情權、參與權與監督權。另一方面,為了保證公民對地方立法的實質性參與,增強對立法的信任,還需要確立民主原則高于科學技術的價值位階。也即當智能化分析結果同民主的認知沖突時,應當在充分保障公眾或者公眾的代表知曉該領域的實質知識的基礎上,通過民主機制做出決斷,給予民眾充分的辯論空間。即便是在有充分明確的證據證明民主決策是錯誤的情況下,也只能通過民主議事規則說服公眾及其代表,嚴禁通過壓迫手段強制改變民主決策的結果。[29]
最后,為了提高地方立法的科學性,除了從技術端和人才輸送端強化立法人工智能產出結果的科學性外,還需要地方立法工作者將審慎規范貫徹地方立法的全過程,堅持愛因斯坦“科技以人為本”的告誡和工具主義思維。具體而言,第一,地方立法工作者需要加強對各個立法程序場景的梳理,秉持溫和理性的“人機合作觀”,而不是非此即彼的“人機代替觀”[30],明確智能立法產品在不同程序中的介入程度和具體方式。對于如立法數據、意見的分析、歸類等可計算、具有高度模式化的立法事務,地方立法工作者可以允許人工智能代替性介入,并施以必要的監督。對于涉及政策考量、價值判斷和能動創新的立法環節,應當強調地方立法工作者的主導性。人工智能作為輔助性的工具,其產出的結果為立法活動提供正向參考或反向預警。第二,地方立法工作者可以著手建立一套統一的規范化工作流程,克服對立法人工智能的依賴可能性,具體內容包括以下四個方面。一為啟動標準。立法人工智能的應用不應設置強制性標準,而應根據實際工作需要決定是否應用智能分析結果。二為參考標準。可以明確規定智能化分析結果只能作為重要參考,而非唯一依據。規范性文件制定、備案審查和監督仍由地方立法工作者在廣泛聽取民意和專家意見的基礎上決定。三為說明標準。凡在地方立法的重要環節中采納了人工智能的分析結果,地方立法工作者都需要對采納結果的科學性、客觀性和必要性進行理由說明,制作陳述報告,并將不同于智能分析結果的意見和建議予以記錄備案。四為責任標準。可以根據最新出臺的《關鍵信息基礎設施保護條例》,建立地方立法過程中相關部門和運營者的安全保護和監督管理責任機制,使相關責任主體扮演好“產品經理”、“算法質疑者”等角色。
除了關注立法人工智能帶來的價值功能和法律風險,也需要認識到人工智能輔助地方立法尚處于初步階段,各類配套的基礎設施和制度體系建設仍不完善。地方立法智能化還面臨著地方財政投入不足,部門間和地區間數據共享不通暢,立法人工智能應用范圍狹窄、推廣不足等現狀,未來仍有很長的路要走。[31]地方立法智能化是由一系列子集組成的長期過程,從技術發展的客觀規律來看,單點智能容易實現,但系統智能的實質性突破則需要較長時間。目前乃至將來的很長時間,人工智能也只能對模式化、可計算的立法環節進行代入式介入。未來地方立法智能化發展趨勢如何不得而知,但對此消沉以待是不可取的。人工智能技術席卷各行各業,對此不應逆流而上,從而導致技術紅利的錯失;同時,對此過分樂觀并抱有非理性預期也是不可取的,這會使我們陷入“唯技術論”的漩渦和預期之外的失望。對待人工智能輔助地方立法這一問題,需要懷著包容開放的心態,勇于接受新事物帶來的機遇,并采取積極措施應對可能的挑戰。地方立法智能化可以作為全國范圍內推廣立法智能化的先試先行,以產出高質量的立法成果、提高社會治理能力和增進人民幸福利益為根本出發點,在改革中不斷探索人工智能賦能地方立法的新經驗,在發展中不斷評估立法與智能化結合的發展前景,堅持立法的本質追求和價值衡量的技術非自足性,實現科技造福人類的終極目的。