范芙蓉
(西北師范大學 法學院,甘肅 蘭州 730070)
隨著信息科技的飛速發展,人工智能(Artificial Intelligence,簡稱AI)的發展和應用已經成為當今社會的新焦點。我國近年發布了《國家信息化發展戰略綱要》《新一代人工智能發展規劃》等一系列指導性文件,把人工智能的發展提高到國家戰略地位。人工智能作為核心驅動力,將不斷地改造傳統行業,并且有可能會大面積取代簡單、重復性的人力勞動。當前AI 在司法實踐中的應用也日益廣泛,然而,“人工智能在給人類帶來巨大好處的同時,也伴隨著可怕的風險;我們應該密切關注正在發生的變化,并且采取適當的策略,以便促成最好的結果”。[1]因此,對人工智能在司法實踐中出現的問題進行有效的應對已是當務之急。
人工智能AI 是機器模擬人腦思維,以近似人類智能的方式進行推理、記憶、理解、識別、感知以及學習,它擁有自己思考并且足以匹敵人類智慧的能力。目前研究總體上將人工智能劃分為三個層次,分別是弱人工智能 (ANI,Artificial Narrow Intelligence)、強人工智能(AGI,Artificial General Intelligence) 和“奇點” 過后的超人工智能(ASI,Artificial Super Intelligence),而我們現在所說的人工智能其實是弱人工智能。在這個階段,人工智能更多的是人類運用代碼和數據算法所創造的高度智能化的機器,它與強人工智能不同的是還沒有自主意識、創新思維和自主深度學習的能力,換言之,現在的人工智能只是工程設計師們創造的產品。
作為一項初步的研究,本文所談的人工智能僅立足于當前社會中適用于法律活動的弱人工智能,并不涉及未來可能會出現的強人工智能乃至超人工智能。而對于這種弱人工智能的界定,去除了簡單的擬人式想象,只將其看作一種基于算法設計通過數據自主學習以優化數據處理的計算機制,本質在于算法和數據。[2](P3)
習近平總書記曾強調,人工智能是新一輪科技革命和產業變革的重要驅動力量,是引領這一輪科技革命和產業變革的戰略技術,具有帶動性很強的“頭雁”效應,應當處理好人工智能在法律、安全和就業等方面提出的新課題,加快發展新一代人工智能。
近年來,人工智能在司法實踐中的應用取得了一定成效,“智慧法院”“大數據審判”等司法實踐改革在穩步推進,《關于加快建設智慧法院的意見》明確要求以信息化促進審判體系與審判能力的現代化。地方法院已引入“一體式智能審判系統”,從立案掃描、案件整理到文書制作等一套完整流程,助力高效、便捷、開放的信息化司法系統。[3]
例如山東法院系統開發的“智慧法務系統”,利用并行式、分布式計算框架,使用高吞吐量、大并發的信息化手段,實現信息智能推送、數據關聯、積累外部數據資源、智能分析與數據可視化的功能,通過系統產生的流程數據和電子卷宗實現對80%的案件制作結案裁判文書,并根據案件的裁判文書和電子卷宗信息自動回填流程信息。上海的“206 工程”具有實體關系分析的技術,也能實現對犯罪嫌疑人或被告人的社會危害性評估,實現所有證據在庭審中的即時調取和當庭出示、為辦案人員進行類案推送、形成同類案件量刑參考數據、自動生成裁判文書、為辦案人員推送知識索引等等。[4]貴州政法系統的“法鏡工程”也很好的把改革精神、法治思維和科技創新有機結合起來,將案件信息精準識別、自動分案,最大程度實現簡案快審、繁案精審,讓審判效率以更科學的方式提升。[5]
人工智能的技術基礎是數據,這意味著它主要依賴于高質量并且精準的大數據作為支撐,而大數據又與個人信息的關系相當密切,因為人工智能在建立數據庫時要對個人信息進行收集、存儲、處理、傳輸和應用。一方面,由于當今社會公民的個人信息大多都被數據化,例如姓名、身份證件、財務信用狀況、出行信息等,這些有針對性的個人數據具有巨大的商業價值,而這些數據如何安全存儲,信息保護是否有相對應的安全等級都是其中隱含的安全問題,在這種背景下人工智能是很有可能被黑客攻擊的,并且泄露公民的個人信息使其被商品化交易。由于人工智能具備了與現實世界進行物理性交互的能力,這就有可能會對人們造成嚴重的人身和財產損害,甚至造成十分嚴重的精神痛苦。由此可見,公民的個人信息安全在人工智能的適用過程中受到嚴重威脅且得不到有效的保障。
另一方面,由于現階段法學教育對于“人工智能+”的橫向復合型人才培養尚不足,導致法院內部人工智能技術的研發人員十分稀缺,而現在適用于司法實踐的人工智能大多都是選擇與科技公司合作開發,那么在這其中就會存在信息泄露的風險。此時如果公民得知自己的個人信息從法院泄露,那么必然會導致法院的信用度降低,使得法院的司法公信力下降。
人工智能處理案件是通過代碼和算法來實現的,相比于現在司法實踐的主觀性以及其自身的局限性,人工智能以其更為精細化、功能化的特點,最大限度地保持案件結果的公平性。尤瓦爾·赫拉利在其著作《未來簡史》中對未來之法進行了預測,他認為在未來人工智能將獲得統治地位,我們的法律將變成一種數字規則,它除了無法管理物理定律之外,將規范人類的一切行為。[6](P282)當然,這一切都是對未來的設想。
隨著科技的發展,人工智能作為輔助性工具在司法實踐領域發揮著越來越大的作用。程序員是人工智能的構建者,他們為其編制核心程序,但是大多數人工智能算法是不透明的,而這種不透明性可能來源于這幾個方面:其一是算法本身所應具有的復雜性所帶來的不透明;其二是由于國家秘密或者商業秘密帶來的不透明;最后是由于對計算機或者高難度編程技術的不了解而帶來的不透明。由此角度觀之,用戶只能了解到人工智能輸入的數據和得出的結果,但并不能得知其中的運算規則,也無法參與到決策過程,此時算法獨裁或算法黑箱的問題便顯現出來。
以司法為例,美國Northpointe 公司開發的有關犯罪風險評估的人工智能存在歧視黑人現象,被認為是十分不可靠的。這里的基本問題就在于,“由于技術和社會發展的條件限制,人工智能在相當程度上會具有某種歧視性因素以及潛在的導致不公平結果的可能性”[7](P94)。正是由于算法不透明而無法對其進行監督審查,很容易使得編程內部的法律推斷繼承原有司法實踐的弊端和偏見,造成人工智能在輸出結果上出現不公平的現象,這將直接影響司法公信力的建立以及司法實踐的有序運行。
目前,就專注于司法實踐的弱人工智能而言,對于大量信息處理的效率顯然超過法官,通過其強大的計算能力,能夠更快地通過現有的數據完成對于案件的前期分析,也能更加便捷的生成所需的各類材料,因而其在司法領域當中發揮的作用是顯而易見的。[8](P99)隨著人工智能在司法實踐領域中廣泛的應用,一方面使得我們對提高效率的人工智能持有樂觀積極的態度,另一方面也對人工智能替代部分勞動力產生憂慮。
從農業社會到工業社會的轉型是體力勞動之間的轉型,而人工智能革命則是從體力到腦力的升級。霍金曾說,人工智能的發展可能意味著人類的滅亡;赫拉利在《未來簡史》中也預測,未來絕大部分人類活動將有可能會被人工智能所取代。一方面隨著人工智能在案件預測上全方位清除了海量低附加值的工作,為法官審判提供裁判預測結果或者類案推薦,在這種情況下,審判儼然成為法官和算法工程師共同做出的決定,并且或早或晚法官可能會由于人性本身所具有的思考惰性而過度依賴人工智能,使得其自身的自由裁量權不斷減弱,法官的必要性就有可能會降低甚至變的沒有必要。另一方面,人工智能在決策的過程中可以將雙方當事人的證據信息無差別地傳送給對方,這便使得當事人提前知道自己的勝算率以及可能會發生的審判結果,所以這時當事人可能會更愿意通過協商來解決他們之間的爭議,這就會釀成一種“軟件既定結果,無需面對面論證”的氛圍。這些現象都可能會導致法官在審判中所處的核心地位發生極大的動搖,甚至造成審判體系的重大變化。
隨著科技的發展,人工智能逐漸可以對案件進行裁判預測,甚至于自動生成案件判決,根據大數據矯正法律決定的偏差等做法可能形成審判主體的雙重結構或復數化,將出現軟件工程師、數據處理商、信息技術公司與法官共同作出決定的局面。[9](P132)這種情況下,雖然表面上是法官行使了最終裁判的權力,但實際上他們并未通過自身的法律思維進行法律推理而形成獨立的判斷。
司法系統行使的審判權是維護社會公正的最后一道警戒線,這也是有效維護公民的合法權益不受侵犯的有力保障。如上所述,如果人們質疑法官做出的判決結果時,法官可以答復這是由人工智能產生的“客觀事實”,而法官不需要對客觀事實進行判斷;如果人們質疑法官沒有對案件進行獨立的審判時,法官便可以答復人工智能只是作為輔助性工具在使用,而其中人工智能真正在判決作出過程中所占的比例無從得知。由此可見,權力的邊界將變得十分模糊,責任推卸的幅度也會被進一步擴大,法官問責制度就會逐漸流于形式,這也意味著司法過程和功能將發生巨大變動。
人工智能的發展對個人隱私提出新的挑戰,我們應當采取最為基礎的法律應對措施來解決。第一,完善人工智能保護個人隱私信息的法律系統。設計者在設計適用于司法實踐的人工智能時,應當考慮數據安全問題,設置自動化處理的禁區,即禁止人工智能對個人隱私信息進行自動化處理,并且應當重視隱私增強技術,應用編碼、加密、防火墻等技術,防止黑客和病毒的非法入侵,以便更全面地保護個人隱私信息。第二,法院應當嚴格選擇并審查打造人工智能的合作對象。由于現階段人工智能技術尚處于初級階段且專屬于一個特定的專業領域,法院自身的技術薄弱并不能支撐其開發適用于司法實踐的人工智能,所以他們在打造人工智能法律系統時會更多地選擇同智能公司合作。這就有可能會出現智能公司在人工智能系統中為自己開“后門”的情況,一旦發生這種情況,勢必會影響司法公正。第三,建立健全人工智能系統的同意機制。人工智能系統的自動化處理使得用戶難以獲取處理過程的有效信息,用戶的同意也就越來越沒有意義,甚至有時會出現被迫強行同意的情況,所以應當完善同意機制,無論是用戶的一般信息還是必須用到的隱私信息都應當通過用戶的同意授權,尤其是隱私信息的使用,用戶的明示同意更應當成為其必要條件;在涉及人工智能自動化處理時,人工智能應當首先向當事人發送清晰、易理解的處理通知,此通知應當包含人工智能所用到的信息以及之后可能會產生的影響,并且確保通知有效到達當事人。在司法實踐的應用中,這便會有效保障訴訟參與人的知情權,增強當事人與法院之間的信任關系。
追求透明度最簡單的方式,就是要求算法在數據輸入最初時態、數據運算過程以及數據輸出這三個環節進行全面的、具體的公開。因此在第一個環節,數據輸入時的透明化就要求法院公開其使用的案件數據信息;第二個環節的透明化其實是要求算法的透明化,智能公司在打造人工智能時應當至少向法院解釋算法生成的復雜步驟以及涉及參數,此時也可能帶給法院的挑戰是需要培養復合型人才;在數據的輸出的第三個環節中,不太能夠實現數據的完全透明化,因為如果要求在這個環節透明,就要求法院需要公開“數字身份檔案”信息,這些匿名化且涉及到隱私的信息被要求公開,這是不具有可操作性的一種透明化方式。
另一方面,“逆向工程學”的方法也可以增進算法透明度。逆向工程學是指基于專業知識進行嚴密的觀察、推斷,發掘出這個系統的模式,用人工推斷“黑箱”中的算法規律,并且清楚地對每一個部分進行闡述,介紹這個系統的運作機制。但是此方法也是一種設想的理想狀態,在真正實踐中可能仍然會存在很多的挑戰。如果我們不斷深入追求人工智能的完全透明化,可能會導致對于透明度的過分執迷,甚至可能適得其反,帶來消極的后果。人們可能會理所當然的把公開等同于公正,對黑箱的復雜機制的認知會出現一種趨簡化的傾向。相比之下,所追求的透明度應當是以可行性和社會接受效果作為衡量標準,在理解人工智能時,并不一定要了解每一個細小的部分,相反,理解應當建立在一個宏觀把握上,然后通過互動真正去理解算法的運作系統。
現階段的人工智能處于弱人工智能階段,即只是實現特定功能并適用于特定領域的專用智能,它按照程序員提前設計的程序延伸拓展人的能力,因而具有一定的“近人性”,但是現階段的人工智能本質上是不具有獨立思考能力和自主意識,以及缺乏主觀能動性的一種輔助“工具”。應用于法院的人工智能系統作為輔助者的角色,它的出現可以幫助法官節省很多無需腦力勞動的重復性工作時間,例如推送法律條文、司法解釋和相關類案,使法官節省檢索時間,更專注于案件的審判,理順了法官的辦案流程,有效提高了法官的辦案效率。
以目前的人工智能技術,法官無需擔心自己的職業會被人工智能代替。因為在司法實踐中,司法裁判的獲得不僅僅只有一個結果,在做出司法裁判的過程中,法官自身長年累月積累的經驗、智慧是法律推理活動中不可或缺的一部分,而司法裁判結果是法官作為中立第三方,以公平正義的方式滿足當事人的訴求。但是人工智能只是按照法律條文和相關基本信息機械刻板、無意識且無情感地做出司法裁判。例如在離婚案件中,人工智能無法真正的從情感方面判斷雙方當事人是否真的感情破裂,也無法像法官一樣進行調解讓當事人和好如初。由此可見,弱人工智能在短期之內無法取代法官職業從而進階到審判者的地位。
因此,法官可以暫時不用擔心被人工智能替代,但是也不能過分依賴人工智能。法官審判案件時除用人工智能完成一些輔助性工作外,依舊要充分發揮自己的主觀能動性。如果法官過分依賴人工智能,那么相當于法官將自由裁量的專屬權利,沒有經過法律的授權,也沒有經過公眾的同意,就共享給了人工智能。而法官在司法實踐中,應當認識到人工智能的輔助作用,把握好自己的自由裁量權,充分發揮自己的能動性。
法官作為審判權的主要行使者,理應成為法官問責追究制度的主體,但是人工智能的介入可能會出現法官的審判主體地位有所下降、自由裁量權被削弱或法官主動放棄自由裁量權的情形。就現階段來看,人工智能是作為輔助工具進入司法實踐領域,它并沒有被賦予人格主體地位,所以案件最后裁判結果的真正做出者其實還是法官,這一點是毋庸置疑的。
在司法實踐的過程中,有可能會出現人工智能技術上的失誤而導致司法裁判結果不公,這一失誤是法官在適用人工智能裁判過程中不可避免會發生的結果,也是人工智能技術在發展過程中不可避免的節點。一方面,當人工智能在大數據建模時,提取錄入大量數據時有可能會出現漏錄、錯錄等人為疏漏的情況,這會嚴重影響到人工智能的云計算過程和大數據分析能力;另一方面,人工智能編程出現偏差,也有可能會導致人工智能在全方位覆蓋海量低附加值的工作中出現真實性的偏差,這些情況都會導致法官所依據的基礎數據產生錯誤,進而導致司法裁判結果不公。在此情況下,其實可以采取責任分擔的解決途徑,制定完善法官責任追究制度中的責任分擔制度,讓責任承擔者不止限定于未盡到審慎核查相關證據以及信息真實性義務的法官一人,而且讓參與到人工智能發明以及導致人工智能出現失誤的人員也為此承擔一定的責任。
迅速發展的人工智能已經逐漸滲透到了人類的日常生活中,而人工智能在司法實踐中的適用也逐漸被規范化、合理化。人工智能與司法實踐的結合是時代發展的必然趨勢,但是任何新生事物都有兩面性,它在司法實踐中展現著優勢的一面的同時,也反映出了很多問題。人工智能在提高司法效率、協助法官處理案件、緩解法院壓力的同時,還存在著信息泄露、算法獨裁等問題。我們對于人工智能在司法實踐領域的發展和適用應抱有開放的心態,在實踐中不斷完善規制,讓人工智能更好地服務于司法實踐,從而實現司法的公平正義。