摘要:近年來,司法裁判活動中“案多人少”“同案不同判”問題日益突出,融合法律要素的生成式人工智能技術迅速發展,推動生成式人工智能在輔助量刑方面的司法應用,成為推進量刑規范化改革的一個新方向。然而,由于現行技術的不完善、相關機制的限制等原因的存在,其應用過程中易出現機械化量刑、量刑不透明性等問題。為了實現生成式人工智能在司法裁判領域的深入推廣與運用,應當通過分析其潛在風險,有針對性地提出解決方案。
關鍵詞:人工智能;輔助量刑;ChatGPT
中圖分類號:F2文獻標識碼:Adoi:10.19311/j.cnki.16723198.2024.19.009
1問題的提出
“生成式人工智能技術,是指具有文本、圖片、音頻、視頻等內容生成能力的模型及相關技術”,即是以算法為基礎,利用對大數據庫的自主運用和學習,自發形成創新性成果的新興人工智能。其具有類人化“思考”的能力和自我創造性的特質,對人類的生產生活各個方面都有重要的作用。同時,由于高精尖技術46bb5669e0dac8da280dfb85af3de6825bc938a266eb5c4beda37533f5ad55a7的不斷研發、國家出臺法律法規的規制以及社會公眾的期待,其未來的發展也擁有良好的前景和充分的條件。
《生成式人工智能服務管理暫行辦法》于2023年8月15日起正式施行,其指出運用生成式人工智能所應服從的規定,起到規范公眾行為和促進其健康發展的效果。近年來,生成式人工智能引入司法裁判已有先例,其在類案推送、立案偏離度預警等方面具有良好的輔助司法判決的功能。此外,生成式人工智能技術在司法量刑實踐中使用已略有涉獵。
生成式人工智能輔助量刑是指生成式人工智能技術融合司法大數據庫資源,對其中各類典型案例進行整合、分析,通過系統自主探尋其中法律原理和規律,最終自動導出裁判結果,以達到量刑預測效果。現今社會環境日趨復雜化、人民群眾司法意識逐漸增強等因素的出現,造成訴訟案件數量逐年增加,而司法工作人員數量的有限性導致“案多人少”這一問題逐漸凸顯。由此可見,生成式人工智能技術應用于輔助司法系統辦案的優勢作用更為明顯,尤其在量刑層面可以克服人腦的限制性,使得出的量刑結果更合理適當。
目前,國際司法界在人工智能輔助司法系統上正在不斷精細化、規范化發展。如在哥倫比亞一法官運用ChatGPT作出法律裁決,其中是將法官自己的見解包括其中,通過ChatGPT進行拓展,首次承認ChatGPT在輔助量刑上的作用。隨著“科技強國”戰略的不斷發展加深,我國在司法審判中也逐漸引進生成式人工智能技術。2023年11月22日,我國江蘇省高院作出了同意蘇州市中院開展生成式人工智能輔助辦案系統試點建設工作。由于生成式人工智能本身所固有的對信息處理的準確性、迅速性等特性,以ChatGPT為代表的生成式人工智能在刑事司法領域的推廣應用,有助于推進“同案同判、類案類判”,并能夠為提高司法治理質量與效率、推動司法改革注入新能量。鑒于相關技術亟待發展成熟,在其應用過程中可能出現的擠占法官司法裁判權、量刑可解釋度不高、與傳統量刑模式融合難等問題,易導致大眾對生成式人工智能引入司法裁判體系產生隱憂。這些現實風險成為生成式人工智能輔助量刑深入滲透于司法判案程序的阻礙要素。如何恰當地防止生成式人工智能輔助量刑的法律風險發生,并在應用該項技術時有效維持司法秩序是法律界需要重視的一個問題。
2生成式人工智能輔助量刑的應用風險
生成式人工智能是人類智慧的重要結晶,其在司法中的廣泛運用表明其發展已受到司法界的普遍肯定和期望,也是推動司法改革的一股強大力量。但它的應用是一把“雙刃劍”,其存在諸多優勢的同時也存在不足之處。由于生成式人工智能技術仍處于初步發展階段,且司法領域已在長久實踐中形成較為穩定的司法運行模式,使生成式人工智能輔助量刑系統天然地處于“輔助”地位,而不是“主導”地位,其深度利用具有諸多潛在的風險和未知的挑戰。
2.1量刑過程非公開化
非公開化風險主要表現在生成式人工智能量刑輔助系統自動化運行過程存在不透明性,導致量刑過程無法為當事人及其他人員所知悉。從以往人工智能輔助量刑司法實踐上看,量刑過程的不公開性易造成控辯雙方無法有效地對該過程進行監督,也無法預測相應的量刑結論。被訴方在此情形下不能及時提出辯護意見,其合法權益不能得到正當保護。法官受到專業技術的制約,其無法清楚判別系統得出的結論是否帶有歧視與偏見。由于開發該量刑輔助系統需要較強的專業性,因此研發團體主要是相關科技企業中的技術人員。司法機關及其他工作人員對其中核心決策機制沒有深度認知,也無法對該輔助量刑系統內部運作形式進行有效監管。審判公開是我國司法裁判中的基本原則之一,而量刑作為審理案件的一部分也應公開。生成式人工智能作出量刑預測過程非公開化與量刑公開原理相違背,不利于公眾保持對司法的認可度和信任度。同時,生成式人工智能在量刑過程中運用數據的不公開性可能導致某些相關個人信息被竊取而無法明確得知,進而產生司法信息泄露和不法利用隱患。
在生成式人工智能輔助量刑投入應用可行性探究上,對算法的規制屬于關鍵要素,而“算法黑箱”的普遍存在是核心問題之一。“算法黑箱”是指指令在運作過程中因其操縱控制者的設定、行業規則的制約而使它內部工作形式、實質流程等信息不得為外部所知。在生成式人工智能量刑算法運行中,由于保護知識產權和商業秘密的必要性,相關系統設置和現行機制具有不透明性的特質,致使“算法”本身具有一定的隱蔽性并體現于“算法黑箱”之上。在現行司法改革中,要求確保量刑公開,即量刑的事實、理由和過程應予公開。而在算法規則保密和技術壁壘存在的情形下,生成式人工智能量刑輔助系統最終得出的是量刑結論,并不會將量刑過程予以公開。如何規制非公開化算法運行與公開司法裁判之間的關系,屬于法律界專家學者需要深化研究的一項問題。
2.2司法裁判過于程式化和僵化
生成式人工智能量刑輔助系統介入司法實踐雖極大程度提升了司法裁判的客觀性、準確性,但也不可避免地造成量刑靈活性的缺失。生成式人工智能通過分析以往案例和汲取歷史經驗形成系統的一套“量刑標準”,并依據此指導量刑進程和作出價值判斷。因中國各地區法治建設與經濟發展的不均衡性,不同地區法院的法官在判案時應根據當地實際情況做出相應調整。而在該輔助量刑系統推廣過程中,其推行的“量刑標準”可能無法保障實現實際意義上的司法公正,只是體現了程序正義。同時,也不能展示法官裁決時所含的人文關懷和法律的溫度,而只能得出單一化、格式化的量刑結論,這顯然不能贏得社會公眾對此種判案方式的理解與信任。另一方面,該量刑輔助系統缺乏釋法說理的能力,對于重大復雜疑難案件則不能給出相對應的法理解釋,司法說服力有所欠缺。
法官等司法工作者在判案過程中,所依靠的理論依據和實踐方法是他們頭腦中豐富的法律知識儲備、價值理念形成的。在遇到個案中區別于其他案件的量刑疑難問題時,他們可以利用自身經驗并結合案情和當事人雙方的意見做出靈活判斷,同時也會考慮到案件社會影響力大小而進行權衡。而我國生成式人工智能輔助量刑尚處于“弱人工智能”階段,僅僅是根據已有模式生成文本內容,缺乏“人腦”此等精細的抉擇歷程和理解思索能力。其只能通過其內置工作原理對司法大數據進行整合,以尋找最優解。此種單線的選擇方式可能在生成式人工智能技術發展水準有待提升的情勢下,導致審判結果僵化。且由于現行科技發展水平的限制,生成式人工智能尚不能在系統內對某些特定化、復雜化量刑情節做出十分恰當的處理。其在生成量刑結論上的邏輯性、整體連貫性等方面仍需改進,即缺少人類思考中的獨有的創造力和倫理道德映照。這將使量刑標準公式化、量刑建議機械化,不利于保障司法上的實質正義,對推進量刑規范化改革也會產生一定阻礙。
2.3法官判決過度依賴
在司法審判過程中,法官獨立行使審判權既是訴訟特性的重要體現,也是現代法治社會的必然要求。確保法官在司法裁判中處于主體地位是保障司法公正的要素之一。而在生成式人工智能技術的應用下,法官可能會對量刑輔助系統給出的量刑結果產生過度依賴,未經深度思考而適用該量刑建議。這易導致生成式人工智能輔助量刑地位發生異變,無疑是對法官主導裁判權的巨大挑戰。其次,生成的量刑建議屬性尚未明晰,法官可能因此不對輔助量刑建議進行查證和質疑,而更傾向于直接適用生成式人工智能的決策結果。在此情形下,法官可能會過多利用生成式人工智能輔助量刑而減少自身思考與判斷,進而降低運用專業知識斷案頻率。同時,裁判文書中說理性趨向淡薄,長此以往易造成法官審判和說理能力的降級,引起判案錯誤率上升和文書格式化問題顯現,從而引發當事人以及社會公眾對司法判決準確率與實質公正性的質疑。
生成式人工智能輔助量刑系統相比于法官在量刑過程中辦案效率更高,操作也較為便捷,且其相較于其他人工智能系統擁有更強的處理能力。現今“案多人少”問題日益突出,導致法官審理案件壓力增大,且法官在非審判環節事務性工作繁瑣,使得法官疲于應對。而生成式人工智能輔助量刑系統憑借高度擬人化學習與數據處理能力等優勢,其廣泛應用顯著降低了司法工作壓力。法官出于高效審判案件的需要,可能大幅度提高對智能量刑系統的運用,或直接以智能量刑結果替代其量刑具體理路。同時,由于生成式人工智能量刑輔助意見的法律性質仍未得到清晰定位,在量刑預測意見生成后,法官不一定會將其納入司法審查的范圍內,而是直接將其作為量刑參考的一項指標。雖然最終量刑決策由法官作出,但還是會對其從事量刑活動產生“錨定效應”的影響。為保障法官在量刑中的實際主導作用和司法工作團隊的專業水平,防范判案者對智能量刑系統出現依賴是亟待解決的一項法律問題。
2.4量刑結論存在偏差
量刑建議精準化既是貫徹落實司法訴訟制度改革的重要內容,也是認罪認罰從寬制度的必然要求。但在利用生成式智能量刑系統過程中,某些現實因素的存在可能會導致算法運行結果與司法工作者、當事人與社會公眾預期不一致,即使量刑結論偏離了大眾可預測的范圍。這會使社會的公正尺度受到影響,人民群眾會因此質疑量刑公正性和司法機關權威性,損害司法公信力。
生成式人工智能生成的內容主要取決于輸入的訓練數據以及技術人員創建的算法,而這些依據可能會成為引發量刑出現偏差的因素。首先,由于審結案件在裁判文書上公布的不完全性和各地法院自行建設數據庫時間的短暫性,導致現階段司法大數據儲備具有不完備性的特征。此外,司法大數據所反映的裁判文書未必能夠真正體現法官判案過程內心實意。上述問題會造成數據的匱乏與低質,進而對生成式人工智能量刑輔助系統學習數據信息并輸出結論產生不利作用。其次,數據庫所含的內容有限,即生成式人工智能系統學習對象是有限的。同時,生成式人工智能技術尚處于不成熟階段,其生成的結論無法涵蓋所有裁判中可能發生的情形。生成式人工智能是通過學習歷史司法經驗來得出的量刑預測結果的,在一定程度上具有滯后性。當政策等客觀情況發生較大變化時,對于量刑結論可能提出新的要求,這將導致系統的量刑結論與實際需求產生差異。此外,生成式人工智能從算法設計起至投入運行使用的過程中需要設計者的參與。但其帶有主觀性的評判標準會滲透于算法之中,對量刑算法的邏輯體系產生本質影響,最終使算法歧視性問題顯現,由此導致量刑建議的不公。如何規避生成式人工智能技術后續應用的算法偏見風險是其推廣過程中所應解決的一項重要問題。
3生成式人工智能輔助量刑的規制路徑
3.1增強量刑透明化
量刑過程非公開化可以著重從“算法暗箱”方面入手解決。首先,量刑過程并非是完全客觀的。輔助量刑算法需要算法方程等與原始數據兩個對象。一方面,必須保證數據來源的豐富、及時、典型。裁判文書網作為主要的數據庫,目前上傳裁判文書數量與實際結案數量有較大差距,且各省案件公開情況也參差不齊。改變這一情形需要加強法官上傳裁判文書的主動性與規范性,同時,也需要各地法院加強對裁判文書的篩選,避免出現不應出現的錯誤,保持數據來源的典型性。一方面,需要對算法技術進行“解釋”。算法方程、算法技術等屬于專業水平較高的領域,全部公開化透明化會很大程度上損害企業的利益。然而,不公開的情況下,不同的算法結構可以反映不同技術人員的主觀想法,破壞了量刑結果的公正性與司法裁判的公開性。因此可以借鑒域外的一些做法——美國計算機協會下屬美國公共政策委員會發布《關于算法透明性和可問責性的聲明》,“應當在系統開發和部署的每個階段應用算法透明和可問責性的原則”,即對于算法過程、數據做出記錄,對相關算法決策與方法進行解釋。要求所有人對于理解算法技術,并對其公正性作出判斷具有較高的難度,因此要求系統開發和部署的各個階段作出解釋,并且解釋是普通人可以理解的含義,兼顧解決了算法技術的不透明性與裁判結果的不公正性。除此之外,做出相應記錄,也有利于相關監管部門進行監督和問責。
3.2推動量刑結果靈活化、個性化
解決司法裁判結果過于僵化和程序化這一問題,可以從量刑技術手段和法官自由裁量權兩方面解決。從技術手段角度上來看,可以將生成式人工智能輔助量刑系統運用在不同案件、案件的不同階段上。對于事實清楚、證據鏈條清晰完整的案件,可以運用輔助量刑系統進行裁判,由法官對結果進行確定與進行解釋。在案情復雜、社會影響重大的案件上,可以考慮借鑒刑法中“量刑方法分段構建”的相關方法。即從起始階段判斷法定刑與處斷刑,法定刑案件在這一階段可以由人工智能系統進行判斷,而處斷刑需要在法定刑基礎上進行判斷,影響因素較為復雜,需要法官介入;在量刑發展階段,決定量刑起點是影響量刑結果的重要因素,也是決定量刑結果個性化的關鍵環節,這一階段主要依靠法官的專業能力,但也不排除人工智能的作用,可以為缺乏經驗、專業能力稍弱的年輕法官提供參考。這一方法,使得生成式人工智能輔助量刑系統與法官判案有機結合,在提高量刑效率的同時,也兼顧了我國各地區經濟發展不同和法治建設水平不同的現實因素。
除上述意見外,基于生成式人工智能的量刑結果缺乏司法邏輯以及不能給出具有說服力的司法解釋的弱點,在分段構建的基礎上,由法官進行宣告刑的最終確認以及給出對結果進行邏輯性、連貫性的解釋。以此實現司法審判的實質正義,促進規范量刑化改革發展。
3.3落實司法責任
為了避免法官對生成性人工智能的裁判結果過于依賴,導致脫離了司法裁判的實質正義,以及法官在司法審判中的主導地位,需要明確落實司法責任。人工智能輔助量刑介入量刑過程,不管是否處于主導地位,都勢必會影響法官在司法審判中的主導地位,損害法官的自由裁量權。為了確保法官的主體地位,防止法官對生成式人工智能運行沒有充分了解而盲目信任裁量結果,必須確保司法裁判始終由審判人員作出,裁判職權始終由審判組織行使,司法責任最終由裁判者承擔。一方面,法官必須親身參與審判過程,對案件情節、證據熟悉掌握,并且充分保障訴訟參與人各方的程序性權利,了解量刑過程。一方面,法官必須對宣告刑負責,不管是因為法官自身疏忽或專業能力不足,還是因為生成式人工0fb7f5d274a4bcc0fc57c1c5ca97cb33智能輔助系統出現錯誤導致的宣告刑錯誤,都應該由法官對量刑結果承擔責任。訴訟參與人有權選擇是否利用司法人工智能提0fb7f5d274a4bcc0fc57c1c5ca97cb33供的輔助,有權隨時退出與人工智能產品和服務的交互。意在強調人工智能在司法審判中的輔助工具作用,司法責任由裁判法官承擔。此舉也有利于促進法官決策與人工智能數據融合,在輔助系統作出統一化與規范化的量刑建議的同時,法官也不能完全依賴于數據決策,不能忽略案件的個性化與特殊性。
3.4減少量刑結論偏差
量刑結論的偏差往往與數據質量數量、輔助系統學習滯后性以及算法技術人員主觀差異有重要關系。首先,需要提高數據來源的質量,豐富數據內容。對于數據進入的門檻,應當審慎監管,避免篩選非公平正義的數據進入輔助量刑系統,從數據來源上確保量刑結果的準確性。同時,我國裁判文書上傳面臨數量少、地區數量質量差異大的現狀,應當提高法官公布裁判文書的積極性,規范裁判文書書寫規范。其次,生成式人工智能所獲取的學習對象是過去的司法經驗與審判案件,即便其可以預測出未來的審判趨勢,也難以將案件的個性化與新司法審判思想結合。需要法官在輔助量刑系統得出的裁量結果之上,結合現實情況作出更正與修改,以求得到最佳結果。
需要加強算法設計人員與數據處理人員的道德素質與法治觀念。量刑過程中算法設計帶有主觀性,數據進入的篩選也摻入了工作人員的個人思考。因此,想要實現生成式人工智能輔助量刑系統的量刑結論偏差減小,從加強工作人員素養這一源頭上解決,將卓有成效。
4結語
生成式人工智能時代到來是必然的趨勢,輔助量刑系統進入司法審判領域將帶來極大的好處。然而,在此之前,我們同樣需要思考適用生成式人工智能帶來的風險,提出可實行的防范措施。特別是對司法公正帶來的威脅,要以更加充分和審慎的態度去解決,以實現公平公正和提高效率的雙重得利。目前我國智慧法院建設如火如荼,人工智能的引入是智慧法院建設重要成果與亮點,需要更多理論研究與實踐研究,為生成式人工智能輔助量刑注入更多的動力。
參考文獻
[1]丁道勤.產業鏈視角下生成式人工智能的競爭法規制研究[J].西北工業大學學報(社會科學版),2024,(01).
[2]王譯,朱琳.人工智能輔助量刑的現實風險與完善路徑[J].昆明理工大學學報(社會科學版),2023,(03).
[3]豐怡凱.人工智能輔助量刑場景下的程序正義反思與重塑[J].現代法學,2023,(06).
[4]林家紅.人工智能輔助量刑的風險及其防范[J].河北科技大學學報,2019,(04).
[5]張玉潔.人工智能輔助量刑的法律風險與制度建構[J].學術交流,2023,(03).
[6]胡馨勻.人工智能輔助量刑的法律問題研究[D].重慶:西南政法大學,2021.
[7]石經海,駱多.量刑過程視角下量刑方法分段構建研究[J].中國刑事法雜志,2015,(01).