高 宇
中國政法大學,北京 100088
在人工智能時代,人工智能產品是人們在認識、改造自然的過程中,根據外部環境的條件與作用對象產生的,通過對科學技術不斷提高而創造出的一種新型“工具”。在法律發展的歷史經驗中可以看出,法律可以有效防控社會危害行為,對現代文明的發展有著趨利避害的良性作用,從而達到降低潛在風險因素的危害性的目的。只有對刑法進行一個客觀、正確的認識后,才能以一個正確的認知態度迎接人工智能技術為社會以及法律所帶來的挑戰,進而維護社會穩定發展、保護公民的合法權益。
但是,就目前而言,我國法律的制定對于人工智能技術的發展有明顯的滯后性,而人工智能的跨越式發展已是必然,這就要求我們針對于人工智能技術產品的刑事犯罪行為的刑法制定不能滯后于時代的發展規律。對于高科技犯罪來講,無論是取證還是進行法律賠償的評定均是有難度的,但是當刑法作為規制手段時,國家作為追訴主體,可以通過對官方資源進行調查,來規避當事人諸多訴累,無論追訴對象是制造者、設計者還是人工智能產品自身,用刑法來進行規制均是必要和科學的。
在萬物互聯的科技環境下,人工智能技術在刑事領域的應用會在一定程度上提升犯罪率以及犯罪行為所造成的危害性。相較于傳統的犯罪行為,人工智能在各領域的滲透,也帶來了嚴重后果。在現有人工智能技術中,雖然在某些領域已經突破人類能力與傳統計算機技術的范圍,但卻還不能為智能機器創設“人格”,而由此產生的潛在危險因素卻逐年增加,且方式越來越多樣化。
人工智能的研究對象即是對思維能力的理解與提升。從一定程度上來講,當今的人工智能技術已具備了深度學習的思維能力。相較于傳統網絡刑事犯罪,經人工智能“賦權”的犯罪案例,可突破技術壁壘,從而實現犯罪侵害行為的主動性,極大地擴張了犯罪行為邊界,而人工智能從犯罪類型與侵害深度等方面也進行了拓展。如今在各領域中因人工智能技術的垂直擴大應用,使其在應用與研發的過程中更加獨立、智能、深入。由此,行為的智能化將直接影響到功能中立的定位,從而對責任中立內涵中的技術功能與實踐結果的分離維度產生影響。而因此帶來的刑事犯罪行為,無論是通過線上技術的犯罪行為還是線下犯罪行為,均導致其更加智能化,甚至于引發歸責風險因素的發生。
隨著人工智能技術的不斷進步,人工智能機器人技術也得到了廣泛運用。人工智能機器人在經過深度學習之后,有可能會形成自主行為意識,從而出現失去設計與控制人員的掌握而實施犯罪行為的可能。一方面,人工智能機器人是以設計人員編寫的程序為依據來實施犯罪行為,此種方式是以設計人員的行為意識做掌控的一種替代工具,可將其判定為設計人員的間接犯罪行為;而另一方面,是智能機器人經過深度學習后改變程序代碼,以自主行為意識為前提進行的犯罪行為的實施,此種情況,就是由智能機器人自身來承擔刑事責任。但現有刑法中,并未對智能機器人需承擔刑事責任的情況進行刑法規制,需進一步立法完善。
在我國現行刑法中,刑事責任的主體包括自然人與單位兩方面。而人工智能機器人通過深度學習,可以在編程與設計程序范圍之外,借助計算機與大量數據的幫助,實施智能犯罪行為。但刑法中并沒有針對于智能機器人這種非生命體進行刑事責任主體的認定,因此,在未來,有必要且必須確立智能機器人的刑事責任主體地位。
第一,增設人工智能責任事故罪。因人工智能犯罪行為對社會具有很大的危害性,且人工智能產品的研發者與使用者對其具有一定的控制能力,因此,應在刑法中,針對人工智能產品的研發者與使用者的責任認定進行嚴格的界定。從源頭上來規避人工智能對社會與人類群體所帶來的巨大安全隱患。
第二,增設干擾人工智能活動罪。人工智能的研發與應用等領域具有獨立保護的必要性。一方面,人工智能的研發與應用領域的良性發展推動了我國社會變革的進一步發展,推動了我國綜合實力的提升。另一方面,隨著我國智慧社會的發展,人工智能的研發與應用也對其有促進用作,切實關乎人民的利益與社會的進步。因此,增設擾亂人工智能活動罪具有正當性與必要性。這里所講的擾亂,不僅包含物理設備層面上的干擾與破壞,而且還包含了通過病毒等程序破壞、干擾人工智能技術發展的層面。
第三,增設非法研發和利用人工智能犯罪。非法研發人工智能行為是指明知是法律禁止設計與開發的人工智能產品而進行的生產與研發行為。而非法利用人工智能即是將人工智能作為工具實施的犯罪行為以及為實施除此之外的犯罪行為創造條件和場合的違法行為。這兩種犯罪行為,是人工智能時代下所產生的新型犯罪形式,對社會與人類群體造成的危害不言而喻。因此,針對上述犯罪行為,應通過增設人工智能產品研發與利用人員方面的相關法律條款,保證在法律的約束下,合理的開發與應用人工智能技術與產品,從而達到規避刑事風險的目的。
在我國法律體系中,預防犯罪一直都是值得關注的焦點問題,為防止人工智能技術所帶來的新型犯罪風險,就要求我們要做好相關刑事犯罪的預防工作,做到全方位的安全保障。
第一,要設立技術準入制度,尤其是對涉及人民財產與生命安全的領域的準入制度,應加強國家或官方機構對人工智能領域的監管制度,對其應用行業與領域進行明確的劃分,對其準入門檻與適用范圍進行嚴格的掌控。
第二,要對人工智能設置命令“禁區”,對允許人工智能所涉及的領域同樣要設置人工智能工作原則,以確保在使用人工智能產品時的安全性保障。
第三,由于人工智能具備深度的學習能力與超強的運算能力,因此,在造成人工智能與人類智力水平差距懸殊之前,要嚴格掌控人工智能技術的發展速度。
綜上所述,人工智能技術所帶來的刑事風險,是當前時代亟需解決的一個重要問題,且應該采取積極、有效的措施進行安全防范。當前,絕大多數人普遍認為人工智能是由人類所控制的一種智能化工具,而忽略了人工智能自身將會帶來的刑事犯罪風險,使得人工智能刑法制定存在一定的滯后性。因此,在堅守刑法基礎理論的前提下,需要在原有法律法規對人工智能產品使用和研發的制約的基礎上,針對其源頭風險以及對其風險預測進行嚴格防控,將其嚴重危害社會的行為納入法律規制之中,從而為人工智能技術的發展提供法律保護,進而為人工智能技術為人類社會做出更大貢獻提供助力。