李 萌,郭紀萍
(華僑大學法學院,泉州 362021)
人工智能作為一項新技術一直飽受關注。圍繞著人工智能,算法、深度學習、大數(shù)據(jù)等一系列技術開始對人們生活產生一系列影響。與此同時,在法律領域,人工智能技術的不斷革新也將對著作權法、侵權責任法、人格權法帶來一系列理論與實踐的挑戰(zhàn)。如人工智能產品損害人體健康權時,侵權責任法將如何規(guī)制人工智能制造者,又如對目前已經大量存在的人工智能生成歌曲等作品,若侵害他人著作權,著作權法又應當如何發(fā)揮作用。
同樣,在刑法領域,人工智能所帶來的時代變遷也將對傳統(tǒng)的刑法造成極大的挑戰(zhàn)。最突出的矛盾則是如何界定人工智能刑事責任主體的問題。目前,大致可以將人工智能劃分為三類,只擅長操作單一領域的弱人工智能、在各個領域都和人一樣具有獨立解決問題的能力且能像人類一樣獨立思考和快速學習的強人工智能、和能超越人類的超人工智能,代表性的觀點認為當人工智能能夠超越設計者的命令和編程范圍,便可以視為擁有獨立人格,即在未來,超人工智能或者強人工智能的出現(xiàn)將毫無疑問可以作為刑法的刑事主體,刑法對此應當作出一系列調整。
但是強人工智能和超人工智能目前都只是對未來人工智能發(fā)展的展望,基于解決現(xiàn)實問題的需要,本文主要討論目前已經存在的弱人工智能的刑事規(guī)制問題。
涉人工智能犯罪是犯罪與科技相結合的全新犯罪形態(tài),給刑法的理論規(guī)則帶來了一定的挑戰(zhàn)。
首先體現(xiàn)在危害行為的改變,危害行為是判斷犯罪與否的重要構成要件。在傳統(tǒng)刑法中,危害行為的實施主體為人,而隨著人工智能的發(fā)展,人工智能自主實施編程范圍之外的行為或者人工智能程序故障造成危害后果,都將對人與危害行為這一絕對聯(lián)系割裂,人工智能可能成為危害行為的實施主體。
第二,則體現(xiàn)在對傳統(tǒng)的因果關系認定的異化,刑法中的因果關系是指行為人的實行行為與危害結果的引起與被引起的關系,而當人工智能介入其中的因果關系,則會顯現(xiàn)出較傳統(tǒng)的更加復雜的態(tài)勢。例如行為人并未違反相應的注意義務卻造成了嚴重后果,若按照傳統(tǒng)的理論分析行為人的實行行為與危害結果很難說有因果關系。而人工智能又應當在因果關系的分析中扮演什么樣的角色,是作為行為主體還是介入因素,也是一個復雜的議題。
其三,則是主觀判定上的困難。同危害行為和因果關系一樣,犯罪的主觀方面是判斷犯罪的重要構成要件。當人工智能介入犯罪后,其所造成的危害后果往往可能超越行為人的主觀認識或者違背行為人的主觀意愿,這時行為人的主觀狀態(tài)如何判斷以及是否違反作為義務與注意義務都變得更加復雜。
最后,則是對刑事責任的判定。人工智能犯罪有其獨特的特點,區(qū)別于傳統(tǒng)的刑法犯罪。人工智能介入的犯罪往往后果并不在行為人的控制和意料之中,人工智能的算法有其自己的一套機制,傳統(tǒng)刑法的評價方法難以考慮到人工智能在其中所起到的作用,更難以對人工智能進行評價。
受人工智能自身深度學習、算法自覺等特點影響,傳統(tǒng)刑法在面臨人工智能介入犯罪暴露出種種不足,使重新界定人工智能的在刑法中的主體地位變得極為關鍵。若對人工智能進行分類,給予特定種類的人工智能刑法的主體地位,從而將所面臨的刑事風險和承擔的刑事責任從人工智能的管理者開發(fā)者一定程度地轉移到人工智能本身,上述種種問題都將迎刃而解。
為避免空中樓閣的空談,本文僅討論目前已經存在的弱人工智能,即人工智能在并未發(fā)展出自主意識時,已經出現(xiàn)的種種犯罪形式應當如何規(guī)制。
弱人工智能雖不具備自主決策能力,但這并不意味其可控性百分之百符合安全標準,可以高枕無憂。一方面,弱人工智能的行為能力范圍雖然僅限在原定編程內,但并不代表不存在某種觸發(fā)機制使其實施超出原定編程范圍的失控行為,從而造成危害結果。另一方面,弱人工智能的工具性畢竟不同于槍械,其存在多可能性的運用,作案工具的屬性不純,易阻礙對危害行為的判斷。例如,當一輛無人駕駛汽車被使用者利用,在正常行駛中突然失控將行人撞死,使用者以無人駕駛汽車的失靈為由,隱瞞自己的幕后操控行為,那么是否應當歸咎無人駕駛汽車研發(fā)者的產品責任甚至是刑事責任呢?
弱人工智能對刑法的挑戰(zhàn)或許不比強人工智能的自主犯罪嚴重,但其作為犯罪工具卻具備隱匿性,為行為人逃脫指控和審判提供良好的棲身之所。人工智能產品進入市場后,其研發(fā)者往往與使用者是分離的,所以,在分析涉人工智能的犯罪中,我們應根據(jù)研發(fā)者、使用者與人工智能致害的聯(lián)系所表現(xiàn)出的不同狀態(tài)來對其進行分類。
首先,是由研究者的原因導致的危害結果。即研究者為了犯罪而特意研制人工智能作為犯罪工具,或使用者本意就是將人工智能作為犯罪工具使用。筆者認為此類涉及人工智能的犯罪與傳統(tǒng)無異,在此種狀態(tài)下人工智能的研發(fā)者和使用者應負全責,因為人工智能之于行兇者如刀,并無更多區(qū)別。
其二,是由使用者導致的危害結果。具體而言,是研發(fā)者的研發(fā)目的是在正常生活范圍之內,并無犯罪目的,此時如果使用者有心利用人工智能的某些特點來實施犯罪,對于危害結果,研發(fā)者并無客觀上的實行行為,也無故意,并不應當承擔責任。
其三,是由研究者與使用者共同導致的危害結果。研究者出于犯罪目的設計人工智能或其設計的人工智能不僅有法律允許范圍之內的功能,也擁有法律允許范圍之外的功能,此時研究者與使用者無論有沒有通謀,二者都應當承擔一定的責任。
其四,是由人工智能自身導致的危害后果,而研發(fā)者所研發(fā)的人工智能合法,且使用者的使用也并無不當。但由于人工智能自身的程序錯誤導致的社會危害。
筆者認為在此種情況下重要的是在分析社會危害結果的原因的前提下,找到事故發(fā)生的原因,根據(jù)事故發(fā)生的原因來判斷研發(fā)者應當盡到何種程度的提醒義務,才能更好地區(qū)分責任。