摘" 要:[研究目的]隨著ChatGPT類生成式人工智能技術(shù)的迅猛發(fā)展,其可能帶來的隱私泄露與數(shù)據(jù)安全風(fēng)險、侵犯知識產(chǎn)權(quán)犯罪風(fēng)險、經(jīng)濟(jì)與金融犯罪風(fēng)險、社會信任與信息真實性風(fēng)險等諸多問題日益凸顯,進(jìn)而催生了治理生成式人工智能犯罪風(fēng)險的時代訴求。探究一套系統(tǒng)的治理框架,以應(yīng)對和減輕此類風(fēng)險,確保生成式人工智能技術(shù)的合理利用與可持續(xù)發(fā)展有重要意義。[研究方法]運用案例分析法,深入剖析了具體案例中生成式人工智能犯罪的表現(xiàn)形式、成因及危害;同時,采用了比較分析法,對比了國內(nèi)外在治理生成式人工智能犯罪風(fēng)險方面的法律法規(guī)、政策、舉措及實踐經(jīng)驗。[研究結(jié)論]在當(dāng)前生成式人工智能犯罪風(fēng)險的治理體系中,存在法律規(guī)制的滯后性、技術(shù)中立原則界限的模糊、技術(shù)監(jiān)測與識別能力的限制、跨境監(jiān)管合作的缺失等問題,亟待從完善法律法規(guī)體系、強化倫理準(zhǔn)則與行業(yè)自律、提升技術(shù)監(jiān)管與防御能力、加強國際合作與信息共享、提升公眾意識與教育等多維度綜合治理,從而實現(xiàn)生成式人工智能的健康發(fā)展。
關(guān)鍵詞:ChatGPT;生成式人工智能;犯罪風(fēng)險;治理困境;治理路徑
中圖分類號:D917.6 文獻(xiàn)標(biāo)識碼:A DOI:10.19881/j.cnki.1006-3676.2024.11.06
2023年4月,中國國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《生成式人工智能服務(wù)管理辦法(征求意見稿)》規(guī)定,生成式人工智能(Generative Artificial Intelligence)是指“基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)”。ChatGPT作為OpenAI在2022年年底推出的生成式語言模型實例,是標(biāo)志著當(dāng)前高水平生成式人工智能技術(shù)的應(yīng)用。ChatGPT采納了自然語言處理(NLP)與搜索引擎集成的先進(jìn)架構(gòu),構(gòu)建了大規(guī)模的預(yù)訓(xùn)練模型,該模型深度融合了大型語料庫與強化學(xué)習(xí)的微調(diào)策略,并對接了豐富的語料資源。通過針對序列數(shù)據(jù)的精密預(yù)處理技術(shù),確保了模型能夠深刻理解語言結(jié)構(gòu)與語境,進(jìn)而展現(xiàn)出卓越的語言理解與文本生成能力,能夠有效應(yīng)對多樣化的用戶指令任務(wù),展示了其在自然語言處理領(lǐng)域的應(yīng)用潛力。
“在風(fēng)險社會里,風(fēng)險意識和風(fēng)險規(guī)避是一個社會的主要特征。”[1]隨著生成式人工智能技術(shù)的飛速躍進(jìn),這一領(lǐng)域不僅拓寬了創(chuàng)新的邊界,同時也對司法實踐提出了前所未有的挑戰(zhàn),尤其是在犯罪預(yù)防與法律規(guī)制方面。這要求人類在享受技術(shù)進(jìn)步帶來的盛宴之時,必須具備前瞻性的視野,主動識別并系統(tǒng)分析這些創(chuàng)新可能帶來的犯罪風(fēng)險,特別是那些可能催生新型犯罪的風(fēng)險因素。因此,在厘清犯罪風(fēng)險內(nèi)在機理的基礎(chǔ)上,構(gòu)建一套既能促進(jìn)技術(shù)良性發(fā)展,又能有效防范與應(yīng)對犯罪風(fēng)險的法律治理體系,成為當(dāng)前法學(xué)理論研究與實踐亟待解決的關(guān)鍵議題[2]。
一、生成式人工智能的犯罪風(fēng)險
隨著生成式人工智能技術(shù)的迅猛發(fā)展,其在帶來諸多便利與創(chuàng)新的同時,也潛藏著不容忽視的犯罪風(fēng)險,這些風(fēng)險多維度地影響著社會安全與法治秩序。具體而言,生成式人工智能可能引發(fā)的犯罪風(fēng)險主要包括以下幾個方面。
(一)隱私泄露與數(shù)據(jù)安全風(fēng)險
生成式人工智能在推動創(chuàng)新前沿的同時,也伴隨著潛在的犯罪風(fēng)險,尤其是在隱私與數(shù)據(jù)安全領(lǐng)域。這類系統(tǒng)通過學(xué)習(xí)海量數(shù)據(jù)來優(yōu)化其性能,這一過程隱含了不當(dāng)收集與使用敏感信息的風(fēng)險,影響了個人隱私權(quán)的保障及數(shù)據(jù)保護(hù)法規(guī)的執(zhí)行。具體而言,生成式人工智能數(shù)據(jù)管理的缺陷突顯了三重法律風(fēng)險:一是個人信息泄露導(dǎo)致的侵犯隱私權(quán)問題;二是商業(yè)秘密泄露導(dǎo)致的不正當(dāng)競爭和侵權(quán)問題;三是國家秘密泄露導(dǎo)致的危害國家安全問題[3]。
生成式人工智能在構(gòu)建模型時,數(shù)據(jù)的收集與利用呈現(xiàn)出雙重風(fēng)險。在追求模型廣度與深度的過程中,一方面,為了提升模型性能,生成式人工智能系統(tǒng)通常需要廣泛搜集各類數(shù)據(jù),但這一過程若缺乏明確界限,可能會違反《中華人民共和國網(wǎng)絡(luò)安全法》(以下簡稱《網(wǎng)絡(luò)安全法》)、《中華人民共和國數(shù)據(jù)安全法》與《中華人民共和國個人信息保護(hù)法》(以下簡稱《個人信息保護(hù)法》),特別是當(dāng)涉及國家數(shù)據(jù)、政府信息和個人隱私時;另一方面,算法對數(shù)據(jù)的深入解析,雖旨在提升服務(wù),但可能在未經(jīng)用戶充分知情同意的情況下,搜集并利用用戶的敏感信息,該行為嚴(yán)重侵犯了用戶的隱私權(quán)。
因此,生成式人工智能所引發(fā)的犯罪風(fēng)險,亟待從法律、技術(shù)和倫理等多維視角出發(fā),既要明確數(shù)據(jù)收集與利用的法律邊界,也要在技術(shù)設(shè)計中嵌入法律規(guī)范,確保達(dá)到技術(shù)革新與社會安全、個人權(quán)益保護(hù)之間的和諧,從而推動人工智能的健康發(fā)展。
(二)侵犯知識產(chǎn)權(quán)風(fēng)險
在內(nèi)容創(chuàng)造領(lǐng)域,生成式人工智能技術(shù)的應(yīng)用極大促進(jìn)了創(chuàng)意內(nèi)容的多樣性生成,同時也對傳統(tǒng)的知識產(chǎn)權(quán)保護(hù)體系提出了新的挑戰(zhàn)。該技術(shù)通過對海量數(shù)據(jù)樣本的學(xué)習(xí)與模仿,創(chuàng)造出與原作品高度相似的新內(nèi)容,這一過程中潛在的版權(quán)侵權(quán)風(fēng)險不容忽視。
從刑法角度審視,若生成式人工智能在獲得預(yù)訓(xùn)練數(shù)據(jù)、優(yōu)化訓(xùn)練數(shù)據(jù)時未經(jīng)著作權(quán)人許可,則可能被認(rèn)定為《中華人民共和國刑法》第217條規(guī)定的侵犯著作權(quán)罪中涉及的“復(fù)制”行為;若生成式人工智能通過信息網(wǎng)絡(luò)等途徑向公眾提供了該復(fù)制的“作品”,則可能被認(rèn)定為該條款中的“通過信息網(wǎng)絡(luò)向公眾傳播”行為。因此,生成式人工智能的運用存在侵犯著作權(quán)的法律風(fēng)險[4]。
同時,隨著人工智能生成內(nèi)容的增多,如何準(zhǔn)確識別和界定人工智能創(chuàng)作內(nèi)容與人類創(chuàng)作內(nèi)容的界限,成了知識產(chǎn)權(quán)領(lǐng)域的一大挑戰(zhàn)。人工智能創(chuàng)作內(nèi)容的版權(quán)歸屬、侵權(quán)責(zé)任的認(rèn)定以及版權(quán)保護(hù)的合理邊界等諸多問題,都需要在現(xiàn)有法律框架下進(jìn)行深入探討和重新界定。
綜上所述,生成式人工智能技術(shù)在推動內(nèi)容創(chuàng)作革新的同時,也給知識產(chǎn)權(quán)保護(hù)帶來了新的風(fēng)險。這一風(fēng)險不僅涉及知識產(chǎn)權(quán)保護(hù)這一傳統(tǒng)領(lǐng)域,還可能觸及網(wǎng)絡(luò)傳播、數(shù)據(jù)保護(hù)和技術(shù)倫理等多個層面。如何在尊重創(chuàng)新自由和保護(hù)知識產(chǎn)權(quán)之間找到平衡點,是當(dāng)前法律實務(wù)和理論研究亟待解決的課題。
(三)經(jīng)濟(jì)與金融犯罪風(fēng)險
在經(jīng)濟(jì)與金融犯罪領(lǐng)域,人工智能技術(shù)的興起,尤其是ChatGPT類生成式人工智能的應(yīng)用,正深刻改變著犯罪行為的面貌,顯著增強了其復(fù)雜性與隱蔽性,對現(xiàn)有法律與監(jiān)管體系提出了嚴(yán)峻挑戰(zhàn)。這一技術(shù)革命不僅“拓展”了犯罪手段,還使得傳統(tǒng)犯罪行為在智能化加持下實現(xiàn)了“質(zhì)”與“量”的“雙重飛躍”。
具體而言,生成式人工智能技術(shù)的濫用已滲透至敲詐勒索和電信詐騙犯罪活動中。犯罪分子通過生成式人工智能對潛在受害者進(jìn)行精準(zhǔn)畫像,并利用生成式人工智能生成高度定制化的詐騙劇本,通過虛擬角色的包裝,使受害者陷入精心設(shè)計的犯罪陷阱,進(jìn)而精準(zhǔn)實施定制化敲詐和詐騙方案,極大提高了犯罪成功率。生成式人工智能技術(shù)在經(jīng)濟(jì)犯罪領(lǐng)域存在潛在風(fēng)險及破壞力。
ChatGPT類生成式人工智能系統(tǒng)雖內(nèi)置了安全防護(hù)措施,但其被破解的情況屢見不鮮,犯罪分子借此開發(fā)出各類惡意軟件,如高仿真度的釣魚郵件,用來竊取個人敏感信息,或是運用人工智能算法生成加密惡意軟件以實施勒索攻擊,甚至利用人工智能腳本進(jìn)行SIM卡交換攻擊以實現(xiàn)身份盜竊。此類技術(shù)濫用不僅加劇了對個人財產(chǎn)安全的威脅,還嚴(yán)重影響社會經(jīng)濟(jì)秩序的穩(wěn)定。
未來,隨著多模態(tài)技術(shù)的不斷成熟和普及,信息欺詐的方式將更加多元化,通過文本驅(qū)動的個性化圖像及音視頻制作將使欺詐行為的識別愈發(fā)困難。因此,應(yīng)對策略需雙管齊下:既要緊跟技術(shù)發(fā)展的步伐,又要強化法律法規(guī)體系建設(shè)和監(jiān)管技術(shù)創(chuàng)新,提高監(jiān)管科技的應(yīng)用水平,確保在促進(jìn)科技進(jìn)步的同時,有效抑制其潛在的負(fù)面影響,從而維護(hù)經(jīng)濟(jì)與金融領(lǐng)域的安全與穩(wěn)定。
(四)社會信任與信息真實性風(fēng)險
生成式人工智能技術(shù)的迅速發(fā)展,為信息創(chuàng)造帶來了革新,但同時也埋下了社會信任與信息真實性風(fēng)險的隱患。該技術(shù)能夠輕易創(chuàng)造出高度逼真的假新聞、評論及虛構(gòu)身份,這不僅干擾了公共輿論的健康發(fā)展,而且還威脅市場誠信體系乃至國家安全的穩(wěn)固。人工智能生成內(nèi)容的隨意性和缺失的真實性,成為了亟待解決的關(guān)鍵問題。
在生成式人工智能驅(qū)動的內(nèi)容創(chuàng)作應(yīng)用中,虛假信息泛濫的現(xiàn)象尤為突出,當(dāng)前已成為學(xué)界批判的焦點之一。此類信息不僅在知識認(rèn)知維度上引入錯誤信息,形成“信息污染”,而且在價值觀構(gòu)建層面,通過潛移默化的方式植入誤導(dǎo)性思維模式,進(jìn)而演變成為影響廣泛的媒介議程中的公共誤解與謠言。該現(xiàn)象的產(chǎn)生可歸因于人工智能技術(shù)生成信息的便捷性和深度偽造技術(shù)的高度仿真性,兩者共同催生了社會風(fēng)險。生成內(nèi)容的真實性缺陷,持續(xù)地誤導(dǎo)公眾的思維判斷,悄然影響著公眾輿論和觀念的形成。
以ChatGPT為例,其內(nèi)容輸出依賴于前期未經(jīng)人工審查的大量學(xué)習(xí)材料,這使得不實、違規(guī)或非法信息得以滲透。在缺乏有效篩選機制的情況下,ChatGPT生成的內(nèi)容可能包含錯誤信息[5],即便訓(xùn)練數(shù)據(jù)本身無誤,也可能生成不實內(nèi)容,這是現(xiàn)有技術(shù)水平難以避免的。一旦虛假信息流通,可能會誤導(dǎo)公眾決策,導(dǎo)致其做出錯誤的行動選擇。
虛假信息的傳播對國家、社會及個人權(quán)益構(gòu)成三重威脅:第一,在國家層面,若生成式人工智能生成的虛假信息有損國家形象及政府公信力,容易引發(fā)公眾信任危機,將導(dǎo)致國家形象遭受嚴(yán)重?fù)p害。第二,在社會層面,新聞媒體若采納未經(jīng)核實的人工智能生成內(nèi)容,可能導(dǎo)致虛假信息傳播,引發(fā)社會輿情動蕩,嚴(yán)重威脅社會穩(wěn)定。第三,在個人層面,不法分子可能利用虛假內(nèi)容實施侮辱、誹謗或侵犯隱私等違法行為,同時,用戶對虛假信息的誤認(rèn)也會導(dǎo)致個人決策失誤[6]。
綜上所述,生成式人工智能的快速發(fā)展給信息真實性帶來前所未有的挑戰(zhàn),這要求社會各界提高警覺,共同探索技術(shù)監(jiān)管和改進(jìn)方案,以維護(hù)社會信任,保障信息環(huán)境的健康與安全。
二、生成式人工智能犯罪風(fēng)險的治理困境
生成式人工智能的犯罪風(fēng)險具有顯著的復(fù)雜性、多樣性和智能性特征,這給犯罪風(fēng)險治理帶來了多重挑戰(zhàn)。為科學(xué)探索治理路徑,深入縷析生成式人工智能犯罪風(fēng)險的治理困境顯得尤為重要。
(一)法律規(guī)制的滯后性
生成式人工智能技術(shù)飛速發(fā)展,在帶來創(chuàng)新與便利的同時,也引發(fā)了諸多法律與倫理挑戰(zhàn),突顯出現(xiàn)行法律規(guī)制體系的滯后性與應(yīng)對復(fù)雜問題的局限性。法律的完善速度常常難以跟上科技迭代的步伐,這導(dǎo)致新生技術(shù)領(lǐng)域內(nèi)法律缺位與規(guī)制盲點頻現(xiàn),在生成式人工智能這一前沿領(lǐng)域尤甚。
早期,我國對生成式人工智能的法律規(guī)制主要依賴于一系列分散的法規(guī)條文,如《個人信息保護(hù)法》《網(wǎng)絡(luò)安全法》與《中華人民共和國反不正當(dāng)競爭法》等,分別針對數(shù)據(jù)獲取、處理、網(wǎng)絡(luò)行為及知識產(chǎn)權(quán)等方面設(shè)定規(guī)范。然而,這種分散式的治理策略雖能應(yīng)對部分問題,卻暴露出了法律界定模糊、針對性不足及滯后性等缺陷。例如,面對由生成式人工智能產(chǎn)出內(nèi)容的使用權(quán)歸屬以及如何平衡創(chuàng)新激勵與防范潛在風(fēng)險等問題,現(xiàn)有框架顯現(xiàn)出了一定程度的局限性。
針對上述挑戰(zhàn),2023年7月,我國國家網(wǎng)信辦聯(lián)合國家發(fā)展改革委、教育部、科技部等七部門發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,標(biāo)志著我國在生成式人工智能規(guī)制領(lǐng)域的法治化進(jìn)程取得了新的進(jìn)展。這些規(guī)定旨在通過集中化、針對性的立法,表達(dá)國家的技術(shù)創(chuàng)新與安全并重的立場,體現(xiàn)了促進(jìn)創(chuàng)新與依法治理相結(jié)合的方針。然而,這些初步探索亦暴露出定義不明晰、立法理念不夠具體、分級監(jiān)管機制缺乏細(xì)化標(biāo)準(zhǔn)等問題,尤其是對于服務(wù)商的具體責(zé)任界定及如何在保障安全與鼓勵創(chuàng)新間取得平衡,尚待進(jìn)一步明確。
2023年8月,中國社會科學(xué)院國情調(diào)研重大項目—《我國人工智能倫理審查和監(jiān)管制度建設(shè)狀況調(diào)研》課題組發(fā)布的《人工智能法示范法1.0》(專家建議稿),提出建立人工智能負(fù)面清單制度,意圖通過分級治理策略,實現(xiàn)對人工智能產(chǎn)品和服務(wù)的精細(xì)化管理。這一提議雖富有前瞻性和實踐價值,卻同樣面臨實施層面的困境,即分級依據(jù)的抽象性及缺乏具體操作標(biāo)準(zhǔn),使得在確保技術(shù)進(jìn)步與維護(hù)安全之間尋找平衡點的工作依舊任重道遠(yuǎn)[7]。
(二)技術(shù)中立原則界限的模糊
在人工智能領(lǐng)域,技術(shù)中立原則正面臨著前所未有的挑戰(zhàn)。該原則主張技術(shù)本身不具備道德屬性,其善惡取決于使用者的意圖和應(yīng)用方式。然而,隨著人工智能技術(shù)的飛速發(fā)展,特別是大型語言模型(LLM)等顛覆性技術(shù)的出現(xiàn),技術(shù)中立原則的界限變得愈發(fā)模糊,其在現(xiàn)實世界中的應(yīng)用遇到了深刻的法律與倫理困境。
首先,技術(shù)的快速發(fā)展已經(jīng)超越了現(xiàn)有法律和倫理規(guī)范的適應(yīng)能力。人工智能技術(shù)的潛在濫用風(fēng)險,如算法歧視、隱私侵犯、虛假信息傳播等問題,迫切需要新的法律解釋和倫理指導(dǎo)[8]。但是,法律的滯后性和倫理的模糊性使得對這些問題的規(guī)制變得復(fù)雜且充滿爭議。
其次,技術(shù)中立原則在實踐中往往被濫用為逃避責(zé)任的借口。一些服務(wù)提供者可能利用這一原則,將其技術(shù)可能導(dǎo)致的負(fù)面后果歸咎于用戶的不當(dāng)使用,從而規(guī)避自身的監(jiān)管和道德責(zé)任。這種趨勢不僅削弱了法律的約束力,也對社會信任和公共安全構(gòu)成了威脅。
再次,人工智能技術(shù)的全球性和跨國性特征,使得任何單一國家的法律和倫理規(guī)范都難以將其全面覆蓋。國際合作在人工智能治理中的必要性日益凸顯,但各國在法律傳統(tǒng)、倫理觀念、經(jīng)濟(jì)發(fā)展水平等方面的差異,導(dǎo)致統(tǒng)一的國際標(biāo)準(zhǔn)和監(jiān)管機制難以形成。
最后,人工智能技術(shù)的快速發(fā)展對現(xiàn)有的社會結(jié)構(gòu)和價值觀念產(chǎn)生了沖擊。技術(shù)中立原則在面對人工智能技術(shù)可能帶來的社會變革時,自身的局限性逐漸顯現(xiàn)。如何在尊重技術(shù)發(fā)展的同時,確保技術(shù)的應(yīng)用不違背人類的共同價值觀和社會正義,成為一個亟待解決的倫理困境[9]。
(三)技術(shù)監(jiān)測與識別能力的限制
在生成式人工智能迅猛發(fā)展過程中,技術(shù)監(jiān)測與識別能力的局限性逐漸成為制約其安全應(yīng)用的關(guān)鍵因素。特別是在自然語言處理(NLP)領(lǐng)域,大模型的安全性和穩(wěn)定性問題尤為突出,對人工智能犯罪的早期預(yù)防與即時干預(yù)構(gòu)成了嚴(yán)重障礙。
當(dāng)前,大型自然語言處理模型在抵御各種攻擊方面的能力不足,尤其是在面對訓(xùn)練數(shù)據(jù)提取攻擊、數(shù)據(jù)投毒等數(shù)據(jù)攻擊活動時,其脆弱性暴露無遺[10]。這些攻擊手段不僅威脅到模型的安全,更可能導(dǎo)致嚴(yán)重的隱私泄露問題。隨著模型規(guī)模的不斷擴(kuò)大,其處理的數(shù)據(jù)量呈指數(shù)級增長,這使得模型的脆弱性問題愈發(fā)嚴(yán)重,隱私泄露的風(fēng)險也相應(yīng)增加。
此外,訓(xùn)練數(shù)據(jù)提取攻擊等手段在技術(shù)上相對容易實施,但是能夠有效對抗這些攻擊的技術(shù)方案卻仍然缺乏。這一現(xiàn)狀不僅影響模型的安全性,也對數(shù)據(jù)治理機制的建立提出了更高要求。大型自然語言處理模型在訓(xùn)練過程中廣泛使用了從公共網(wǎng)頁爬取的海量數(shù)據(jù),但是這些數(shù)據(jù)的安全性和合規(guī)性難以得到充分保障,這種狀況加劇了數(shù)據(jù)治理的復(fù)雜性。
面對這些挑戰(zhàn),開發(fā)者和監(jiān)管者亟待加強模型的防御能力,建立更為安全可控的數(shù)據(jù)治理機制。然而,如何在保障技術(shù)創(chuàng)新的同時確保人工智能技術(shù)的安全應(yīng)用,避免潛在的濫用風(fēng)險,仍是一個亟待解決的復(fù)雜問題。此外,隨著人工智能技術(shù)的不斷進(jìn)步,監(jiān)測與識別技術(shù)也需要與時俱進(jìn)地進(jìn)行更新迭代,以適應(yīng)不斷變化的安全威脅。
(四)跨境監(jiān)管合作的缺失
在全球化的背景下,跨境監(jiān)管合作的缺失在人工智能領(lǐng)域尤為突出,對應(yīng)對人工智能相關(guān)的跨境犯罪活動構(gòu)成了重大挑戰(zhàn)。人工智能技術(shù)的全球性特征要求跨國界的監(jiān)管合作,以應(yīng)對單一國家難以獨立解決的復(fù)雜問題。
首先,生成式人工智能在跨境數(shù)據(jù)流動中的參與,引發(fā)了一系列政治安全和法律風(fēng)險。生成式人工智能平臺通過降低信息跨境傳輸?shù)某杀?,促進(jìn)了數(shù)據(jù)的自由流動,但同時也增加了數(shù)據(jù)泄露的風(fēng)險[11]。由于生成式人工智能的訓(xùn)練和數(shù)據(jù)爬取活動涉及全球范圍內(nèi)的樣本,其潛在的安全隱患不容忽視。數(shù)據(jù)的跨境流動不僅涉及個人隱私保護(hù),還可能觸及國家安全和公共利益的敏感領(lǐng)域[12]。
其次,不同國家和地區(qū)在人工智能治理上存在差異,導(dǎo)致了國際合作的復(fù)雜性。各國的法律體系、文化傳統(tǒng)、經(jīng)濟(jì)發(fā)展水平等方面存在差異,導(dǎo)致統(tǒng)一的國際監(jiān)管標(biāo)準(zhǔn)和合作機制難以形成。這種差異性反映在對人工智能技術(shù)應(yīng)用的態(tài)度和期望上。一些國家可能更注重技術(shù)創(chuàng)新和經(jīng)濟(jì)發(fā)展,而另一些國家則可能更關(guān)注技術(shù)安全和社會穩(wěn)定。
此外,國際合作的缺失還體現(xiàn)在監(jiān)管技術(shù)和經(jīng)驗的共享不足。盡管一些國家在人工智能監(jiān)管方面取得了一定的進(jìn)展,但這些成果往往未能在全球范圍內(nèi)得到有效推廣。缺乏有效的國際合作機制,使得各國在人工智能監(jiān)管方面的努力往往處于孤掌難鳴的狀態(tài),難以形成監(jiān)管合力。
更為嚴(yán)峻的是,跨境人工智能犯罪的隱蔽性和復(fù)雜性,對現(xiàn)有的監(jiān)管體系提出了更高的要求。犯罪分子可能利用人工智能技術(shù)進(jìn)行洗錢、網(wǎng)絡(luò)攻擊、電信詐騙、虛假信息傳播等違法犯罪活動,這些活動往往跨國進(jìn)行,現(xiàn)有監(jiān)管體系往往難以適應(yīng)這種跨境、高技術(shù)性的犯罪形式,難以對其進(jìn)行有效追蹤和打擊,需要更為先進(jìn)的監(jiān)管技術(shù)和國際合作機制。
綜上所述,跨境監(jiān)管合作的缺失給人工智能領(lǐng)域帶來了一個嚴(yán)峻的問題,那就是如何在尊重各國主權(quán)和法律多樣性的基礎(chǔ)上,建立有效的國際合作機制,共同應(yīng)對人工智能領(lǐng)域的跨境風(fēng)險。解決這一問題,不僅需要各國政府的積極參與,還需要國際組織、學(xué)術(shù)界、技術(shù)社群和民間組織和全社會的共同努力,以形成一個全面、協(xié)調(diào)、高效的全球人工智能監(jiān)管網(wǎng)絡(luò)。
三、生成式人工智能犯罪風(fēng)險的治理路徑
面對生成式人工智能技術(shù)帶來的復(fù)雜且多樣的犯罪風(fēng)險,構(gòu)建一個全面、系統(tǒng)且高效的治理框架顯得尤為重要。通過綜合運用法律、倫理、技術(shù)、國際合作及公眾教育等手段,確保人工智能技術(shù)的健康發(fā)展與社會的和諧穩(wěn)定。
(一)完善法律法規(guī)體系
在生成式人工智能技術(shù)迅猛發(fā)展的當(dāng)下,其潛在的犯罪風(fēng)險對現(xiàn)有的法律體系提出了嚴(yán)峻挑戰(zhàn)。為了有效應(yīng)對這些風(fēng)險,必須在國內(nèi)和國際層面上構(gòu)建和完善法律框架,確保人工智能技術(shù)的健康發(fā)展和應(yīng)用。
歐盟在數(shù)據(jù)保護(hù)領(lǐng)域先行一步,《通用數(shù)據(jù)保護(hù)條例》(GDPR)為個人信息安全提供了堅實的法律基礎(chǔ),對促進(jìn)跨國數(shù)字經(jīng)濟(jì)的安全交易起到了關(guān)鍵作用。此外,經(jīng)合組織(OECD)提出的《人工智能原則》進(jìn)一步強調(diào)了人工智能發(fā)展應(yīng)遵循的價值觀,包括包容性增長、可持續(xù)發(fā)展、以人為本的價值觀、透明度、安全性和責(zé)任等,為全球范圍內(nèi)的人工智能治理提供了指導(dǎo)性原則。
在此基礎(chǔ)上,歐洲議會于2024年3月通過了全球首部《人工智能法案》,旨在保護(hù)公民的基本權(quán)利,促進(jìn)人工智能的可信應(yīng)用,并對人工智能的使用進(jìn)行規(guī)制,以維護(hù)民主、法治和生態(tài)環(huán)境的安全。這些國際法律文件不僅為人工智能的法律規(guī)制提供了范例,也為我國在人工智能領(lǐng)域的立法工作提供了有益借鑒。
就我國情況來說,國家新一代人工智能治理專業(yè)委員會于2021年9月發(fā)布的《新一代人工智能倫理規(guī)范》和國家市場監(jiān)督管理總局、國家標(biāo)準(zhǔn)化管理委員會于2023年8月發(fā)布的《信息安全技術(shù)機器學(xué)習(xí)算法安全評估規(guī)范》等文件,為人工智能的倫理發(fā)展和算法安全評估提供了規(guī)范指引。中央網(wǎng)信辦相繼發(fā)布了多項管理規(guī)定,如《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》等,進(jìn)一步規(guī)范了人工智能服務(wù),確保技術(shù)的合規(guī)應(yīng)用。
面對生成式人工智能帶來的犯罪風(fēng)險挑戰(zhàn),我國法律體系亟待注入風(fēng)險應(yīng)對的基本理念,注重立法創(chuàng)新與法律解釋的協(xié)同配合,實現(xiàn)安全保障與技術(shù)進(jìn)步之間的有效平衡。在路徑設(shè)計上,可以通過解釋方法激活現(xiàn)有規(guī)范的適用潛能,解決行為規(guī)制和責(zé)任判斷問題,并考慮增設(shè)新罪名以彌補刑法規(guī)制的不足。同時,我國應(yīng)加快出臺《人工智能法》,構(gòu)建人工智能治理體系,確保人工智能的發(fā)展和應(yīng)用符合人類共同價值觀,促進(jìn)人機和諧友好。此外,還需創(chuàng)造有利于人工智能技術(shù)研究、開發(fā)、應(yīng)用的政策環(huán)境,建立合理披露機制和審計評估機制,明確人工智能系統(tǒng)的安全責(zé)任和問責(zé)機制,推動形成公平合理、開放包容的國際人工智能治理規(guī)則。
綜上所述,國內(nèi)立法與國際合作的雙重努力將在保障人工智能技術(shù)安全應(yīng)用的同時,推動其為社會帶來更大的福祉。這不僅需要法律專家的智慧,也需要社會各界的共同努力,才能確保人工智能技術(shù)的發(fā)展能夠造福人類,而不是成為新的威脅。
(二)強化倫理準(zhǔn)則與行業(yè)自律
在人工智能技術(shù)快速發(fā)展的過程中,強化倫理準(zhǔn)則與行業(yè)自律對于確保技術(shù)的負(fù)責(zé)使用至關(guān)重要。為此,必須推動建立技術(shù)倫理框架,鼓勵企業(yè)自我監(jiān)管,并實施透明度報告制度,以提升公眾信任度。
國際合作在這一過程中發(fā)揮著重要作用。例如,2024年5月,中法兩國聯(lián)合發(fā)布的《中華人民共和國和法蘭西共和國關(guān)于人工智能和全球治理的聯(lián)合聲明》強調(diào)了兩國對促進(jìn)安全、可靠和可信的人工智能系統(tǒng)的共同決心,體現(xiàn)了“智能向善(AI for good)”的宗旨,突顯了利用人工智能技術(shù)促進(jìn)社會福祉與全球可持續(xù)發(fā)展的國際共識。此舉不僅促進(jìn)了跨國界的技術(shù)倫理對話,還為構(gòu)建一個包容、開放、負(fù)責(zé)的人工智能全球治理框架奠定了堅實的基礎(chǔ)。
為妥善應(yīng)對人工智能技術(shù)發(fā)展所帶來的倫理規(guī)制難題,科技部聯(lián)合教育部、工業(yè)和信息化部、國家衛(wèi)生健康委等多部門印發(fā)了《科技倫理審查辦法(試行)》,旨在堅持倫理先行,促進(jìn)科技向善,前瞻研判人工智能倫理風(fēng)險,注重風(fēng)險預(yù)防、加強源頭治理,防范科技活動潛在風(fēng)險,推動科技創(chuàng)新與科技倫理的協(xié)同發(fā)展。該辦法強調(diào)問題導(dǎo)向,解決科技倫理審查中的職責(zé)不明確、程序不規(guī)范等問題,進(jìn)一步細(xì)化和完善了倫理監(jiān)管框架。
在企業(yè)層面,研發(fā)公司應(yīng)主動履行數(shù)據(jù)安全與合規(guī)義務(wù),利用其技術(shù)優(yōu)勢和信息優(yōu)勢,有效處理人工智能系統(tǒng)潛在的危機。與此同時,應(yīng)當(dāng)建立“行業(yè)自律+外部監(jiān)管”的倫理審查制度,通過立法,要求算法主體的技術(shù)行為符合人類實踐理性和法律價值,強化科技倫理審查機制。具體而言,企業(yè)應(yīng)落實主體責(zé)任,將倫理考量納入智能模型及其生態(tài)系統(tǒng)建設(shè)的全流程中,建立健全科技倫理風(fēng)險合規(guī)管理體系。組織架構(gòu)層面,應(yīng)設(shè)立科技倫理(審查)委員會,明確科技倫理工作人員及相關(guān)部門的職能、權(quán)限。技術(shù)開發(fā)層面,應(yīng)根據(jù)不同業(yè)務(wù)類型和技術(shù)階段設(shè)定倫理風(fēng)險評估及審查標(biāo)準(zhǔn)[13]。制度規(guī)范層面,應(yīng)通過規(guī)范處理流程、定期培訓(xùn)、制定應(yīng)急預(yù)案等方式,推動企業(yè)自主實施科技倫理治理。例如,谷歌建立了由不同委員會組成的專門機構(gòu)和專家團(tuán)隊,負(fù)責(zé)監(jiān)督企業(yè)在隱私保護(hù)、用戶健康、產(chǎn)品安全等方面的倫理問題治理。微軟則為項目團(tuán)隊提供了針對不同場景下的技術(shù)解決方案和行動指南,以貫徹人工智能倫理治理原則。
綜上所述,通過國際合作、政府引導(dǎo)、企業(yè)自律和社會監(jiān)督,可以共同構(gòu)建一個安全、可靠和可信的人工智能生態(tài)系統(tǒng)。這不僅需要明確的倫理準(zhǔn)則和行業(yè)自律機制,還需要政府監(jiān)管與企業(yè)自我監(jiān)管的有機結(jié)合,以及公眾參與和社會監(jiān)督,以確保人工智能技術(shù)的健康發(fā)展。
(三)提升技術(shù)監(jiān)管與防御能力
在生成式人工智能技術(shù)快速發(fā)展的背景下,提升技術(shù)監(jiān)管水平與防御能力是確保人工智能安全應(yīng)用的關(guān)鍵。為此,需要從多個層面著手,構(gòu)建一個全面、高效的人工智能安全監(jiān)管體系。
首先,研發(fā)先進(jìn)的監(jiān)測技術(shù)是提升監(jiān)管能力的重要手段。人工智能行為審計系統(tǒng)作為一種新興的監(jiān)測工具,能夠?qū)崟r監(jiān)控人工智能系統(tǒng)的運行狀態(tài),識別異?;顒?,并迅速做出響應(yīng)。通過行為審計,可以及時發(fā)現(xiàn)并制止人工智能系統(tǒng)的不當(dāng)行為,防止其對社會造成不良影響。此外,加強數(shù)據(jù)加密與安全防護(hù)也是保障人工智能安全的關(guān)鍵。在數(shù)據(jù)傳輸和存儲過程中,采用高強度的加密算法,可以有效防止數(shù)據(jù)泄露和篡改,保障用戶隱私和數(shù)據(jù)安全。
其次,從刑法學(xué)的視角審視、明晰人工智能技術(shù)應(yīng)用場景中的犯罪責(zé)任歸屬,對于強化犯罪風(fēng)險治理具有重要意義。在人工智能技術(shù)生態(tài)鏈內(nèi)部,服務(wù)提供商占據(jù)著不可或缺的核心位置。作為技術(shù)生態(tài)的中樞,服務(wù)提供商不僅享有巨大的經(jīng)濟(jì)收益,還掌控著先進(jìn)的技術(shù)資源與強大的風(fēng)險管理能力。因此,將服務(wù)提供商視為犯罪防控的關(guān)鍵節(jié)點,是精準(zhǔn)聚焦并有效應(yīng)對犯罪治理核心問題的戰(zhàn)略選擇。同時,服務(wù)提供商在技術(shù)生態(tài)鏈中的獨特地位,決定了其對潛在犯罪風(fēng)險的主導(dǎo)與管控潛能,這為其擔(dān)當(dāng)安全保障角色以及履行刑事責(zé)任奠定了堅實的法理基礎(chǔ)。具體而言,鑒于其對技術(shù)應(yīng)用可能引發(fā)的不良后果具有預(yù)見與干預(yù)的可能性,法律上要求服務(wù)提供商承擔(dān)起預(yù)防與抑制技術(shù)濫用的責(zé)任。這符合風(fēng)險與責(zé)任相匹配的原則,也是實現(xiàn)技術(shù)進(jìn)步與社會安全雙贏局面的必然要求。
再次,在規(guī)范設(shè)計上,應(yīng)當(dāng)明確服務(wù)提供者的刑事保證人地位和監(jiān)管義務(wù)。這意味著服務(wù)提供者不僅要確保自身行為的合法性,還要對其提供的人工智能服務(wù)進(jìn)行有效監(jiān)管,防止其被用于違法犯罪活動。一旦發(fā)現(xiàn)人工智能服務(wù)被用于犯罪,服務(wù)提供者應(yīng)當(dāng)承擔(dān)相應(yīng)的法律責(zé)任。通過明確責(zé)任主體,可以倒逼服務(wù)提供者加強自我監(jiān)管,提高人工智能服務(wù)的安全性和可靠性。
最后,提升技術(shù)監(jiān)管與防御能力還需要加強法律法規(guī)建設(shè),完善人工智能倫理規(guī)范,加強國際合作與交流。通過立法明確人工智能應(yīng)用的法律邊界,規(guī)范人工智能行為,可以有效防范和減少人工智能犯罪行為的發(fā)生。同時,加強人工智能倫理教育和培訓(xùn),提高公眾的人工智能倫理意識,也是提升社會整體防御能力的重要途徑。
綜上所述,提升人工智能技術(shù)監(jiān)管水平與防御能力是一項系統(tǒng)工程,需要政府、企業(yè)、科研機構(gòu)和社會各界的共同努力。通過研發(fā)先進(jìn)的監(jiān)測技術(shù),加強數(shù)據(jù)安全防護(hù),明確法律責(zé)任,完善法律法規(guī),加強倫理教育,我們可以構(gòu)建一個安全、可靠、可控的人工智能應(yīng)用環(huán)境,為人工智能技術(shù)的健康發(fā)展提供堅實的保障。
(四)加強國際合作與信息共享
在全球化的今天,生成式人工智能技術(shù)的快速發(fā)展及廣泛應(yīng)用,對國際合作與數(shù)據(jù)共享提出了新的挑戰(zhàn)與需求。為了有效應(yīng)對生成式人工智能所帶來的跨國風(fēng)險,加強國際合作與信息共享變得尤為重要。
首先,構(gòu)建跨國協(xié)作平臺,統(tǒng)一監(jiān)管標(biāo)準(zhǔn),共享犯罪情報,協(xié)調(diào)跨境執(zhí)法行動是國際合作的基礎(chǔ)。不同國家人工智能治理方式存在差異,如數(shù)據(jù)訪問壁壘、數(shù)據(jù)本土化政策等,不僅可能為跨國犯罪團(tuán)伙提供了規(guī)避法律制裁的缺口,還顯著增加了人工智能全球犯罪治理領(lǐng)域的復(fù)雜性與挑戰(zhàn)性。因此,除了各國內(nèi)部需推動多主體、多部門協(xié)同治理,國際間的協(xié)同合作同樣不可忽視。例如,2023年1月,美國與歐盟簽署的《人工智能促進(jìn)公共利益行政協(xié)議》便是在考慮共同利益和需求基礎(chǔ)上,推動人工智能社會應(yīng)用的典范。該協(xié)議不僅有助于統(tǒng)一雙方在人工智能技術(shù)應(yīng)用上的監(jiān)管標(biāo)準(zhǔn),還促進(jìn)了犯罪情報的共享和跨境執(zhí)法行動的協(xié)調(diào),為人工智能的犯罪治理提供了合作框架和行動指南。
其次,以聯(lián)合國為核心構(gòu)建國際多邊互聯(lián)網(wǎng)監(jiān)管機構(gòu),是全球共同面臨的緊迫任務(wù)。通過雙邊或多邊合作,建立聯(lián)合國框架內(nèi)的監(jiān)管機構(gòu),為全球互聯(lián)網(wǎng)活動提供機構(gòu)保障與制度框架,是降低不合理成本、推動人工智能生產(chǎn)力發(fā)展的重要途徑[14]。2024年3月,聯(lián)合國大會通過的決議—《抓住安全、可靠和值得信賴的人工智能系統(tǒng)帶來的機遇,促進(jìn)可持續(xù)發(fā)展》,進(jìn)一步強調(diào)了“決心彌合國家之間和國家內(nèi)部的人工智能鴻溝和其他數(shù)字鴻溝”,這為全球人工智能治理提供了方向指引。
再次,人工智能數(shù)據(jù)的獲取與流通具有無國界特性,未來通用大模型的應(yīng)用也將是全球性的。然而,各國對開放人工智能數(shù)據(jù)的態(tài)度不一,缺乏統(tǒng)一的國際數(shù)據(jù)流通規(guī)則。為了促進(jìn)跨境人工智能市場的形成,避免侵犯數(shù)字主權(quán),構(gòu)建尊重各國數(shù)據(jù)主權(quán)的政府間的專業(yè)性國際組織平臺顯得尤為重要。
就我國而言,應(yīng)秉持全球安全觀,加強與人工智能治理有關(guān)的國際交流與合作,參與國際規(guī)則、標(biāo)準(zhǔn)的制定,推動構(gòu)建開放、公正、有效的全球人工智能治理機制。同時,履行聯(lián)合國安全理事會常任理事國的責(zé)任,積極參與全球人工智能治理,通過經(jīng)濟(jì)、技術(shù)、物資、人才、管理等多方面的對外援助,彌合發(fā)展中國家的智能鴻溝和治理能力差距。
最后,我國應(yīng)根據(jù)國際條約和協(xié)定,按照平等互惠原則,與其他國家或地區(qū)、國際組織在執(zhí)法、司法領(lǐng)域展開合作,深化拓展對外執(zhí)法合作工作機制,完善司法協(xié)助體制機制,共同防范和打擊恐怖主義、極端勢力和跨國有組織犯罪集團(tuán)對人工智能技術(shù)的違法使用。
綜上所述,加強國際合作與信息共享,構(gòu)建統(tǒng)一的監(jiān)管標(biāo)準(zhǔn)與法律框架,是應(yīng)對生成式人工智能風(fēng)險、推動人工智能技術(shù)健康發(fā)展的關(guān)鍵。這需要全球各國的共同努力,以確保人工智能技術(shù)的進(jìn)步能夠服務(wù)于全人類的可持續(xù)發(fā)展。
(五)提升公眾意識與教育
在數(shù)字化背景下,生成式人工智能技術(shù)的廣泛應(yīng)用對人類社會產(chǎn)生了深遠(yuǎn)影響。但隨之而來的人工智能犯罪風(fēng)險、社會層級分化、技術(shù)異化以及倫理問題等,也對現(xiàn)行法律體系和社會治理提出了嚴(yán)峻挑戰(zhàn)。因此,提升公眾的人工智能素養(yǎng),構(gòu)建全民參與的網(wǎng)絡(luò)安全環(huán)境,對于促進(jìn)生成式人工智能技術(shù)的健康發(fā)展和維護(hù)社會穩(wěn)定具有重要意義。
首先,普及人工智能安全知識,增強公眾對人工智能潛在風(fēng)險的認(rèn)識,是應(yīng)對人工智能風(fēng)險挑戰(zhàn)的重要措施。重視并推廣針對人工智能安全風(fēng)險的教育尤為重要,這不僅意味著要揭露潛在的數(shù)據(jù)泄露、算法偏見、隱私被侵犯等安全威脅,還要教育公眾如何識別這些風(fēng)險并采取有效防護(hù)措施。媒體宣傳、在線課程、公共講座活動能提高社會對人工智能安全挑戰(zhàn)的關(guān)注度,促使用戶在享受技術(shù)便利的同時,具備自我保護(hù)意識和基本的防范技能。此外,政策制定者和行業(yè)領(lǐng)導(dǎo)者應(yīng)攜手制定統(tǒng)一的安全標(biāo)準(zhǔn)和最佳實踐指南,為人工智能的健康發(fā)展構(gòu)筑安全基線,確保技術(shù)創(chuàng)新與風(fēng)險管理并行不悖,共同推進(jìn)一個既智能又安全的數(shù)字未來。
其次,加強全社會的人工智能教育培訓(xùn),提升全民人工智能綜合素養(yǎng),是提升人工智能素養(yǎng)的基礎(chǔ)。人工智能素養(yǎng)的內(nèi)涵廣泛,包括對人工智能概念的理解、人工智能應(yīng)用的適應(yīng)能力、人工智能倫理的價值觀以及人工智能技術(shù)的甄別技能。聯(lián)合國教科文組織將人工智能素養(yǎng)定義為涵蓋知識、理解、技能和價值取向的綜合性能力[15]。這不僅涉及個體適應(yīng)人工智能時代的工作、學(xué)習(xí)與生活的能力,還包括對人工智能技術(shù)的態(tài)度和倫理意識。教育培訓(xùn)可以消除公眾對人工智能的陌生感,培養(yǎng)批判性思維,使公眾能夠更加積極地參與人工智能技術(shù)的發(fā)展和治理中來??梢?,構(gòu)建人工智能學(xué)習(xí)體系,整合線上線下教育資源,對于持續(xù)提升公眾的人工智能素養(yǎng)至關(guān)重要。學(xué)校、企業(yè)、社區(qū)及在線平臺應(yīng)加強合作,提供從基礎(chǔ)知識到高級應(yīng)用的分層次教育路徑,確保每個公民都能根據(jù)自己的需求和進(jìn)度,獲取到最新的人工智能知識和技術(shù)動態(tài)。同時,通過案例分析、實戰(zhàn)演練等方法,增強公眾在實際情境中應(yīng)用倫理原則、評估技術(shù)影響的能力,促進(jìn)對人工智能技術(shù)負(fù)責(zé)任和創(chuàng)新性的使用。
最后,加強公眾參與,倡導(dǎo)公眾在人工智能相關(guān)政策的制定和評估過程中積極發(fā)表意見和訴求,實質(zhì)性地參與決策進(jìn)程,是增強公眾主體意識和民主意識的有效途徑。做好這項工作,不僅能夠增進(jìn)公眾對科技進(jìn)步的信任度與接納程度,還能為人工智能技術(shù)的演進(jìn)匯聚多元視角與智慧,確保技術(shù)創(chuàng)新既遵循理性評估的客觀標(biāo)準(zhǔn),又緊密對接現(xiàn)實應(yīng)用的實際要求,從而為促進(jìn)社會進(jìn)步與增進(jìn)民眾福祉奠定堅實基礎(chǔ)。
綜上所述,普及人工智能安全知識、加強教育培訓(xùn)、引導(dǎo)規(guī)范使用人工智能服務(wù)和加強公眾參與,可以全面提升公眾的人工智能素養(yǎng),構(gòu)建全民參與的網(wǎng)絡(luò)安全環(huán)境,為人工智能技術(shù)的健康發(fā)展和維護(hù)社會穩(wěn)定提供有力保障。
四、結(jié)語
我們要通過跨學(xué)科合作與全球協(xié)同努力,克服現(xiàn)有困境,引導(dǎo)生成式人工智能技術(shù)向更加安全、透明、負(fù)責(zé)的方向演進(jìn)。未來的工作應(yīng)當(dāng)聚焦于實施上述策略的具體措施,評估其效果,并不斷調(diào)整優(yōu)化,確保技術(shù)進(jìn)步與社會福祉并行不悖,并期待生成式人工智能最終能夠在嚴(yán)格的法律框架下、堅固的倫理基礎(chǔ)上,為社會帶來積極變革,開啟一個人機和諧共生的新時代。
參考文獻(xiàn):
[1] 吉登斯,薩頓.社會學(xué)基本概念(第二版)[M].王修曉,譯.北京:北京大學(xué)出版社,2019:83.
[2] 呂垚瑤.ChatGPT類生成式人工智能技術(shù)迭代的犯罪風(fēng)險及其治理[J].中國刑警學(xué)院學(xué)報,2024(1):78-87.
[3] 鄧建鵬,朱懌成.ChatGPT模型的法律風(fēng)險及應(yīng)對之策[J].新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023,44(5):91-101,2.
[4] 盛浩.生成式人工智能的犯罪風(fēng)險及刑法規(guī)制[J].西南政法大學(xué)學(xué)報,2023,25(4):122-136.
[5] EVA A M VAN DIS, JOHAN BOLLEN, WILLEM ZUIDEMA,et al.ChatGPT:five priorities for research[J].Nature,2023,614(7947):224-226.
[6] 吳宗憲,肖艷秋.生成式人工智能的應(yīng)用、風(fēng)險與法律回應(yīng):以ChatGPT為視角[J].天津師范大學(xué)學(xué)報(社會科學(xué)版),2024(3):12-20.
[7] 中國社會科學(xué)院國情調(diào)研重大項目《我國人工智能倫理審查和監(jiān)管制度建設(shè)狀況調(diào)研》課題組.人工智能法示范法1.1(專家建議稿)[R/OL].[2024-07-26].http://iolaw.cssn.cn/zxzp/202309/W020230907361599893636.pdf.
[8] 畢文軒.生成式人工智能的風(fēng)險規(guī)制困境及其化解:以ChatGPT的規(guī)制為視角[J].比較法研究,2023(3):155-172.
[9] 孫全勝.人工智能技術(shù)的倫理問題及解決路徑[J].科技智囊,2024(4):30-38.
[10] 張欣.生成式人工智能的數(shù)據(jù)風(fēng)險與治理路徑[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2023,41(5):42-54.
[11] 孫那,鮑一鳴.生成式人工智能的科技安全風(fēng)險與防范[J].陜西師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2024,53(1):108-121.
[12] 劉艷紅.生成式人工智能的三大安全風(fēng)險及法律規(guī)制:以ChatGPT為例[J].東方法學(xué),2023(4):29-43.
[13] 宋保振,秦瑞標(biāo).論生成式人工智能應(yīng)用風(fēng)險的法律規(guī)制[J].上海政法學(xué)院學(xué)報(法治論叢),2023,38(6):108-121.
[14] 商建剛.生成式人工智能風(fēng)險治理元規(guī)則研究[J].東方法學(xué),2023(3):4-17.
[15] 張詩濠,李赟,李韜.ChatGPT類生成式人工智能的風(fēng)險及其治理[J].貴州社會科學(xué),2023(11):138-143.
An Exploration of Criminal Risks Posed by ChatGPT-like Generative Artificial Intelligence and Their Governance Pathways
Abstract: [Research purpose] With the rapid development of generative artificial intelligence exemplified by ChatGPT, numerous issues have increasingly come to the fore, including risks of privacy breaches and data security, infringement of intellectual property rights, economic and financial crimes, and threats to social trust and information authenticity. Consequently, there arises an urgent need for an era of governance to address the criminal risks associated with generative AI. This study endeavors to explore a comprehensive governance framework aimed at addressing and mitigating such risks, thereby ensuring the rational utilization and sustainable development of generative AI technologies. [Research method] Utilizing the case analysis method, this study delves into the manifestations, causes, and harms of generative artificial intelligence-related crimes in specific cases. Additionally, it employs a comparative analysis approach to contrast the legal frameworks, policies, measures, and practical experiences in managing the risks of generative AI-related crimes both domestically and internationally. [Research conclusion] In the current governance framework addressing criminal risks associated with generative artificial intelligence, several issues persist, including the lag in legal regulation, the ambiguity surrounding the boundaries of the principle of technological neutrality, limitations in technical monitoring and identification capabilities, and the lack of cross-border regulatory cooperation. To realize the healthy development of generative artificial intelligence, it is imperative to adopt a multi-faceted and comprehensive approach, encompassing the refinement of legal and regulatory frameworks, the reinforcement of ethical guidelines and industry self-discipline, the enhancement of technical monitoring and defense capabilities, the strengthening of international cooperation and information sharing, and the elevation of public awareness and education.
Key words: ChatGPT; Generative Artificial Intelligence; criminal risks; governance dilemmas; governance pathways