999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于ChatGPT 模型應用的網絡空間治理研究

2023-11-15 12:41:14潘奕揚許靜文
湖北警官學院學報 2023年5期
關鍵詞:人工智能信息模型

潘奕揚,許靜文

(中國刑事警察學院,遼寧 沈陽 110035)

2022 年11 月,OpenAI 公司①OpenAI是一家成立于美國的人工智能研究公司,其主要目標是致力于研究和實現安全可控的通用人工智能(AGI)技術,以確保人工智能的發展和應用符合人類的利益和福祉。正式推出了旗下的新型人工智能聊天模型ChatGPT。這款生成式AI 模型②生成式AI 是一種使用機器學習算法來生成新的、原始的、自然的數據的AI 模型。生成式AI模型不僅可以分析和理解現有數據,還可以使用這些數據生成新的、類似于原始數據的內容。以其出色的語言理解和生成能力,在推出后迅速在社交網絡上走紅——僅僅五天內,Chat-GPT 的用戶數量就突破了100 萬,而在兩個月內,這個數字更是輕松過億,一場人工智能技術革命開始在全球范圍內席卷而來。

受新型生成式AI模型帶來的巨大市場潛力刺激,一些國內外的互聯網公司紛紛調整發展戰略,致力于開發與之類似的產品或者促進已有的產品與ChatGPT 模型進行融合。2023 年3 月16 日,微軟宣布將OpenAI 公司的GPT-4 模型接入旗下的Office 產品,推出了一個具有全新AI 辦公協助功能的Copilot;2023 年3 月29 日,360 集團創始人周鴻祎在“2023 數字安全與發展高峰論壇”中,發布了360 版的ChatGPT;2023 年4 月11 日,阿里正式推出自研大語言模型“通義千問”,并邀請用戶參與測試……可以說,ChatGPT 模型的問世與使用,在全球范圍內引發了一場新的AI 技術大爆炸。

雖然ChatGPT 模型在網絡空間中得到了廣泛應用與迅速發展,然而我國的相關部門尚未對其迅速蔓延之勢做出切實有效的反饋,對于ChatGPT 模型在應用過程中出現的風險以及如何對其進行規制尚未形成明確的治理路線。因此,我們有必要從技術層面以及國家層面作為兩個切入點,深入研判治理的可行性,這有助于摸索出一條行之有效的網絡空間治理路徑。

一、應用困境:ChatGPT 模型應用于網絡空間的安全隱患

隨著ChatGPT 模型的廣泛推廣和使用,大眾對這種新型人工智能模型的好奇心愈發強烈。經過初步使用后人們驚奇地發現,ChatGPT 模型的能力并不局限于簡單的聊天服務,憑借著高效的靈活性和適應性,它能夠在不同的領域和場景中發揮專業性和優秀的人機交互性。例如,在旅游規劃領域,ChatGPT 可以根據用戶提供的信息和偏好,智能地推薦旅游線路和景點;在編寫代碼領域,ChatGPT 可以生成代碼片段或提供代碼調試的建議。簡而言之,作為一種具有強大自主學習能力的人工智能,ChatGPT 模型的應用領域和發展潛力在不斷擴展和深化。

新一代人工智能技術的出現儼然成為了一種發展趨勢。然而,在前沿科技更新迭代的同時,我們也有必要關注ChatGPT 模型在應用過程中對網絡空間環境的安全帶來沖擊的風險,以便及時探討對其進行規制的可行性。一項新技術取得變革性突破,并不必然帶來變革性的社會影響,尤其伴隨技術本身及其應用存在的隱患,如果處理不當勢必影響技術的發展與應用。[1]本文主要從ChatGPT模型應用于互聯網環境中可能產生的一系列安全隱患這個角度開展詳細論述。

(一)個人數據隱私之安全風險

在使用ChatGPT 模型過程中,一個很少被人們所討論、也容易被忽視的問題就是ChatGPT 模型帶給每個人的隱私風險。根據《民法典》第一千零三十二條的規定:“隱私是自然人的私人生活安寧和不愿為他人知曉的私密空間、私密活動、私密信息。”由此可見,我們在互聯網上所產生的數據隱私也從屬于我國民法界定的隱私的范疇。

近日,國外互聯網公司谷歌正式推出了自己的對話式人工智能Bard 作為與ChatGPT 對抗的產品。不難窺見,各互聯網公司在未來一段時間內將會掀起跟風狂潮,致力于人工智能研發的科技公司陷入了一場“軍備競賽”。

但是一個值得關注的問題是,這些科技公司的競爭正是由我們的個人數據推動的。換而言之,我們在互聯網上持續不斷產生的個人數據為ChatGPT 等新型人工智能模型的發展提供了活力。隨著互聯網的普及和社交媒體的盛行,人們在日常生活中不斷產生和留存包括搜索記錄、社交媒體信息在內的大量個人信息。這些數據成為了科技公司在開發人工智能技術時的重要資源,進而用以進行模型訓練與優化,提高精確度和效率。然而,它們的獲取和利用方式也引發了大眾對于人工智能時代下個人數據隱私和數據安全的擔憂和反思。任何人,只要在互聯網上發表過自己的觀點或者文章,都很有可能在不知情的情況下被ChatGPT 拿來使用,作為對某個問題的回答輸出。

另一個風險則是在人機交互問答過程中,我們要求ChatGPT回答問題或執行任務時,當用戶無意間輸入個人信息或商業秘密時,ChatGPT 會瞬間捕捉并收納入庫,并可能在他人的誘導性提問下全盤托出。[2]也就是說,用戶包含個人數據隱私信息的問答,很可能會被ChatGPT 收入囊中,變為自己預訓練語料庫中的一員,作為日后對他人提問的響應。

一些犯罪分子也可能會看重ChatGPT 模型高效的自然語言處理能力,從而用以實施違法犯罪活動。例如,通過利用ChatGPT 模型,可以找出采集到的個人信息間的關聯性與潛在價值。比如從一個人的購物習慣、興趣愛好與交際圈,就能推測出其經濟情況、職業和生活方式等等。ChatGPT 等人工智能模型的出現與普及,將我們原本已經岌岌可危的數據隱私安全推入到更深的風暴之中。

(二)生成內容之真實性風險

盡管能生成高質量的輸出,但由于ChatGPT模型進行的是無監督式預訓練,學習過程不受人類監督,事先獲取的信息也難以得到過濾與篩選,數據在源頭上就已有產生問題的風險。這就會導致基于ChatGPT 模型生成的文章、回答會嵌入各種虛假信息,包括明顯不真實的事實、被誤導性描述的事實以及完全杜撰的明顯事實,這些虛假的信息通常被稱為AI幻覺。據OpenAI公司稱,ChatGPT模型的知識截止于2021 年9 月,這就意味著發生在這個時間點以后的信息都很有可能無法被該模型精確地反映出來,所以也會帶來輸出信息時效性的問題,這在用戶使用ChatGPT模型詢問法律法規以及查詢最新新聞時尤為明顯。而作為開發公司的OpenAI似乎并不回避這問題,它在官網寫道:“ChatGPT 有時會寫出看似合理但不正確或荒謬的答案。”正如一些科學家所說,這種虛實相生的“幻覺”,在涉及法律以及醫療方面等問題時格外危險。

2016 年,Christian Szegedy 等人提出了對抗樣本的概念。他們指出,由于深度學習模型對輸入數據高度敏感,利用故意設計的、難以察覺的對抗噪聲,可以任意欺騙深度學習模型并影響最終預測結果。[3]Nature 雜志更是在2019 年發表的文章中指出了對抗樣本的普遍存在以及深度學習模型的脆弱性。基于此,一旦對抗樣本被用于ChatGPT 模型中,便會從人為的角度導致虛假結果的輸出,嚴重威脅模型的可靠性和穩定性。對抗樣本的概念演示如圖1 所示。

圖1 對抗樣本概念演示圖

根據圖1,可以將對抗樣本定義為如下公式①式中:為神經網絡;x 為原始數據樣本adv 為含有對抗噪聲的對抗樣本;y 為x 的類別標簽;為x 與adv 之間的差別距離足夠小,但是? 對adv 進行了錯誤分類;為一個極小的衡量噪聲大小的數值。:

近日,特斯拉創始人埃隆·馬斯克以及數千名計算機科學家聯名呼吁暫停有關ChatGPT 模型的開發至少六個月以上。他們警告說,在近幾個月,人工智能研發者們為了開發和部署更強大的AI模型,陷入了一場失控的競賽。[4]這些模型已經變得無法被包括它們的創造者在內的任何人所理解、預測或控制,生成的虛假信息極有可能給網絡生態環境帶來深遠的災難。

現如今,我們已正式跨入新媒體時代,新媒體的出現不僅打破了傳統媒體的信息傳播模式,而且還形成了獨特的信息生產與傳播范式。新媒體時代除了專業媒體的信息生產外,更多的海量“微信息”產生在微博、微信、微視頻等網絡平臺,并以幾何速度向外發酵擴散。[5]這些信息憑借自身優秀的靈活性可以方便地進行發布,再加上各個平臺之間自由的評論、轉發和分享機制,進一步推動了信息的分化、傳播和社會影響。在此背景下,一旦犯罪分子將ChatGPT 模型用于虛假信息的生成,那么影響將是空前的。眾多具有針對性的虛假信息在短時間內能在互聯網上進行快速擴散,頃刻間便能充斥整個網絡。虛假信息帶有很強的操縱性和誤導性,可以輕易撼動公眾的主觀判斷與決策。當不知情的網民看到那些符合他們主觀意愿的虛假信息后,加上個人情感的渲染與二次加工,會在不經意間成為其傳播的幫兇,極易造成輿情異化,產生次生輿情。次生輿情在傳播的過程中,通常會將自己進行“包裝”,再加上在二次傳播過程中,伴隨著信息失真的現象,很容易讓網絡謠言滋生、蔓延。[6]

因而,使用ChatGPT 模型等新型生成式AI 模型時,我們需要謹慎對待結果,進行適當的校驗,以確保生成內容的準確性和可靠性。億萬富翁馬克·庫班在接受媒體采訪時表示,我們在使用Chat-GPT 等人工智能工具時要格外小心,并警告說很少有“護欄”可以幫助我們判斷事實與虛構。[7]所以說,對使用類似于ChatGPT 的生成式AI 的用戶而言,始終保持對所生成內容的懷疑心態將是每個人最好的財富。這樣做旨在幫助使用者以一種更加審慎的態度對待AI 生成的內容,從而更好地規避可能出現的誤解或誤導。

(三)網絡犯罪活動之升級風險

國外著名網絡安全公司黑莓公司(Blackberry)于2 月初發布了一項針對1500 名信息技術專家的問卷調查,其中74%的人表示他們擔心ChatGPT 會助長網絡犯罪。[8]這種擔憂并不是空穴來潮。ChatGPT 模型因其出色的語言處理與文字生成能力,暴露出被不法分子濫用進而用于從事網絡犯罪的風險,例如編寫釣魚郵件和惡意程序。相較于傳統的犯罪活動,這種新型互聯網犯罪的犯罪工具得到了顯著提升,使得犯罪活動更加隱匿,為未來互聯網的治理與監管帶來前所未有的挑戰。

作為生成式AI,ChatGPT 可以利用其強大的文字生成能力,根據犯罪嫌疑人提供的關鍵字,在短時間內生成具有指向性的惡意程序或者釣魚郵件,進而實施網絡攻擊。釣魚郵件是一種典型的社會工程學攻擊手段,區別于其他的網絡安全攻擊事件和手段,它通過偽造親朋好友、合作伙伴、同事領導等身份,向被攻擊方發送惡意郵件,誘導被攻擊方點擊郵件鏈接或者下載運行附件,從而完成病毒木馬的傳播或者進行間接網絡詐騙。[9]惡意程序通常指使用不正規攻擊法訪問計算設備入口,竊取個人信息或機密數據的程序,常常引發嚴重的網絡安全危機。[10]雖然這兩種傳統犯罪手段一直存在,但是ChatGPT 模型的出現無疑為它們提供了升級渠道。

以傳統的釣魚郵件為例,不難發現,大部分釣魚郵件都存在著語法以及用詞不當的缺陷,這極有可能是犯罪組織從事境外運作所造成的,組織中的犯罪分子不一定使用母語編寫電子郵件,因而導致了語句的生疏與不連貫性。但是隨著ChatGPT 模型的出現,很可能意味著釣魚郵件的成功概率得到了提升。ChatGPT 能夠根據用戶的輸入提示生成高度真實的文本,犯罪分子與受害人之間的語言隔閡被成功打破,犯罪效率大大提升。例如,一些釣魚網站以及應用程序利用ChatGPT 作為誘餌,模擬OpenAI 的官網,仿造ChatGPT 推出免費的聊天機器人服務,引誘用戶點擊鏈接或下載文件。這樣就可能會給使用者的個人信息、信用卡資料,甚至是手機的安全性帶來危險。更為關鍵的一點是,釣魚郵件的背景可以根據犯罪分子的不同需求進行輕松調整,從賬戶驗證到銀行通知再到商業機密泄露等等。這種多變的特性讓釣魚郵件成為了一種極具威脅的網絡安全攻擊方式。

有些犯罪分子可能會以一種繞過ChatGPT 限制的方式,生成惡意程序。比如能夠接受英文命令的反向shell①反向shell是一種常見的網絡攻擊技術,用于通過遠程控制方式接管受攻擊計算機的控制權,從而在未經授權的情況下執行惡意操作。或者能夠竊取用戶數據的信息竊取器。這些惡意程序可能會通過偽裝成合法的電子郵件、網站或者文件來傳播給目標用戶。國外一家名為Check Point 的軟件公司的研究人員發現,與同樣由OpenAI 開發的自然語言轉代碼系統Codex 結合起來,ChatGPT 模型就可以用來開發和注入惡意代碼。該公司的科研團隊已經構建出了一條由釣魚郵件到包含有惡意代碼的Excel 文件的完整鏈條,并且他們也可以將所有的惡意程序都編入成一個可執行文件,最后在計算機上運行。[11]為了侵入用戶的在線賬戶,犯罪分子也可以利用ChatGPT,輸入事先獲得的用戶個人信息,進而生成眾多用戶名和密碼的組合,以此進行“撞庫”攻擊,這會給網絡空間安全帶來極大的安全隱患。

二、協同規制:深度合成技術下的路徑規范

在現實生活中,以ChatGPT 模型為代表的新型生成式AI 日益興起,相關行業的發展正如火如荼。這是當前人工智能技術發展的必然趨勢,也代表著新的生產力和發展方向。通過對ChatGPT模型底層邏輯的深入解析,我們不難發現,該模型的功能實現離不開深度合成技術②深度合成技術是指利用深度學習、虛擬現實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術。的支持。在實際應用中ChatGPT 所暴露出的問題,某種程度上可以歸因于該項技術的存在。因此,對深度合成技術進行深入了解并及時采取規制措施,有助于提前規避相關風險,推動網絡生態環境向著綠色、健康的方向發展。

(一)數據規范:推動安全保障與分級分類

數據安全是保護數字信息在其整個生命周期內不受未經授權的訪問、損壞或盜竊的安全保護行為,包含信息安全的各個方面。[12]如何在數字化時代保證數據的安全成為了一個極具挑戰性的任務。這就有必要建立數據規范,制定相關標準,并采取相應的措施來保障數據的安全與可靠。同時還要根據數據類型及應用場景,進行數據等級分類,確保敏感數據得到更為嚴格的保護。每當一項新技術誕生之時,風險與規制相生相隨,唯有建立一個涵蓋數據規范、責任導向、權利保障以及技術培育的完整體系,ChatGPT 的技術應用才能被納入到一個安全可控的范圍之內。[13]

當前,隨著數據安全上升到國家主權安全層面,數據分類分級制度已經成為國家數據治理的必然選擇。[14]數據分級分類制度是指將數據按照一定的標準進行分類、分級管理從而更好地保護數據安全,與此同時依照數據的敏感程度和價值程度,對不同等級的數據實施不同的管理和保護措施。究其本質,ChatGPT 模型作為一款基于深度合成技術的聊天機器人,它所處理的數據源自于各種不同的網絡平臺和應用程序。這些數據在被用于ChatGPT 模型訓練和文本生成時,可能產生諸多安全隱患。因此,通過建立數據分類分級制度可以有效規范ChatGPT 模型的應用,從源頭上保障數據安全。

我國于2021 年頒布的《中華人民共和國數據安全法》(以下簡稱《數據安全法》)中已明確提出建立國家數據分類分級保護制度的初步構想。根據第二十一條的相關規定,國家將根據數據的重要性和敏感程度,制定相應的分級分類標準。因此為規避基于ChatGPT 模型的數據處理帶來的風險,未來應以《數據安全法》為指導準則,以數據的類型、價值、敏感程度為依據,在國家的宏觀指導之下對數據進行分級分類。在中央層面,應該建立國家數據安全工作協調機制,將數據的安全保護與分級分類列為重點工作。在此基礎上,結合相關部門與專家的研究論證,形成一套完整的數據分類與分類的總體框架與目錄,并根據國家發展戰略與長期利益,保證協調機制的科學性與可操作性。與此同時,依據法律法規的規定以及技術的發展,強化對各級政府主管部門的指導與監督,由地方各級政府對分級分類工作的具體實施加以細化與落實,確保工作的高效實施。

具體而言,可以將數據歸類為公開數據、內部數據和敏感數據三個級別。公開數據是指可以公開發布和傳播的信息,如政府公開的文件、統計數據等;內部數據是指企業或組織內部使用的數據,如人事信息、財務數據等;敏感數據是指具有商業、科技或國家安全價值的數據,如商業秘密、技術資料等。首先,就公開數據而言,由于不涉及到個人隱私及國家安全,各級政府應當公開透明地進行管理,并加強數據質量控制,也可以將數據交由ChatGPT 模型用于預訓練,從而更好地發揮ChatGPT模型在各個領域的效能,為社會提供更精確、更智能的服務。其次對于內部數據,應當強化數據保護措施,加強外部訪問權限控制,防止數據泄露。在確保數據安全的前提下,政府可以經過與數據所有者的協商和同意,向ChatGPT 模型開放適當的數據。在行業內部數據的支持下,ChatGPT 模型可以更加專業地回答專業領域的問題,提高應答的效率和準確性。最后,對于涉及到公民個人隱私與國家安全的敏感信息,需要采取更為嚴格的安全保護措施。我國于2022 年頒布的《互聯網信息服務深度合成管理規定》中指出在深度合成技術背景下需對數據與技術進行管理。其中,第十四條指明:“深度合成服務提供者和技術支持者應當加強訓練數據管理,采取必要措施保障訓練數據安全;訓練數據包含個人信息的,應當遵守個人信息保護的有關規定。”據此,我們應指明類似于ChatGPT的新型生成式AI 模型無權干涉敏感數據,政府可以通過采取諸如加密傳輸、限制訪問、實行數據備份等安全措施保障此類數據的絕對安全。通過建立安全審查機制,對申請使用敏感數據的機構和個人進行審查,確保其使用的正當性和保密措施的有效性。

需要注意的是,無論數據的等級和類別如何,ChatGPT 模型在數據采集、處理和應用的各個階段,必須始終遵循相關法律法規,這也是保障數據安全和使用合法性的必要條件。

(二)內容管制:強化技術檢測與危機應對

網絡空間安全治理呼吁國家在場,網絡虛假信息已成為影響國家安全尤其是政治安全的重要因素。[15]深度合成技術的出現使得網絡虛假信息的制作達到了新的高度,在ChatGPT 模型的背景下,人們可以輕松生成虛假的文字、圖片、視頻等內容,這些內容往往帶有強烈的誤導性。習近平總書記在關于《中共中央關于全面深化改革若干重大問題的決定》說明中指出:“網絡和信息安全牽涉到國家安全和社會穩定,是我們面臨的綜合性挑戰。”[16]因此如何對ChatGPT 模型的生成內容進行管制,已成為擺在我國面前亟待解決的重要問題。

據2023 年4 月11 日國家互聯網信息辦公室關于《生成式人工智能服務管理辦法(征求意見稿)》中第七條的相關規定,生成式人工智能產品的服務者應對其數據來源的合法性負責。據此,可以采取的一項措施是強化虛假內容檢測技術。傳統的虛假信息檢測技術通常采取關鍵詞匹配和人工標注等方式,但由于自身固有的局限性,很難對虛假信息進行精準判定。相比之下,基于深度學習的虛假內容檢測技術具有更高的準確性和可靠性。第一種方法就是利用ChatGPT 模型的生成能力,生成一些虛假內容,再將這些內容與真實內容進行對比,進而訓練出更加準確的虛假內容檢測模型。這種方法既可以有效地檢測虛假內容,同時還可以增加訓練數據的多樣性,從而提高檢測模型的魯棒性。①魯棒性(Robustness)是指系統或算法在各種情況下都能夠保持良好的性能表現,不受異常或意外情況的影響。在機器學習和人工智能領域,魯棒性通常用來描述模型或算法對于數據偏移、模型泛化、攻擊和噪聲等方面的穩定性和健壯性。具體流程如下:首先準備一個包含真實內容與虛假內容的數據集,此數據集可通過網絡爬蟲的方式從社交媒體等互聯網平臺獲取,并且人工標注數據的真偽性;其次使用BERT②BERT(Bidirectional Encoder Representations from Transformers)是一種基于Transformers 的預訓練語言模型,由Google 團隊在2018 年提出。BERT 通過訓練大規模的無標注文本數據,可以學習到詞語之間的語義關系,從而能夠在各種NLP 任務中表現出色。、GPT③GPT (Generative Pre-trained Transformer) 模型是一種基于Transformer 的預訓練語言模型,由OpenAI 團隊在2018 年提出。與BERT 模型不同,GPT 模型僅采用了單向Transformer,即只能根據前文生成后文,而不能考慮后文對前文的影響。等預訓練模型對獲取到的數據集進行預訓練,得到一個基礎的虛假內容檢測模型;接下來,使用得到的模型對部分虛假內容進行提取并添加到數據集中,擴大數據集的樣本容量;在此基礎上,利用已有的包含真實和虛假內容的擴展數據集,對預訓練模型進行二次訓練,以提高該檢測模型的準確性和可信性;再次,通過交叉驗證等方式評估虛假內容檢測模型的準確率、召回率等指標,以確保模型的性能;最后就是將訓練好的模型投入到實際場景進行應用。如圖2 所示。第二種方法是利用多模態學習的方法來識別虛假的信息。當前,大量的虛假信息以圖片、視頻等多媒體的形式被廣泛傳播,利用多模態學習方法能夠對虛假信息進行更為全面的識別。多模態學習是指利用多種不同的信息來源來學習一個模型。在虛假內容的檢測過程中,我們可以使用大量的文本、圖像、視頻作為信息源用于模型的訓練。比如,文字描述可以和圖像或者視頻內容進行關聯,從而更好地檢測虛假內容。

圖2 虛假內容檢測模型實現概念圖

在深度合成技術的支持下,網絡輿情的形成和傳播也面臨著新的挑戰。深度合成技術可以生成高質量的虛假信息,從而干擾公眾對事件的判斷和評價。這直接威脅到了網絡生態環境的公正和健康發展。因此,對于深度合成技術的規制還應當從限制虛假內容的傳播入手,在社交平臺建立虛假內容檢測機制和處罰制度,對網絡輿情的形成和傳播進行嚴格的限制。在技術規制方面,可以通過技術手段如水印、數字簽名、可追溯性等方式,對深度合成技術生成的信息進行標識和溯源,以增強信息的真實性和可信度。以具有高度敏感性與社會影響力的涉警輿情為例,警方宣發部門可以通過升級出稿機器,實現人機協同,根據涉警輿情事件的性質、復雜程度、涉及領域等因素進行綜合判斷,對于簡單的涉警輿情信息由出稿機器完成即可。[17]對于機器產生的復雜輿情信息,需交由專人進行校對、修改后,方可發布。只有這樣,才能保證官方發布的信息既有價值判斷與人性化,同時又有真實性和有效性。

因此,規范ChatGPT 模型的生成內容,有助于防止不實信息及不當內容的擴散,對保障社會及個體的合法權益具有重要意義。同時也有助于維護ChatGPT 模型自身的信譽,提高在社會中的應用價值。

(三)犯罪甄別:落實技術反制與模式創新

網絡犯罪已成為當今網絡生態環境的一大難題。通過對深度學習模型的訓練,深度合成技術可以實現對視覺、聽覺等信息的有效處理,從而構建出具有真實感的虛擬世界。這項技術的出現,使得諸如網絡詐騙、惡意代碼攻擊等網絡犯罪行為變得更為隱秘,這些行為都為網絡生態環境帶來了極大的危害。可以說,基于深度合成技術下的ChatGPT 模型的興起,為網絡生態環境的治理帶來了全新挑戰。

要想有效地應對上述問題,公安機關就必須對網絡犯罪進行及時甄別,盡早地識別出可能存在的網絡犯罪,并采取適當措施來防范和遏制犯罪行為。其中一個重要的方法是建立網絡犯罪行為識別系統。該系統利用機器學習、深度學習等技術,在海量數據的基礎上,可以實現對網絡犯罪活動的有效識別與定位。此系統的建立需要經過以下步驟:首先是收集包括釣魚郵件、木馬病毒、惡意程序在內的大量網絡犯罪行為數據作為數據集;其次對采集到的數據進行清洗和標注,從而確保數據的質量與可用性;然后則是將收集到的數據轉化為可供機器識別的形式,提取出特征值;接下來使用深度學習算法對提取出的特征值進行訓練和學習,生成對應的模型,用于網絡犯罪行為的識別與定位;最后將模型嵌入到網絡環境中,進而可以實現對網絡犯罪行為的實時識別與定位,提高網絡的安全性。(如圖3)此犯罪識別系統的構建可以通過多種技術實現,例如,使用TensorFlow①TensorFlow 是一個由Google 開源的深度學習框架,它支持各種機器學習算法,并提供了靈活的數據處理和模型構建工具。通過TensorFlow,用戶可以輕松地搭建神經網絡、訓練模型、進行推理以及進行模型優化等操作。、PyTorch②PyTorch 是一個基于Python 的開源機器學習庫,它提供了豐富的工具和接口,支持深度學習模型的構建、訓練和部署,廣泛應用于學術界和工業界。之類的深度學習框架實現模型的訓練和實現;使用Spark③Spark 是一種開源分布式計算系統,主要用于大數據處理和分析。它支持多種編程語言和數據源,并提供了快速、可擴展的數據處理能力。、Hadoop④Hadoop 是一個由Apache 基金會所開發的開源分布式計算平臺。等大數據處理技術實現數據的清洗、特征提取工作。同時,要注重對該系統的隱私性和安全性進行保護,以保證不被黑客攻擊或濫用。

圖3 網絡犯罪行為識別系統實現概念圖

在升級技術反制措施的同時,公安機關還可以對網絡犯罪的偵查模式、偵查手段進行創新升級并加以應用,這有益于線索獲取和證據固定。在深度合成技術背景下,網絡犯罪案件的線索發現、深入挖掘和取證分析都面臨著較大的困難。因此有必要對線索進行全面研判,創新使用技戰法,如“按圖索驥”法,查找偵查線索和固定犯罪證據,“圍點打援”法,擴大數據碰撞范圍、甄別犯罪可疑;“火力覆蓋”法,窮盡一切手段進行分析研判和摸底排隊。[18]

為有效應對基于ChatGPT 模型的網絡犯罪,公安機關可以基于網絡開源信息提高警情預測能力。依靠網絡開源信息全面性、實時性的特點,通過大數據技術對各種信息進行關聯、碰撞分析就有可能發現潛在警情,從而及時布置警力主動出擊消除危險。[19]同時還可加強執法人員的培訓與能力提升。執法辦案人員應當具備相關的技能和知識,能夠熟練掌握數字取證、網絡溯源等多種調查和取證技術。與此同時,還需掌握一定的深度合成技術的基本原理以及應用場景,這樣才能更好地應對和打擊網絡犯罪行為。

三、安全探索:總體國家安全觀下的未來展望

在信息全球化時代,人工智能的發展已經成為推動社會經濟提升的重要因素。在這種情況下,傳統的國家安全內涵已不再適用,而國家安全也由軍事安全等單一領域,上升到了包括經濟安全、社會安全等多個領域在內的總體安全。所以,我們必須秉持總體國家安全觀的理念,用前瞻性和整體性的眼光來應對科技發展帶來的挑戰。

總體國家安全觀提出了“國家安全是安邦定國的重要基石”這一基本原則,旨在保障國家安全和長期穩定發展。同時強調了對包括科技安全、網絡安全在內的非傳統安全的重視。因此,在探索ChatGPT模型治理路徑的過程中,我們需要從宏觀層面出發,將總體國家安全觀與ChatGPT模型治理相結合,這有助于我們更好地理解ChatGPT 模型治理的重要性和必要性,從而為ChatGPT 模型的治理提供未來的展望。黨的二十大報告指出,必須更好地發揮法治固根本、穩預期、利長遠的保障作用,加強重點領域、新興領域、涉外領域立法,加強重點行業、重點領域安全監管。[20]針對ChatGPT模型帶來的已知或未知的各種現實問題,我們需要在國家安全觀的整體視野下,提前預判并制定相應的規制措施,摸索出一條符合中國國情的治理路徑。

(一)完善法律法規

針對網絡安全問題,我們需要對現有相關的法律法規進行修訂和完善,以保障模型在開發、部署和維護等各個環節的安全性。這樣才能有效地預防黑客攻擊、數據泄露以及濫用等風險。目前已經頒布實施的《網絡安全法》、《國務院關于印發新一代人工智能發展規劃的通知》、《互聯網信息服務算法推薦管理規定》等法律法規盡管可以擴展至ChatGPT模型,但是仍然不夠清晰,也不夠有針對性,在時間方面也存在著滯后性的問題。因此,有必要對現有的法律法規進行修訂與完善,增加相應的條款與司法解釋,延伸制定有關網絡安全問題的特別條款,進一步明確規定ChatGPT模型為代表的新型生成式AI 模型從開發到應用再到維護過程中相關參與者應當遵守的網絡安全責任,以及國家在此類模型中各項活動方面的法律管轄權。

其次是個人信息保護方面的問題。在2021 年,我國成功頒布并實施了《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》),這項法律明確了個人信息的定義和范圍,以及侵犯個人信息的具體情形等內容,在法律層面上為中國公民的個人信息提供了保護。但是從現實的角度來看,《個人信息保護法》仍以Web2.0 為基礎,已不滿足當下的Web3.0 時代,應根據Web3.0 與ChatGPT等同類技術的發展特點對該法予以修訂,明確保護個人信息與隱私的基本原則。比如,要求AI 模型在收集、處理和存儲用戶的個人信息時,要對用戶的隱私進行嚴密的保護,并對AI 模型的數據處理作出明確的規定;對于涉及用戶隱私的處理過程的AI 模型,需要有充分的透明性和可解釋性,向用戶說明數據的收集、處理和使用方式;也可以通過增加與加強個人信息的脫敏和加密有關的規定,要求AI 模型在處理個人信息時使用先進的脫敏和加密技術,降低數據泄露的風險;此外,我國還可以積極吸收與學習一些國外涉及到的相關法律,例如,歐盟發布《人工智能法》,宣布對ChatGPT 等新型智能系統實施“前瞻性”治理條款,我國應在此方面加快相關工作進度。

(二)提高行業自律

在社會生活中,道德起著舉足輕重的作用,道德作為基石,對于維護社會秩序、促進和諧共處和實現可持續發展具有深遠影響。ChatGPT 模型在道德上主要考慮的因素是訓練數據中的偏見,由于此模型是基于大量的文本數據集,因此在數據集中存在的任何偏見與歧視最終都會在模型的輸出中呈現,這樣就很有可能會導致結果的不公平性與不精確性。

在社會分工日趨細密的時代背景下,社會大眾對高新技術的認識與評價嚴重滯后,難于發揮有效的社會監督職能。[21]而作為開發者,他們可以說是第一個意識到ChatGPT 技術的作用、風險以及負面影響的人,在道德上、法律上、歷史上都應當是第一責任人。因此,應該積極倡導行業自律以及負責任研究與創新(Responsible Research and Innovation,簡稱RRI)理念,[22]通過發揮研發者的道德自律精神,為其提供基礎支撐并引導價值觀,從而實現研發產品的最大化效益。中共中央國務院于2017 年印發的《新一代人工智能發展規劃》也指出,“在大力發展人工智能的同時,必須高度重視其可能帶來的安全風險挑戰,加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發展。”

在目前的法律法規體系并不完善的情況下,研發人員的責任意識、道德意識和行業自律就顯得尤為重要,他們是ChatGPT 模型誕生之初,推動該類技術進步的核心力量,也是人類對抗技術風險和負面影響,以及排除許多潛在危險的“第一道”道德防線。一門新技術產生時,出現一段時間的“灰色地帶”是在所難免的,在這個時候就需要研發機構堅持行業自律與承擔道德責任,加強行業自律機制建設,不斷提升自身的道德素養,規范行業的發展與運營,確保科研活動的合法性、正當性與安全性,為科研行業的健康有序發展和社會進步貢獻力量。

(三)加速技術突破

ChatGPT 模型要實現持續發展與健康運行,技術才是第一生產力。中共中央總書記習近平在主持學習時強調,人工智能是新一輪科技革命和產業變革的重要驅動力量,加快發展新一代人工智能是事關我國能否抓住新一輪科技革命和產業變革機遇的戰略問題。[23]因此,為了提高我國人工智能行業在國際上的話語權和競爭力,既要大力發展相關技術,不斷突破技術瓶頸,持續為用戶帶來更好的數字化生存體驗,又要秉承“技術向善”原則,堅持統籌規劃,科學布局,確保技術的發展用之于民,[24]在遵守法律法規與秉持行業自律的精神下,將相關技術引導朝著維護人民安全的正確方向發展,以確保給社會帶來積極作用和貢獻,為實現高質量發展提供有力支撐。

具體而言,作為語言模型,ChatGPT 模型的技術突破是通過對背后的深度學習算法進行不斷改進與優化來實現的,以下是一些可能的技術突破路徑。首先,可以通過改善現有的模型體系結構,提高其精確度、效率和擴展性,例如,增加層數、改進正則化技術、優化梯度下降算法等;其次,可以采用聯邦學習進行算法改進。這是一種分布式機器學習技術,通過在多個設備或者機器間進行分布式模型訓練,將本地的局部模型參數上載到中心服務器,對其進行聚合,以實現對整個模型的優化。該方法可以最大限度地提高數據的安全性與隱私保護,并且能夠更好地應對設備數量龐大、數據分散,且具有地理位置分布的情況;此外,還可以進行多模態學習,通過將不同類型的數據(如圖像、語音、文本等)融合起來,使模型對復雜的真實世界有更好的了解,增加其適用范圍和準確度。

結語

ChatGPT 模型的誕生,正式開啟了新型人工智能時代的大門,作為一種自然語言處理模型,它具有極其廣泛的應用前景,為我們的工作與生活帶來了便利。但與此同時,ChatGPT 模型在應用過程中對社會造成了一些潛在的負面影響,暗中沖擊著現有的法律法規。針對可能會產生的一系列現實問題,我們應積極采取規制措施,也要支持鼓勵技術進步,秉持包容的態度與“技術中立”原則,不能因為技術可能會帶來潛在風險,就一味否定該項技術,而是要讓技術在監管下健康發展。

總而言之,作為一項新興的人工智能技術,ChatGPT 模型在給人類社會提供諸多便利的同時,也伴隨著不少挑戰。為了保證該技術的可持續和健康發展,需要在各個層面上強化管制,建設一個更為安全、公正和透明的數字世界。在人工智能技術日益普及的今天,我們期待一個更加成熟、穩定的發展態勢,為未來的創新和進步鋪平道路。

猜你喜歡
人工智能信息模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
主站蜘蛛池模板: 国内精品小视频在线| 欧美人与性动交a欧美精品| 国产精品午夜电影| www.99在线观看| 久久精品人人做人人综合试看| 一级毛片在线直接观看| 91亚洲视频下载| 亚洲无码高清视频在线观看| 国产一线在线| 四虎成人免费毛片| 欧美日韩免费| 国产欧美日韩综合一区在线播放| 综合色在线| www欧美在线观看| 国产微拍一区| 99青青青精品视频在线| 五月婷婷激情四射| 日韩欧美国产综合| 国产在线98福利播放视频免费| 高清精品美女在线播放| 日本人又色又爽的视频| 中字无码av在线电影| 免费视频在线2021入口| 97se综合| 久久久无码人妻精品无码| 在线观看的黄网| 国产精品自在在线午夜区app| 亚洲专区一区二区在线观看| 欧美曰批视频免费播放免费| 亚洲乱亚洲乱妇24p| 91国内在线观看| 久久不卡国产精品无码| 久久精品欧美一区二区| 久久精品无码一区二区日韩免费 | 91在线播放免费不卡无毒| 美女视频黄又黄又免费高清| 中文纯内无码H| 国产精品无码翘臀在线看纯欲| 亚洲精品成人7777在线观看| 亚洲综合第一区| 色哟哟国产精品一区二区| 国产欧美日韩另类| 极品国产一区二区三区| 99久久精品免费视频| 熟女日韩精品2区| 中日韩欧亚无码视频| 国产欧美日韩免费| 综合久久五月天| 最新日韩AV网址在线观看| a亚洲视频| 亚洲欧美另类视频| 四虎影院国产| 免费AV在线播放观看18禁强制| 亚洲欧美精品日韩欧美| 一本色道久久88亚洲综合| 亚洲一级毛片在线观| 天堂在线亚洲| 免费av一区二区三区在线| 午夜在线不卡| 伊人久久福利中文字幕| 欧美日韩激情在线| 97精品伊人久久大香线蕉| 亚洲AV无码精品无码久久蜜桃| 久久午夜夜伦鲁鲁片不卡| 女人一级毛片| 亚洲欧美日韩精品专区| 欧美不卡在线视频| 日韩黄色大片免费看| 无码电影在线观看| 91精品久久久久久无码人妻| 永久成人无码激情视频免费| 日韩毛片在线视频| 亚洲黄色激情网站| 夜夜操狠狠操| 国产最爽的乱婬视频国语对白| 香蕉蕉亚亚洲aav综合| 视频二区欧美| 尤物国产在线| 亚洲精品无码不卡在线播放| 成人午夜视频在线| 激情视频综合网| 在线播放真实国产乱子伦|