吳玄
近日,全國多地發生FaceTime詐騙事件,同時有不少蘋果用戶在社交平臺上反映相關問題。作為一種常見的交流方式,線上視頻在為人們的工作生活帶來極大便利的同時,也存在著諸多個人信息風險。當下,以ChatGPT為代表的生成式人工智能技術的突破,更加凸顯出個人信息保護面臨的新問題與新挑戰。
隨著信息技術的發展,在線上視頻中偽造受害者的人臉已經不是難事,其具體使用的,就是人工智能的深度合成技術。
深度合成技術,是指利用深度學習、虛擬現實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術,包括但不限于文本編輯、語音文字轉換、音樂生成、人臉生成與視頻生成、圖像生成、數字仿真等。其合成的內容在視覺、聽覺上具有極佳的仿真效果,甚至能夠做到“以假亂真”。
深度合成技術源于人工智能系統生成對抗網絡(GAN)的發展,近期大熱的ChatGPT就運用了該模型架構。GAN包含兩個部分:一個生成模型與一個判別模型。前者的任務是生成看似真實的,與原始數據相似的內容;后者則對生成內容進行真實與否的判斷。與傳統人工智能算法模型不同,生成式人工智能模型(GAI,Generative Artificial Intelligence)充分貫徹了“大數據、大算力、大模型”。
大數據為生成式人工智能系統提供了訓練原材料,ChatGPT不僅可以“理解”和生成廣泛的自然語言文本,還具備極強的圖像與視頻生成能力。大算力是處理海量數據必備的基礎,訓練生成式人工智能模型所需要的算力取決于模型的規模(參數數量)、訓練數據集的大小、訓練輪次、批次大小。大模型是一個智能載體,在大算力的支撐下從大數據中提煉出“智能”。算法自身通過深度學習不斷自我迭代,產生出復雜架構的人工智能模型并展現出較高的智能水準。

警惕不法之徒利用視頻電話竊取人臉、聲音信息
在生成式人工智能系統的推動下,深度合成的應用端變得不再遙不可及:
一方面,深度合成內容的準確度和效率大大提升。經深度合成的內容更加“無懈可擊”。以“換臉”(Deepfake)為例,僅需提供一張本人照片,即可按照要求生成相應的圖片乃至視頻,達到人臉的重現、替換、編輯與合成。2019年6月,一則以臉書創始人兼首席執行官馬克·扎克伯格為主角的換臉視頻出現,引發媒體和輿論的廣泛關注。
另一方面,深度合成應用的成本在不斷降低。隨著一些應用程序的出現,不懂技術的人也能簡單制作換臉假視頻。2018年4月,美國娛樂網站Buzzfeed發布了一條非常逼真的視頻。視頻內容是美國前總統奧巴馬的一段講話,而現實中,這段講話從未發生過。這條視頻采用FakeApp制作,據說花費了56個小時來搜集和匯總奧巴馬的相關模型。而如今,借助最新的生成式人工智能模型,這一流程得以大幅簡化且不影響內容效果。
基于ChatGPT等生成式人工智能的加持,網絡信息內容的生產也發生了代際變化。已從早期的Web1.0、Web2.0,正式過渡到Web3.0時代。如果說專業媒體內容生產和用戶交互內容生產(自媒體)是前兩個時代的特征,那么人工智能生成內容(AIGC)正逐漸成為新的發展方向。利用深度合成技術生成的影視劇片段、明星話題和公眾人物的換臉視頻等具有極強的娛樂性與傳播性。有學者指出,深度合成將重新定義虛擬數字化空間,從傳播社會學意義上看,一個新的人類生存場景將以深度合成技術為基石展開。
技術是一把雙刃劍,深度合成技術在改變人類生活場景的同時也引發了一系列社會風險和安全挑戰。隨著深度合成技術的推廣和使用成本的降低,不法之徒可以批量偽造音頻、視頻,實施誹謗、詐騙、勒索等違法行為,甚至捏造公眾人物言論擾亂社會秩序。隨之而來的是,傳統的新聞信息服務許可、用戶賬號管理和平臺算法過濾、人工審核標注等手段所面臨的治理挑戰:
首先,深度合成技術被用于非法目的,侵犯個人的合法權益。2021年10月,安徽合肥警方曾查獲一起非法利用深度合成技術偽造手機用戶人臉動態視頻破解身份核驗,為黑灰產業提供注冊虛擬手機卡等技術支撐的案件。此外,不法之徒還利用Facetime、微信視頻等線上通話應用來竊取人臉和聲音信息,用于偽造不雅視頻,侵害個人名譽權。
其次,深度合成技術的濫用容易滋生謠言及破壞社會秩序。一些不法之徒利用深度合成技術,生成高度逼真的圖片、音頻和視頻,并杜撰文字加以傳播,張冠李戴、無中生有,顛覆了傳統“有圖有真相”的認知,進一步加劇了人們發現與識別謠言的難度。
最后,深度合成技術容易被惡意利用,威脅國家安全。當前,國外已出現多起利用深度合成技術偽造政治或公眾人物發表言論,不僅影響國內政治穩定,還可能引發國際危機。
針對人工智能技術應用產生的風險,我國較早開始了法律規制的嘗試。除網絡安全法、數據安全法、個人信息保護法等網信基礎立法之外,又有多部相關法規相繼出臺。如2022年3月開始實施的《互聯網信息服務算法推薦管理規定》將生成合成類算法列入監管范圍;2023年1月開始實施的《互聯網信息服務深度合成管理規定》是針對深度合成技術應用的專門立法;2023年8月開始實施的《生成式人工智能服務管理暫行辦法》則是在生成式人工智能最新發展動向基礎上的及時應對。
從技術角度來看,個人信息在深度合成技術應用中處于核心地位。無論是人工智能模型用于訓練的數據,需要合成時使用的“樣本”信息,還是經過深度合成的圖像、音頻、視頻等內容,均離不開個人信息。因此,個人信息保護將成為深度合成應用治理的重要環節。2023年8月8日公布的《人臉識別技術應用安全管理規定(試行)》(征求意見稿)也是將法律規制的重點移回到個人信息保護上。生成式人工智能模型在一定程度上模糊了真實與虛擬的邊界。然而,浮于表象的數字“真實”終究難以掩蓋本質的現實“虛假”。因此,對深度合成應用中的個人信息保護也應當圍繞區分“真”和“假”展開——
一方面,應當保障“真”個人信息的權益。所謂“真”個人信息是指現實世界中涉及每個人的真實的個人信息。首先,是從個人信息收集的源頭予以保護。在信息收集階段,應當落實“知情-同意”要求,嚴格控制使用范圍。對用于人工智能訓練的數據進行去標識化處理。如《互聯網信息服務深度合成管理規定》明確要求深度合成服務提供者和技術支持者提供人臉、人聲等生物識別信息編輯功能的,應當提示深度合成服務使用者依法告知被編輯的個人,并取得其單獨同意。其次,是加強對敏感個人信息的保護。個人信息保護法規定對敏感信息應進行更為嚴格的保護。人臉信息即屬于敏感個人信息中的生物識別類信息。在深度合成應用中,無論是“換臉”還是生成視頻、圖像或音頻內容,第一步是輸入作為“樣本”數據的(人臉)信息。《人臉識別技術應用安全管理規定(試行)》(征求意見稿)重申了敏感個人信息非必要不采集:“只有在具有特定的目的和充分的必要性,并采取嚴格保護措施的情形下,方可使用人臉識別技術處理人臉信息。實現相同目的或者達到同等業務要求,存在其他非生物特征識別技術方案的,應當優先選擇非生物特征識別技術方案。”
另一方面,對于“假”個人信息的使用和流動應當予以控制。這里的“假”個人信息是指運用深度合成技術生成的虛假音頻、視頻、圖片等內容。首先,是在技術上進行標識化處理。此處的“標識化”是指深度合成服務提供者對使用其服務生成或者編輯的信息內容,應當采取技術措施添加標識。其目的在于幫助用戶識別信息真假,重新建立真實與虛假的區分界限。其次,是健全審核和辟謠機制。識別違法內容是深度合成應用治理的基礎。深度合成服務提供者應當建立相應機制,第一時間發現生成內容非法,并采取措施制止相關內容的傳播,從而將生成內容對社會與個人的侵害控制在最小范圍內。
(作者系上海師范大學副教授)