王治鈞
看電影的時候,我們突然發現銀幕上的人臉被人動了“手腳”,原來是主角被“變臉”了。這是利用深度學習和人工智能技術合成高度逼真的虛假內容的“Deepfake”技術,它使人們更容易創作虛假內容。
在2023年的TED大會上,這項人工智能深度偽造技術更是震驚全場,因為它可以幫現場任何人實時實現深度造假影像和聲音的目的。人工智能專家湯姆·格拉漢姆(Tom Graham)展示了包括實時換臉和語音克隆在內的若干功能,“人工智能生成的媒體內容看起來、聽起來就像真實世界的產物,它即將席卷我們的生活”。

“Deepfake”指深度偽造技術,通常用于合成視頻或圖片,例如將電影中一個人的臉部特征替換成另一個人的臉部特征。這種技術可以用于制作虛假的視頻、音頻或圖片,以及偽造某人的言論、行為或身份,因此受到廣泛關注。
早在20世紀40年代,科學家就創建了這些可以“換臉”的計算模型的基礎,但近些年人們才有了可以有效地使用它們的計算能力。研究人員將相關數據導入計算機模型,以學習文本的語言特征和語音聲學特征之間的關系。只要少量新數據,就可以教會這些模型以不同人或不同風格說話,這為計算機合成靈活且適應性強的語音開辟了新的可能性。
近年來,相關技術的快速發展不僅大幅提升了高仿真內容偽造的效能,更降低了其內容制作的門檻。開發者利用開源軟件能輕易修改圖片、聲音、文字等內容,民眾也可輕易下載這類軟件。
較為初級的檢測方法依賴于模型,深度偽造生成內容的過程中圖像會被引入偽影,人眼無法察覺,但可以被經過訓練的模型檢測出來。而更高級的檢測方法可以識別畫面中細微的不自然的部分,比如角色不會眨眼、口型對不上、膚色不協調、面部邊緣閃爍、光源不一致,等等。深度偽造者更是難以將頭發、珠寶、牙齒之類的細節渲染到盡善盡美。
人工智能已可以幫助人們進行識別,但現有的系統更適用于檢測有關名人的深度偽造視頻,因為系統可以免費在互聯網上獲得大量的名人影像資料,以此進行數小時的訓練。有關科技公司正在研發更先進的檢測系統,以達到“假貨”出現時便將其標記的目的。

深度偽造
深度偽造技術并不只有負面價值,人們可以利用它去創造一些更有趣、更有意義、更貼近人類情感互動的產物。它可以被人們用作制造與其去世的親人相關的影音數據,重現相處和交流的場景,用現實、逼真的影像重建情感體驗。
不僅如此,深度偽造技術也可以在醫療領域發揮重要作用,它有助于創建新的診斷和監控程序。醫院可以利用Deepfake技術來構建Deepfake患者,用于測試和實驗的患者數據真實而準確,但不會危及現實患者的安全,這為醫療領域探索新的程序打開了大門。
只依靠技術是無法解決深度偽造問題的,開發更先進的檢測算法、制定相關法律法規、培養公眾對相關信息的認知和辨別能力,研究人員、技術公司和政府機構正在共同應對它帶來的威脅。面對網絡上龐雜的圖文信息,我們要更加警惕。
生成式人工智能技術快速發展,為經濟社會發展帶來新機遇的同時,也產生了傳播虛假信息、侵害個人信息權益、數據安全和偏見歧視等問題,如何統籌生成式人工智能的發展和安全引起各方關注。2023年7月,中國國家網信辦等7部門公布了《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》),該《辦法》自2023年8月15日起施行。
《辦法》明確要求,生成式人工智能服務提供者應當依法開展預訓練、優化訓練等訓練數據處理活動,采取有效措施提高訓練數據質量,增強訓練數據的真實性、準確性、客觀性、多樣性。應使用具有合法來源的數據和基礎模型,按照《互聯網信息服務深度合成管理規定》對圖片、視頻等生成內容進行標識,發現違法內容應當及時采取處置措施。涉及知識產權的,不得侵害他人依法享有的知識產權;涉及個人信息的,應當取得個人同意或者符合法律、行政法規規定的其他情形。