文|馬 迪
如何去偽存真,真的是每個時代每個社會都需要思考的終極問題。

都說“耳聽為虛,眼見為實”,但如果你在國外視頻網站上搜索一下“deepfake”這個詞,一定會懷疑自己的眼睛。這種正在迅速風行全球的技術讓人意識到,除了詐騙電話、PS圖片,現在連視頻都會“騙人”了,而且幾乎天衣無縫。
在AI領域中,有一項非常熱門的分支,叫做機器學習—用程序模擬人類學習的過程,可以自我更新、自我進化、累積經驗,最終形成自己的某種套路。而在機器學習中,又有一種非常熱門的方式—生成對抗網絡(Generative Adversarial Network,簡稱GAN)。
2014年,Ian Goodfellow提出了GAN模型,即設計兩個獨立的機器學習網絡,分別為生成器和判別器。以模擬一張圖片為例,生成器不斷訓練,目的是“模仿”出以假亂真的圖;而判別器則不斷檢測,判斷出此圖是真是假。在對抗過程中,兩者都會不斷優化,提高自己的生成能力和判別能力。這樣“左右互搏”的結果就是,生成器一定能輸出無限接近于原圖的“贗品”。
2016年,基于GAN的實時視頻仿真軟件Face2Face誕生,可以把一個人的臉部動作,無聲無息地轉移到另一個人的臉上。這項技術的開發者Justus Thies在當時已經意識到了潛在的危險,他在一次接受采訪的時候表示:“如果這類視頻軟件得到廣泛應用的話,將會對社會造成劇烈的影響—這也是為什么我們不把軟件代碼開源的原因之一。”
但遺憾的是,這個潘多拉魔盒已經被打開了。超低門檻的工具讓這項技術走向大眾,一大批用戶加入到這種視頻的制作和分享中,甚至有專門的軟件教人“一鍵換臉”,比如Fakeapp,兩個月就被下載了12萬次。……