劉建明
【摘要】生成對抗網絡偽造的假新聞與視頻,正在操縱美國及多國媒體,成為人類的公害。深度偽造引起人們對假信息的擔憂,對好戰分子可能利用假視頻引發世界大戰或核戰爭充滿恐懼。AI技術的魔獸一旦被放出籠子,對媒體的威脅已難以遏制,大量媒體的新聞專業精神已被無情地劫持。
【關鍵詞】深度偽造;換臉技術;媒體的迷途;人類的公害
美國大量媒體以炮制假消息而聞名于世,AI技術又給其瘋狂造假帶來法力。2020年4月26日晚,特朗普在Twitter上轉發了拜登“伸出舌頭,支支吾吾地胡言亂語”一通的視頻,諷刺競選對手的愚笨無能。依照推特的規定,他不得不在視頻旁貼上“深度偽造”(deepfake)的標簽。[1]深度偽造技術從業余愛好的實驗,演變為媒體造假的手段,已成為美國媒體危險的工具。美眾議院情報委員會主席亞當·希夫(Adam? Schiff)警告說,深度造假“讓惡意行動者煽動混亂、分裂或危機,有能力擾亂整個競選活動,包括總統競選”[2]。“深度偽造”引起民眾和政界的擔憂,對以假亂真的消息和緋聞深感震驚。據英國《連線》(Wired)雜志報道,自2020年7月以來,至少有10萬多名女性被深度偽造創建了裸照,嚴重侵害了他人的隱私和名譽。
一、深度偽造技術的出爐
“深度偽造”是2014年由在蘋果公司工作的伊恩·古德費羅(Ian? Goodfello)為核心的小組發明的。[3]他利用多種樣本和數據,采用相互檢驗和匡糾模型,把不同人的身體與面孔嫁接,轉而生成一個新的“真實”而活生生的視頻。這種技術是信息組構和驗證其真假度的兩種數據程序的產物,難以發現其造假的痕跡。據英國《衛報》報道,Deepfake一詞起源于2017年12月,一位自稱“deepfakes”的用戶制作了名為《神奇女俠》的假視頻,將著名演員的臉貼在他人裸體上,以展示淫穢表演賺取流量。社交網站傳播這類視頻或圖片,使換臉技術越來越逼真、生動和無所不能,報刊刊載這類圖片并附加文字說明,種種變態被渲染得越發透徹。[4]基于AI技術的深度偽造,把若干真實的視頻與音頻疊加與整合,制作出逼真的虛擬作品,精妙的換臉技術成為超凡入勝的絕技。
深度偽造還可將人臉從一種性別變形到另一種性別,建模于深度模仿(Deep? learning,又譯為深度學習)的數據程序,改變人物面部的眼神和笑容。整個過程通過生成器(generator)和鑒別器(discriminator)的對證,在兩個數據網絡的對質中生成新信息(Generative? Adversarial? Network)。鑒別器不斷驗證生成器新信息的罅漏,逐漸使新信息達到完全真實,當鑒別器不能識別虛擬信息與真實示例的區別時,一件嚴絲合縫的偽造品就出爐了。生成器作為發出受控指令的神經網絡(又稱為前饋),經過鑒別器的多次反饋逐步改善其象形數據的輸出,新的合成信息就越加逼真。在廣泛采樣基礎上的這種模擬過程,使偽造的視頻在真假信息節點的對抗中走向匹配,所以國內通常把 Generative Adversarial Network(GAN)譯為生成對抗網絡。
伊恩·古德費羅和他的同事在2014年的論文中,最早介紹了生成對抗網絡的原理。他使用十幾個數學公式計算生成器信息函數輸出的差異,使其達到最小化,而鑒別器測試數據的差異又力求最大化,讓生成的偽造信息完全符合實例的原貌。[5]生成對抗網絡構成自動編碼器,不斷調整與場景、年齡和性別相關的參數,讓人物特別是政治人物說出他們在現實中沒有說的話,展示他們不曾有過的動作。
音頻風格在生成對抗網絡中隨同視頻轉換為頻譜圖,以相應的時長和頻率表現聲音的強度。當音頻信號嵌入固定的視頻中,并同人物的口型相吻合,一則偽造人物說話的視頻便活起來。生成器結構作為卷積神經網絡①,把一個說話者的聲音變成另一個說話者的聲音,或把一段樂曲從古典音樂轉換成爵士樂,甚至能偽造大眾歡呼的場面,使逼真的景象歷歷在目。2020年2月,《時代》雜志網站使用深度偽造技術,重現了馬丁·路德·金在1963年6月28日發表《我有一個夢想》的演講場景,許多用戶再次目睹了這個偉大歷史的一幕。
深度偽造最初流行于娛樂、電影和廣告制作,隨著技術進步達到難以察覺其虛假的程度,越來越被用于新聞報道,干預現實的政治生活。一些網站和電視臺不斷聲明使用深度偽造技術,并不是要造謠生事、蠱惑受眾,而是要塑造和改善娛樂與政治的公共形象,正如有的媒體人所說:“我們從未打算讓我們的軟件幫助用戶傳播錯誤信息,我們只是想提高一下自己的能力?!薄拔覀儧Q定了一些基本規則:將在程序中專注于制作特定的基模,而不是在背景之外深度造假。只要是娛樂活動,而且是在米姆文化②范圍內,我們的內容不會越過禁區?!盵6]最近兩年,這項技術已經被不道德地使用,在英美引起廣泛爭議?!皬?016年起,生成對抗網絡開始出現在新聞文本中,并進入公眾意識,引起人們對‘越來越真實的假新聞和媒體操縱問題產生擔憂?!盵7]魔獸一旦被放出籠子,對媒體的威脅已無法遏制,新聞專業精神也被無情地劫持。
二、美國媒體深度偽造的泛濫
deepfakes最早是為傳播色情而開發的,多用于騷擾女性,將她們的臉轉換成色情視頻。在第一個深度造假程序發布不久,美國紅迪網(Reddit)就充斥了以名人和政客為主角的假視頻。蓋蒂圖片社最新分析顯示,每個月都有數以千計的女明星、女演員和女音樂家為主角的“露點”假視頻被上傳到全球最大的色情網站上,每條未經當事人同意的視頻獲得幾百萬流量,色情網站從未將其刪除。
在世界最大的三家色情網站XVideos、Xnxx和xHamster上,深度造假視頻一個月內就被觀看數百萬甚至上千萬次,其訪問量在整個互聯網界排名前十。這些被廣告包圍著的色情視頻,幫助美國這些網站賺錢,遠遠超過亞馬遜和紅迪網。全球首家視覺威脅檢測公司(Sensity)首席執行官兼首席科學家喬治·帕特里尼(Giorgio Patrini)說,該公司最近更名為“深度追蹤”(DeepTrace)公司,“除非有一個強有力的理由讓色情網站關閉并過濾它們,否則我堅信什么都不會發生”?!叭藗內匀豢梢宰杂缮蟼鬟@類材料,不會給數億人瀏覽的網站造成任何后果?!奔热蝗绱?,大量色情網站已經肆無忌憚地使用明星的臉造假,使網上色情波濤洶涌地蔓延開來。好萊塢女演員克里斯汀·貝爾(Kristen Bell)說,當她第一次發現“偽造”用的是她自己的臉,感到十分驚訝。“即使貼上‘哦,這不是她的標簽,也很難想象我被人無償地剝削了”。[8]
美國網絡上的“偽造品”呈指數級增長,2019年7月有14678個假視頻,其中96%是色情內容,到2000年6月已攀升至49081件。多數假色情是在特定社區中發現的,并由這些社區創建,僅四大假色情網站的瀏覽量就超過1.34億。[9]Pornhub網站發布的數據顯示,它在2018年的總訪問量達到335億,平均每天訪客有9200萬。幾年中他們總共上傳了479萬個假視頻,消耗了4403PB流量??▋然鶉H和平基金會網絡政策倡議研究員喬恩·貝特曼(Jon Bateman)表示:“深度偽造作品的獨特之處在于,視聽元素對我們心理的影響比其他類型的媒體更大。即使在被揭穿后,社交媒體上這些‘廉價偽造品(Cheapfakes)或‘低俗偽造品(shallowfakes)也能改變公眾的看法?!比斯ぶ悄苁姑襟w得心應手地操縱假新聞,讓任何人都能接觸到它,對公眾輿論的影響很容易達到使用者的目的。
當深度偽造用于政治人物,作為美國兩黨互毆的手段,卻成為公眾嘲笑政客品德卑劣的游戲。當年特朗普戰勝希拉里成為總統進入白宮,2017年網上流傳一段二人對跳迪斯科舞的視頻,“朗君與希妹”笑容可掬或似笑非笑地互拋飛眼,扭動腰肢,你來我往,看后讓人樂不可支。2019年5月24日下午5:36,特朗普在推特上發布了眾議院議長佩洛西一段經過編輯的視頻,同時發表了“佩洛西在新聞發布會上口吃結巴”的推文。視頻當晚在??怂怪鞒秩硕嗖妓沟墓澞可喜シ?,佩洛西在說出“監護”和“邊界”等詞時哆哆嗦嗦,話語含糊其辭,似乎喝醉了。這段偽造視頻在網上瘋傳很長時間。[10]美國麻省理工學院亞歷山大·阿米尼博士在2020年深度模仿入門課程的開幕式上,播放了他制作的一段視頻:他邀請了前總統奧巴馬參加培訓班。奧巴馬在視頻中說:“深度模仿正在改變很多領域,從機器人到醫學,以及介于兩者之間的一切。我通過視頻會議參加了這個課程的學習?!弊詈髪W巴馬說:“事實上我沒有參加這次培訓,我被偽造了,這段視頻是用深度模仿和人工智能創建的?!碑攬龅挠^眾才恍然大悟,要不是“奧巴馬”自我揭穿偽造,人們還以為他真的參加了這次培訓。
美國共和黨和民主黨互撕其恥、互泄仇恨,常用深度偽造相互挖坑,對大眾了解政治真相構成翳障。在2020年末總統大選中,為了阻止計票,特朗普和他的盟友在推特上發布了一段陰謀論的視頻:有人焚燒投給特朗普的選票。這段誤導視頻被推特刪除后,特朗普的盟友又拋出另一段假視頻,好像拜登承認選民造假,共和黨國會議員格林上傳“拜登正在努力防止選民欺詐”的情節,渲染選舉舞弊是如何在幕后策劃的。經??怂剐侣勚鞑グ@锟瞬コ龊螅职l布在YouTube特朗普的主頁上,讓更多的人對總統選舉的合法性產生懷疑。
三、傳授深度偽造技術的美國網站
問題的嚴重性還在于,美國有多個網站公開向大眾傳授視頻偽造技術,只要掌握了這套程序,任何人在電腦上都可制作不同程度的“深度偽造”品。格蕾絲·溫德海姆(Grace Windheim)大學畢業后在舊金山創業公司Kapwing擔任內容創作員,負責管理YouTube頻道。2020年8月初,她在谷歌Trends網站上發現了一個“Baka Mitai”的假唱視頻,事后在YouTube上找到了這個造假程序,不到一天,她就將這首歌與視頻同步編制了一個新版本教程。她發布視頻說:“制作這些深度造假作品并疊加音頻不像你想得那么復雜,深度造假用于娛樂和惡搞之間有一條微妙的界限。在本教程中,我想說的是,‘你如何制作這款特殊的深度假唱,但可怕的是,這種腳本可以用來制作任何你想要的深度偽造?!盵11]溫德海姆這個deepfake程序,在2020年末已經獲得超過1.2億的點擊量。
深度偽造正在美國興起,在其他國家的媒體上也在陸續出現,一些網站紛紛向用戶傳授深度偽造技術,用戶對制作假視頻感到非?!罢鎸崱焙汀昂猛妗薄_@類偽造品并非都用于丑化、歪曲或攻擊某人,很多人用其復活歷史、動態美術、自我欣賞或醫學研究。只要有圖片或視頻資料,人們就可再現栩栩如生的場景,讓文物活起來,甚至使“蒙娜麗莎”說話或發出笑聲。許多用戶對機器模仿、圖像識別和計算機視覺發生濃厚興趣,紛紛尋找專業網站學習深度造假技術,一時機器偽造軟件在美國“洛陽紙貴”。
據美國學者比保姆·斯塔夫(Beebom Staff)介紹,美國有八個網站傳授偽造技術名聲在外,掌握了它們的制假程序,輕而易舉就會使用換臉技術,這八個網站深受用戶歡迎。[12]它們分別是:(1)Deepfakes web β(深假網β)。瀏覽和掌握該網站的造假技術,每小時付費兩美元。(2)AvengeThem(復仇者聯盟網),創建靜態3D人臉模型,訪問和學習該網站的技巧無須付費。(3)Reface(修臉網),展示一個名為Doublicat的深度偽造程序,指導人們制作有趣的表情包,幾秒鐘就可把一張臉疊加到“動圖”上。用戶可以免費使用這套程序,但程序內難度大的技術需要用戶付費購買。(4)MachineTube(機器筒網),開發了一款Fake App桌面應用程序,只要用戶有一個帶有高端GPU的電腦就能做出深度偽造視頻。在該網站學習Fake App不收費。(5)DeepFaceLab(深臉實驗室網),推出一個Windows程序,指導用戶創建深度假視頻,無須付費。(6)Deep Art(深厚藝術網)在2020年11月開發了一款走紅的應用軟件,根據古代建筑、繪畫和歷史遺跡,將任何圖片變成活的藝術品,諸如梵高、達·芬奇、米開朗基羅、畢加索等畫家的作品都可制成“動態”畫面。選擇這家網站學習,免費安裝Android/iOS(移動操作系統),但程序內的高超技術仍需付費。(7)Face Swap(換臉網)不僅是一款深度造假的應用程序,還能產生3D效果。安裝Android免費,安裝iOS需付0.99美元。(8)微軟Face Swap網,是微軟公司開發的一款應用程序,使用圖像識別技術交換人臉,強大的引擎可讓用戶瞬間換臉,不留任何瑕疵。如果用戶對結果不滿意,可以調整膚色、亮度和轉頭等動作,還可改變用戶的發型、服裝和動畫場景。
用戶用這款技術自我拍照,興致勃勃地上傳網絡留影紀念,個個樂不思蜀。美國人普遍認為,媒體沒有理由過濾、刪除這類假視頻,正如xHamster網站副總裁亞歷克斯·霍金斯(Alex Hawkins)所說,“本公司對深度偽造沒有具體政策,像對待其他非雙方同意的內容一樣對待它們”。“我們完全理解人們對深度偽造的憂慮,有人如果提出刪除的要求,經過審查被認定假視頻確實沒有經過本人同意,我們就把它移除?!盵13]深度偽造檢測公司Sensity提供的數據顯示,2020年前8個月每月有多達1000個深度偽造視頻上傳到色情網站,并向主流媒體擴散。大量媒體對深度偽造愛不釋手,已經身陷招搖撞騙的迷途,不再是人類生存環境的守望者。
四、深度偽造的危害與社會風險
偽造技術引發美國人更大的擔憂是,它被用來操縱政治,威脅社會與人類安全?!渡疃葌卧炫c信息啟示錄》的作者尼娜·??耍∟ina Schick)認為,美國的信息生態系統正陷入腐敗,敵對玩家利用深度偽造這種腐敗方式給媒體造成嚴重威脅。她在2020年寫道:“視頻長期以來被認為是最無可指責的證據,但是現在完全利用人工智能來造假,偽造品很快就能唾手可得。好萊塢女明星已經成為深度造假色情作品的對象,她們的身份被竊取,并被用于有辱人格的目的。在未來,我們無法辨別什么是真實的,什么不是?,F任美國總統是一個喜歡使用‘假新聞的法西斯分子,很快我們可能會發現自己被一個能夠成功部署假新聞的法西斯分子所統治。”[14]
深度偽造引發的假新聞激起人們嚴重的關切,尤其在2020年美國總統選舉中許多新聞讓人不敢相信。正如美國作家H.蘿莉所說,我們進入深度造假時代,深度造假是一種合成媒介。它可以是圖像,也可以是視頻或文本,都是人工智能生成的。“我們現在生活在一個相當瘋狂的時代,人類正面臨著巨大的挑戰。如果你試圖通過研究雙方的信息和論點建立一個有見地的觀點,你會有一個令人沮喪的發現,雙方對事實和現實的解釋似乎完全不同。雙方都認為自己看到的東西是正確的,他們不是產生幻覺或瘋狂,就是一種純粹的邪惡。”[15]新聞人對假新聞防不勝防,無法識別、無法審核,真偽難辨,媒體的權威性可能一落千丈。南卡羅萊納大學新聞與大眾傳播學院院長安德里亞·??松ˋndrea Hickerson)說:“在最基本的層面,深度偽造是偽裝真相的謊言,如果我們把它們當作真理或證據,我們很容易得出錯誤的結論,從而可能帶來災難性的后果。”“最明顯的例子是,像特朗普那樣的政客最廣泛地使用這項技術進行自我宣傳,讓廣大用戶分享他們精心制作的謠言。盡管它是膚淺的贗品并很快會被揭穿,但人們仍然相信它?!比斯ぶ悄芄綡ypergiant Industries的首席執行官本·拉姆表示:“問題不一定在于GAN技術。問題是,壞人目前擁有巨大的優勢,而且媒體沒有適當的解決方案來應對日益增長的威脅。deepfakes變得如此嚴重,即使提出了解決這一問題的辦法也為時已晚。”[16]
如果任何東西都可以被偽造,包括現實客觀存在的證據,那么一切都可以被否認,人們的道德將淪喪得無法挽救。這是因為“深度造假似乎會帶來三種主要的危險。第一種是,虛假的媒體貶低人們的智商,讓受眾產生錯誤行為,給人們造成直接損害。第二種可以說是更嚴重的一種,當我們都覺得自己無法再相信任何事情時,我們可能變得冷漠,拒絕承擔任何社會和公民義務,或者基于完全的謊言做出糟糕的選擇。第三,當任何事情都可以被令人信服地偽造時,撒謊者很容易找到欺騙的機會和逃脫的理由。”[17]
許多人敲響另一個警鐘:深度造假正在滲入金融領域,支付業務出現難以識破的騙局。美國聯邦貿易委員會報告稱,音頻深度造假很容易實施財務欺詐。2019年早些時候,一家公司的CEO被AI產生的聲音欺騙,將24.3萬美元轉入他認為是公司供應商的銀行賬戶上,事后才知道他被騙了。同年一家英國能源公司向詐騙分子轉移了20萬英鎊,犯罪分子利用深度造假技術在電話中冒充德國母公司的首席執行官。求知網站公司(KnowBe4)非洲內容戰略高級副總裁安娜·科拉德補充說,犯罪分子以深度偽造很容易竊取他人賬戶,這類軟件預計在2021年會繼續增長,操縱人們支付的手段將更加狡猾?!笆謾C銀行木馬和惡意應用程序普遍增多,加上手機用戶缺乏防范意識,金融犯罪將容易得手?!盵18]
2019年一款名為“ZAO”的換臉App(應用程序)在我國網絡火爆,不少網友在朋友圈、微博上分享自己換臉后的短視頻。9月3日,工信部約談“ZAO”App相關負責人,要求其開展自查整改。[19]“換臉”技術嚴重威脅用戶的信用安全,收集、加工、存儲和擴散人臉信息給人的生存帶來巨大風險。在“刷臉”廣泛用于生活的多種場景的今天,換臉技術已成為人類公害,用戶的面部信息一旦被盜用,人們在“丟臉”之后,隨之可能存款被盜、被誣陷,喪失了清白和信譽。
美國和平人士中還充斥另一種恐懼,即深度偽造一旦被好戰分子利用,很可能引發世界大戰或核戰爭。他們想象,用戶使用多國軍隊演習的視頻制作若干國家對另幾個國家發動軍事進攻,攜帶核彈頭的導彈紛紛發射,飛向敵對大國。社交媒體一旦傳播這樣的假視頻,可能引起遭受進攻的國家發起反擊,一場烈焰沖天的人類浩劫就將降臨。2018年初,美國夏威夷緊急事務管理局的一名員工因失誤向公眾發出關于核彈來襲的公告,短時間內引發巨大騷亂。[20]如果不法分子利用深度偽造發布類似虛假信息,社交媒體就成為戰爭的導火索,給一個國家以至全人類造成慘重的災難。在一國之內,極端分子利用媒體發布偽造信息,進行暴力和恐怖煽動,一些民眾很容易被裹挾進去,給社會帶來嚴重的惡果。網絡平臺傳播此類信息引發暴亂,必然要承擔罪責,深度偽造對媒體的嚴重危害,讓媒體時時都命懸一線。
深度偽造正在迅速向歐洲、印度、南美和日本擴散,不僅演藝明星、政界、企業家被污名化或遭受欺詐,普通民眾也可能遭到誣陷,甚至被拖進“犯罪”的泥淖。巴西某些媒體不僅用深度偽造傳播色情視頻,而且編造政治家的虛假活動,引起許多人的恐慌。2019年7月25日,證人(WITNESS)媒體工作室在巴西圣保羅舉辦了一場名為“預防深度造假和合成媒體”的會議,討論如何應對智能造假對國家的潛在威脅。日本櫻美林大學平和博教授說:“AI換臉技術目前以超高性能的速度發展,以前需要100張照片才能做到以假亂真的換臉,現在只需要一張即可,因為這一技術被泛濫使用,換臉侵權的犯罪案件已經不僅僅局限于名人,連一般人也成為犯罪分子的目標?!盵21]
五、防范深度偽造的荊棘之路
許多美國人抵制深度偽造的呼聲正在高漲,從公眾、科技公司到政府機構都提出媒體要把傳播偽造品列為職業禁忌。研究者一致認為,預防深度偽造首先需要受眾的獨立思考,不斷提高媒介素養,對社會現象要有敏銳的辨別力。希克森(Andrea Hickerson)說:“保護自己不被深度偽造欺騙的最好方法是永遠不要只看表面現象,不能假設眼見為實。一般來說,人們在社交媒體上分享的東西都很草率,一旦看到它,應該想想它是從哪里來的,誰或什么是原始來源?”[22]
科技被用于做壞事,最好由科技的正面用途來消除,美國有些科技研究機構和公司正在開發深度偽造的檢測技術。美國卡內基梅隆大學、華盛頓大學、斯坦福大學和馬克斯·普朗克信息研究所(Max Planck Institute for Informatics)等機構的研究人員,都在設計如何識別偽造的軟件,試圖用科技消除科技的負面作用。Facebook公司已經撥款1000萬美元用于檢測AI造假研究,借助區塊鏈技術追溯視頻來源,在這類視頻上傳時進行篩選和攔截。[23]華盛頓大學和艾倫人工智能研究所的研究人員在2019年推出一款名為Grover的可控文本生成模型和一個偽文本的檢測系統,用以揭露機器生成的“神經假新聞”(neural fake news),但其識別真假的能力極其有限,幾乎沒有媒體采用。
有人指出,隨著技術的不斷發展會產生更狡猾的虛假視頻,檢測深度偽造技術也許變得無效,打擊深度偽造已經變成一場貓捉老鼠的追逐。“不管我們做什么,制造并操縱假視頻的人總會想出辦法?!盵24]由于人工智能的對抗性質和誘導方式,當出現一個足夠好的檢測器時,生成模型也會隨之變得更機智,力求有效地繞開它。在這個沒完沒了的貓捉老鼠的游戲中,只能不斷爭取開發更好的檢測器,粉碎深度偽造對人類的威脅。
美國政界人士期待法律發揮作用,采取果斷措施出臺法律條文消除人類這一公害,但至今收效甚微。2019年6月12日,美國國會提出《深度偽造責任法案》(Deep fAkes Accountability Act),立法的目的是“我們需要做好準備,防范外國競爭對手利用深度偽造技術散布虛假信息,干涉選舉活動”。6月28日,美國國會又通過了《2019年深度偽造報告法案》(Deepfake Report Act of 2019),要求美國國土安全部(DHS)定期發布關于深度造假技術的評估報告,回應公眾對虛假信息負面影響的關切。2019年7月1日生效的美國弗吉尼亞州的反色情復仇修正法案,將“制作、傳播虛假的裸體或性視頻或圖像”以脅迫、騷擾或恐嚇他人的行為認定為刑事犯罪。加利福尼亞州、得克薩斯州和馬薩諸塞州等也在研究出臺相關法案來規制深度偽造。[25]但美國政界至今沒有提出嚴厲懲治使用深度偽造技術的措施。
美國網絡技術專家愛德華·西格爾(Edward Segal)綜合政界、商業人士和數字技術專家的建議,提出防范深度偽造的七種途徑:(1)媒體要聽取社會意見,政府要對媒體傳播虛假信息提出警告。(2)媒體對傳播內容要事先進行自我評估。評估的重點是,哪些內容易被誤解或掩蓋,什么樣的信息在公眾中能產生強烈的共鳴,媒體防止潛在的欺詐存在什么弱點。(3)加強同社會各領域的溝通,直接與客戶、其他媒體和公眾對話,主動發現網絡安全漏洞。(4)在信息生態系統中預先確立話語權和品牌,主動接洽第三方驗證者,接受驗證機構的批評與監管。(5)媒體公司的員工需要經常培訓,提高鑒別偽造信息的能力。(6)對上傳損害媒體聲譽的視頻要訴諸法律,通過法律解決問題。(7)用戶上傳信息違反平臺的服務條款,要立即刪除。[26]
令人沮喪的是,美國大部分媒體對拒絕深度偽造猶豫不決,總是想方設法留有余地。例如,2020年2月,推特盡管宣布禁止用戶上傳“可能影響公共安全或造成嚴重傷害后果”的合成視頻,但只要標出“偽造品”字樣,平臺是否刪除要視其后果。曾多次傳播虛假信息和仇恨言論的Facebook,拒絕從其Instagram平臺上刪除首席執行官馬克·扎克伯格的深度偽造視頻。這是一段《華盛頓郵報》用演員的聲音篡改的真實畫面,臉書告訴CNN商業頻道,根據新的深度造假政策,該視頻不會被刪除。Facebook還曾拒絕刪除美國眾議院議長南?!づ迓逦鳎∟ancyPelosi)的虛假視頻。在社會輿論的壓力下,在2020年7月,臉書不得不向社會宣布,“刪除任何違反其關于裸體、圖像暴力、壓制選民或仇恨言論規定的視頻”[27]。不久,《華盛頓郵報》設立了“媒體求證委員會”(Media Forensics Committee),負責甄別深度偽造品,在評估其危害程度后才決定是否將其清除出網站和版面。
顯然,深度偽造在美國媒體上興風作浪,AI技術既無責也無罪,罪責在于使用AI技術的人及制度。美國的兩極分化充斥著社會仇恨,兩黨你死我活的相互誣陷和攻擊,以及媒體不擇手段地追求流量和利潤,是深度偽造在美國泛濫的根源。正如《人民日報》的評論文章《AI換臉,別只顧著好玩》指出的:“技術是中立的,但使用技術的人是有立場的?!盵28]
注 釋:
①參見百度百科“卷積神經網絡”詞條,https://baike.baidu.com/item/卷積神經網絡/17541100 ?fn=aladdin.
②參見百度百科“米姆文化”詞條。
參考文獻:
[1]David Covucci,Has this clip of Biden with his tongue out destroyed the fabric of democracy? The Daily Dot,Apr 27,2020.
[2]A.B. Gray,How Deepfakes Could Literally Change the Face of Movies.Fandom,Jun 24,2019.
[3]Kristina Libby, Deepfakes Are Amazing. Theyre Also Terrifying for Our Future. Popular Mechanics,Aug 13,2020.
[4]Alex Hern, Counter hate ...The Guardian (London), 25 Jan.2018.
[5]Ian Goodfellow,Generative adversarial networks,NIPS workshop,2014.
[6]Karen Hao,Memers are making deepfakes, and things are getting weird,MIT Technology Review,Aug 28,2020.
[7]Thomas Wood,Generative Adversarial Network.https://deepai.org/.
[8]Matt Burgess,Porn Sites Still Wont Take Down Nonconsensual deepfakes,WIRED,Aug 30.2020.
[9]Matt Burgess,Porn Sites Still Wont Take Down Nonconsensual deepfakes,WIRED,Aug 30.2020.
[10]Carly Minsky,‘Deepfakevideos:to believe or not believe? The financial times,Jan 26,2021.
[11]Karen Hao,Memers are making deepfakes, and things are getting weird,MIT Technology Review,Aug 28,2020.
[12]Beebom Staff,8Best Deepfake Apps and Websites You Can Try for Fun,Beebom Media,Dec 29,2020.
[13]Matt,Burgess,Porn Sites Still Wont Take Down Nonconsensual Deepfakes,WIRED,Aug 31,2020.
[14]Mike Stafford,‘Deep Fakes and the Infocalypseby Nina Schick,faithfulpundit.co.uk,Oct 14,2020.
[15]Hi Lori,Is seeing believing?Deepfakes and the information apocalypse,Oct 25,2020.https://www.betteratenglish.com/
[16]Sam Bocetta,Deepfakes are a problem,whats the solution?AT&T Business,Aug 5,2019.
[17]Hi Lori,Is seeing believing? Deepfakes and the information apocalypse,Oct 25,2020.https://www.betteratenglish.com/
[18]Schalk Burger,KnowBe4 warns of AI,deepfakes in social engineering attacks this year.Jan 27,2021.
[19]工信部就“ZAO”App網絡數據安全問題開展問詢約談[N].人民日報,2019-09-04.
[20]曹建峰.深度偽造技術的法律挑戰及應對[J].信息安全與通信保密,2019(10):35-40.
[21]在日本的AI換臉,滋生各種問題[EB/OL].https://www.sohu.com/a/376201060_100207483.
[22]Kristina Libby,Deepfakes Are Amazing. Theyre Also Terrifying for Our Future. Popular Mechanics,Aug 13,2020.
[23]苗爭鳴.可怕的“深度偽造”技術[J].世界知識,2019(22):70-71.
[24]Madison Latiolas,Deepfakes,LSU Faculty Websites,Jan 2021.
[25]BBC:Virginia bans‘deepfakesand‘deepnudespornography (2019-07-02).https://www.bbc.com/news/technology-48839758
[26]Edward Segal,Deepfakes:7Ways To Guard Against This New Form Of Disinformation,Forbes.com,Jan 11,2021.
[27]Hadas Gold,Facebook tries to curb deepfake videos as 2020 election heats up ,CNN Business(2020-01-07).
[28]葉子.AI換臉,別只顧著好玩[N].人民日報(海外版),2019-09-08.
(作者為清華大學新聞與傳播學院教授)
編校:董方曉