一種新工具可以讓藝術家在他們的作品中添加不可見的像素變化,如果作品上傳到網上,并被抓取到人工智能模型的訓練集中,它可能會導致最終模型以混亂和不可預測的方式崩潰。
這款名為Nightshade的工具旨在反擊人工智能公司,這些公司在未經創作者許可的情況下使用他們的作品來訓練模型。
使用它來“毒害”這些訓練數據,可能會破壞圖像生成人工智能模型未來的迭代,包括DALL-E、Midjourney和Stable Diffusion等知名工具,其破壞方式是將模型的輸出變得無用,例如將狗變成貓,汽車變成牛等等。《麻省理工科技評論》獲得了該研究的獨家預覽論文,該研究已提交給計算機安全會議Usenix進行同行評審。
OpenAI、Meta、谷歌、Stability AI等人工智能公司正面臨著藝術家的大量訴訟,他們聲稱自己的版權作品和個人信息在未經同意或補償的情況下被抓取。
趙本的團隊還開發了一款名為Glaze的工具,該工具允許藝術家“掩蓋”自己的個人風格,以防止被人工智能公司抓取。
它的工作方式與Nightshade類似:通過以人眼看不見的微妙方式改變圖片的像素,再操縱機器學習模型將圖像里的東西解釋為錯誤的東西。
該團隊打算將Nightshade整合到Glaze中,讓藝術家可以選擇是否使用“數據中毒”工具。該團隊還將開源Nightshade,這將允許其他人完善它并制作他們自己的版本。
趙本說,使用它并制作定制版本的人越多,這個工具就會變得越強大。大型人工智能模型的數據集可能包含數十億張圖像,因此被收入模型的有毒圖像越多,該技術造成的損害就越大。
Nightshade利用了生成式人工智能模型中的一個安全漏洞,這個漏洞源于它們是在大量數據上進行訓練的(在這種情況下,是從互聯網上抓取的圖像),而Nightshade可以攪亂這些圖像。
想要在網上上傳作品,但又不希望自己的圖像被人工智能公司隨便收集的藝術家可以將作品上傳到Glaze,并選擇用與自己不同的藝術風格進行掩蓋。
他們也可以選擇使用Nightshade。一旦人工智能開發人員從互聯網上獲取更多數據來調整現有的人工智能模型或構建新的模型,這些有毒的樣本就會進入模型的數據集,并導致模型出錯。
隨著社會經濟的發展與農業生產規模的擴大,我國馬鈴薯種植活動不斷增多,為了滿足市場需求,在種植馬鈴薯過程中,提高馬鈴薯質量尤為重要。基于此,本文以馬鈴薯種植作為研究對象,分析種植密度與馬鈴薯農藝性狀的關系、種植密度與馬鈴薯產量的關系,分別從不同土地、品種、密度控制和不同耕作方式等方面詳細闡述馬鈴薯種植密度與產量的有效控制技術,從而提升馬鈴薯種植質量,提高馬鈴薯產量。
有毒的數據樣本可以操縱模型的學習結果,例如,將帽子的圖像識別為蛋糕,將手袋的圖像視為烤面包機。被污染的數據很難刪除,因為這需要科技公司大費周章地找到并刪除每個有毒的樣本。


研究人員在Stable Diffusion的最新模型和他們從頭開始訓練的人工智能模型上測試了這種攻擊。當他們給Stable Diffusion軟件訓練了僅僅50張有毒的狗的照片,然后讓它自己畫狗的照片時,輸出的照片開始看起來很奇怪,變成了有太多肢體和卡通面孔的動物。
使用300個中毒樣本數據訓練后,攻擊者就可以操縱Stable Diffusion,使狗的圖像看起來像貓。
生成式人工智能模型非常擅長在單詞之間建立聯系,這有助于“毒素”的傳播。Nightshade不僅感染了“狗”這個詞,還感染了所有類似的概念,如“小狗”“哈士奇”和“狼”。
這種攻擊也可以作用于概念相關的圖像。例如,如果模型為提示“幻想藝術”抓取了一張有毒的圖片,那么提示“龍”和“指環王中的城堡”也會被類似地操縱成其他東西。
趙本承認,人們可能會惡意使用這種數據中毒技術。然而,他表示,攻擊者需要數千個有毒樣本才能對更大、更強的模型造成真正的損害,因為它們是在數十億個數據樣本上訓練的。

我們還不知道針對這些攻擊的強大防御措施。美國康奈爾大學研究人工智能模型安全的教授維塔利·什馬蒂科夫表示:“我們還沒有在現實世界中看到針對現代(機器學習)模型的中毒攻擊,但這可能只是時間問題。”什馬蒂科夫補充道:“現在是時候加強防御了。”
加拿大滑鐵盧大學研究數據隱私和人工智能模型魯棒性的助理教授高塔姆·卡馬斯認為,這項工作“非常棒”。他沒有參與這項研究。
卡馬斯說,研究表明,這些新模型的漏洞“不會神奇地消失,實際上它們只會變得更加嚴重。隨著這些模型變得越來越強大,人們對它們的信任也越來越高,這一點將變得更嚴重,因為風險只會隨著時間的推移而增加。”
美國哥倫比亞大學計算機科學教授楊俊鋒主要研究深度學習系統的安全性,但他沒有參與這項工作。他表示,如果Nightshade能讓人工智能公司更加尊重藝術家的權利,比如更愿意支付版稅,那么它可能會產生重大影響。
開發了生成式文本到圖像模型的人工智能公司,如Stability AI和OpenAI,已經提出讓藝術家選擇不提供他們的圖片來訓練未來版本的模型。
但藝術家們表示,這還不夠。插畫家兼藝術家伊娃·圖倫特使用過Glaze,她說選擇退出政策要求藝術家跳過各種障礙,同時仍然把所有的權力留給科技公司。
圖倫特希望Nightshade能改變現狀。
她說:“這會讓人工智能公司三思而后行,因為它們有可能在未經我們同意的情況下拿走我們的作品,但這會毀掉它們的整個模型。”
另一位藝術家奧特姆·貝芙利說,像Nightshade和Glaze這樣的工具給了她再次在網上發布作品的信心。在發現自己的作品在未經同意的情況下被抓取到流行的LAION圖像數據庫后,她選擇了將自己的作品從網上刪掉。
她說:“我真的很感激有這樣一個工具,可以幫助藝術家們把處置自己作品的權力交還給他們自己。”