人工智能大語言模型是目前科技領域最閃亮、最令人興奮的東西,但它們正在引出一個新問題:它們非常容易被濫用,成為強大的網絡“釣魚”或詐騙工具,而且騙子不需要具備任何編程技能。更糟糕的是,目前還沒有已知的解決辦法。
科技公司正競相將這些語言模型嵌入到大量的產品中,以幫助人們預訂旅行行程、整理日歷、做會議筆記等。
但這些產品的工作方式是接受用戶的指令,然后在互聯網上搜索答案,這帶來了大量新的風險。有了人工智能,它們可以被用于各種惡意任務, 包括泄露人們的私人信息,幫助騙子“釣魚”、撰寫垃圾郵件和進行詐騙。專家警告說,我們正走向一場個人安全和隱私方面的“災難”。
以下是人工智能語言模型最容易被濫用的三種方式。
人工智能大語言模型驅動著ChatGPT、Bard和Bing等聊天機器人,它們產生的文本讀起來就像是人類寫出來的東西。它們遵循用戶的指示或“提示”,然后根據它們的訓練數據,通過預測最有可能跟隨前面每個單詞的單詞來生成句子。
但是,很好地遵循指令,既可以讓這些模型變得非常強大,也會讓它們很容易被濫用。這可以通過“提示注入”來實現,這指的是有人使用刻意編輯過的提示,引導語言模型忽略其開發者設置的“安全護欄”。
在過去的一年里, 一群試圖“ 越獄”ChatGPT的作業出現在像Reddit這樣的網站上。人們已經成功誘導人工智能模型來支持種族主義或陰謀論,或者建議用戶做非法的事情,比如入店行竊和制造爆炸物。……