自生成式人工智能熱潮掀起以來,科技公司一直在努力地為這項技術開發殺手級應用程序。最開始是在線搜索,目前的情況是喜憂參半。現在輪到了人工智能助手。
OpenAI、Meta和谷歌為他們的人工智能聊天機器人推出了新功能,允許它們聯網并扮演某種私人助理。

據威爾·道格拉斯·海文報道,OpenAI為ChatGPT加入了新功能,其中包括與聊天機器人進行對話的能力,就像在打電話一樣,它可以用逼真的合成聲音即時回答你口頭提題。OpenAI還透露,ChatGPT將能夠搜索網絡內容。
作為競爭對手,谷歌Bard聊天機器人已接入該公司的大部分生態系統,包括Gmail、Docs、YouTube和地圖。其目標是,人們將能夠使用聊天機器人詢查詢自己的信息,例如,讓它搜索電子郵件或整理日常安排。
Bard還將能夠立即從谷歌搜索中檢索信息。類似地,Meta也宣布,它也將部署人工智能聊天機器人。用戶將能夠在WhatsApp、Messenger和Instagram上向人工智能聊天機器人和名人的人工智能虛擬化身提問,人工智能模型可以從必應搜索中在線檢索信息。
考慮到技術的局限性,這是一個冒險的行為。科技公司還沒有解決人工智能語言模型的一些存在已久的問題,比如他們有編造東西或“產生幻覺”的傾向。
科技公司正在將這項存在嚴重缺陷的技術交到數百萬人的手里,并允許人工智能模型訪問他們的電子郵件、日歷和私人信息等敏感信息。在這個過程中,他們使我們都更容易遭遇大規模的詐騙、網絡釣魚和黑客攻擊。
現在,人工智能助手可以訪問個人信息并同時搜索網絡,他們特別容易受到一種稱為間接提示注入的攻擊。它非常容易實現,而且沒有已知的修復方法。
人工智能系統可能會被惡意操縱,允許攻擊者嘗試提取人們的信用卡信息。隨著新一代人工智能模型接入社交媒體和電子郵件,黑客有了更多漏洞可鉆。
向OpenAI、谷歌和Meta詢問,問他們做了什么來抵御提示注入攻擊和“幻覺”傾向等問題,但Meta和OpenAI沒有回復。
關于人工智能的幻覺傾向,谷歌的一位發言人表示,該公司發布Bard是一項“實驗”,它允許用戶使用谷歌搜索來核實給出的答案。
“如果用戶發現了編造或不準確的東西,我們鼓勵他們點擊‘不喜歡’圖標并提供反饋。這是Bard學習和改進的一種方式。”顯然,這種方法讓用戶承擔了發現錯誤的責任,然而人們往往過于信任計算機產生的回應。關于我提出的抵御提示注入的問題,谷歌表示目前還沒有答案。
對于提示注入,谷歌表示這個問題還沒有一個好的解決方案,仍然是一個活躍的研究領域。該發言人表示,該公司正在使用垃圾郵件過濾器等其他系統來識別和過濾可能的攻擊,并正在進行對抗性測試和紅隊演練,以確定惡意行為者可能如何攻擊基于語言模型的產品。“我們正在使用經過專門訓練的模型,來幫助識別違反我們政策的已知惡意輸入和不安全輸出。”
每次新產品發布都會有經過一段時間的磨合。但即使是人工智能語言模型產品的早期支持者,對這些產品也沒有什么好印象,這很說明問題。《紐約時報》專欄作家凱文·羅斯發現,谷歌的助理善于總結電子郵件,但也會告訴他收件箱里不存在的電子郵件。
簡而言之,科技公司不應該對所謂的人工智能工具的“必然性”如此自滿。普通人不會喜歡那些經常犯錯和失敗的產品,尤其是其背后的技術總是以令人討厭和不可預測的方式失效。距離看到黑客惡意使用這些新的人工智能助手只是時間問題。現在只能坐以待斃。