
AI幻覺源于統計學上的“隨機鸚鵡”現象,所有大模型都不可能完全避免,而且推理能力越強的大模型產品,如DeepSeek,越可能出現AI幻覺。
有媒體報道,經調查,近日引發廣泛關注和討論的“截至2024年末,‘80后’死亡率突破5.2%,相當于每20個‘80后’中就有1人已經去世”“‘80后’的死亡率已經超過‘70后’”等消息,與真實情況不符。類似虛假數據很可能是與大模型產品對話的結果。
大模型產品之所以會輸出假數據,是因為生成式人工智能(AI)始終存在著“AI幻覺”問題,可能對事實性信息進行胡編亂造。
從原理上說,AI幻覺源于統計學上的“隨機鸚鵡”現象,所有大模型都不可能完全避免,而且推理能力越強的大模型產品,如DeepSeek,越可能出現AI幻覺。據報道,AI行業權威的Vectara HHEM人工智能幻覺測試顯示,DeepSeek-R1的幻覺率為14.3%,遠高于行業平均水平。
不過,這種現象可以盡力消除,也應該盡力消除。如果大模型只用作虛構性的娛樂工具,寫寫“小作文”、幫助調節情緒,出現AI幻覺似乎問題不大??墒?,如果將之作為高效勞動工具和嚴肅的信息來源,AI幻覺問題處理不好就會存在風險,甚至是致命危險。比如,上述AI虛假信息的傳播導致大范圍的信息混亂,煽動了某種社會負面情緒的傳播,在一定程度上觸發了信息安全問題。毫不夸張地說,解決AI幻覺問題事關信息安全,是生成式AI發展的基礎性和前提性問題,任何一種大模型應用都無法繞過該問題。
當然,在處理事實性問題方面,大模型并非一點作用也沒有。比如,目前使用DeepSeek收集學術資料,雖然常會出現將作者與作品張冠李戴、杜撰子虛烏有的文獻與作者以及胡亂進行內容描述的情況,但是僅作為資料收集的框架性參考和提示,它還是能發揮一定輔助作用的??偟膩碚f,在目前階段,完全相信DeepSeek提供的數據信息,不僅無法切實提高工作效率,反而會導致矛盾、混亂和錯誤。
應該說,一個數字素養高的人很可能會避開AI虛假信息的“坑”,但當前很多人數字素養不高,容易迷信大模型產品。
2025年春節以來,DeepSeek由于在中文問答方面的優異表現,受到中文大模型用戶的追捧,同時帶動了其他中文大模型產品,如文小言、豆包、Kimi、騰訊元寶的下載。即便不做專業技術測評,用戶也可以直觀感受到DeepSeek強大的推理能力可能超過很多忽視邏輯推理能力訓練的普通人。此外,DeepSeek令人驚艷之處還有中文表述上的文采,很多人評價其“辭藻華麗”“情緒給到位”“人情味很濃”。加上AI創新競爭的國際環境,DeepSeek幾乎被很多人盲目推崇,不許有任何質疑,哪怕是善意的質疑。這屬于典型的“AI迷信”現象。

比如,最近網上出現不少用DeepSeek評價學者、著作、論文和某項研究水平的帖子,聲稱它絕對客觀公正,可以杜絕人情、關系和權力等因素的干擾。這些人崇拜AI,大模型至上,將之凌駕于人的判斷之上。事實上,國際通行的學術評議方式是同行評議,也就是由專業小同行進行學術評價。從根本上說,大模型產品不理解人類作品的含義,只是通過搜索、學習、上下文概率排序和模式識別等技術手段生成內容,本質上是網上信息、數據和內容的“鏡子”或“平均值”。顯然,網上內容大部分不專業、不精確、不客觀,如此得到的AI生成內容(AIGC)怎么可以取代同行評議呢?因此,完全以幻覺嚴重的AI產品作為研究根據,在學術上萬萬不行。
AI幻覺嚴重的大模型產品如果接入新聞、自媒體,大量假消息、假信息會迅速生成。再加上開放和便捷的互聯網傳輸,以及社交媒體的去中心化、反權威性,肯定會大大加劇后真相時代AI虛假信息泛濫。

此外,網上泛濫的虛假信息,讓AI幻覺雪上加霜,因為AI根本沒有真假的概念,更沒有輸出內容與真實世界必須相符合的要求。
長久以來,網絡水軍肆虐,各種謠言、陰謀論層出不窮,到處是“鍵盤俠”,上來就站隊、開懟、開罵,毫無根據地“灌水”,完全沒有耐心也不想搞清楚真相是什么,“干就完了”。于是,網上的消息不斷反轉,時常比肥皂劇的劇情還離譜。現在有了生成式AI工具,開啟不拿工資、24小時不眠不休的AI水軍模式,真相更加難以尋覓。此種狀況,有人總結為“后真相狀況”,即網絡世界越來越沒有真相,很多人越來越忽視真相,思考問題、處理問題、評價問題越來越訴諸個人情緒、成見甚至迷信。
AI幻覺嚴重的大模型產品如果接入新聞、自媒體,大量假消息、假信息會迅速生成。再加上開放和便捷的互聯網傳輸,以及社交媒體的去中心化、反權威性,肯定會大大加劇后真相時代AI虛假信息泛濫。使用大模型輔助生成各種文本的學生、文員和策劃人員,如果長期使用AI幻覺嚴重的大模型產品,則會逐漸喪失判斷力,甚至覺得只要形式精致、表述華麗就可以,是真是假不重要。
當事實性輸出有問題時,不管AI工具的推理能力多強大,以錯誤事實為基礎作決策都是非常危險的。當然,不可否認會有“瞎貓碰到死耗子”的情況出現,但概率微乎其微,因為科學決策以準確而完善的信息收集為前提。有了決策對象各方面的信息,才能提出有針對性的備選方案,決策者才能從中挑選適合國情、社情的決策方案。因此,最近多見諸新聞報道的大模型產品用于政務活動,首先要認真評估產品的除幻性能才行。
那么,如何防范AI幻覺可能導致的信息安全問題?現階段首要責任在大模型企業。首先,它們必須投入人力、財力、物力壓縮幻覺率,使之達到安全閾值。其次,要提高大模型產品使用人員的數字素養,不迷信AI,牢記以AI輔助勞動的“輔助”為主,讓AI為人所用,嚴防AI反客為主。再次,對于一些專業領域的大模型運用,文本生成精度要有特殊標準,接入前要進行嚴格而有針對性的幻覺率評估,切不可操之過急。最后,從長遠來看,大模型信息安全問題值得各方合作進行深入而細致的跨學科研究,形成系統化防范方案,有步驟、有預案、有章法地推進大模型產品在各行各業的深度應用。