
qiuyuanyang @ 126.com
2023年5月,紐約聯(lián)邦法院上演了戲劇性的一幕:律師提交的法律文書包含了6個由ChatGPT杜撰的法律判例。這個標志性事件揭開了人工智能發(fā)展歷程中的重要課題——A幻覺現(xiàn)象。
所謂A幻覺(AHallucination),指的是人工智能系統(tǒng)在生成內容時,產生的看似合理但實際上錯誤、虛構或不存在的信息。這些內容可能表現(xiàn)為編造事實、虛構數(shù)據(jù)、引用不存在的文獻,甚至創(chuàng)造出邏輯矛盾的描述。
A幻覺在主流的各種問答式A中都有表現(xiàn)。當初ChatGPT震撼問世時,就曾出現(xiàn)過邏輯清晰地證明9是質數(shù)的錯誤,而被馬斯克稱為“地球上最聰明的A”的Grok3也在“比較9.9和9.11大小”時出錯。當然,在這個經典A陷阱面前翻車的還有大名鼎鼎的ChatGPT—4o和Gemini。“人類認為最容易的,恰是A最難實現(xiàn)的。”日常問題也同樣面臨A的幻覺:我向A詢問一個不出名的地點如何到達,查閱不到準確資料的A竟然編造虛假信息,并信誓旦旦地為我導航;當用一個截圖向三個A詢問一個關于圖形旋轉的幾何問題時,其中一個給出了錯誤結論,并在我的反駁中堅持已見,我不得不拿出另外兩個A的正確解法給它,它才承認自己的錯誤,并主動分析出錯的原因。當我們注視著A聊天界面流暢輸出的文字時,是否意識到在這些看似邏輯嚴密的回答中,可能暗藏著機器認知的海市蜃樓呢?
圖靈獎得主楊立昆今年3月在美國聯(lián)合數(shù)學會議上尖銳地指出:“自回歸大語言模型(LLM)注定淘汰!用預測下一個詞的方法造AG,就像用算盤登陸火星!”自回歸模型的核心邏輯是根據(jù)前文預測下一個詞(Token),這種機制的致命缺陷就是,每個預測的微小誤差都會隨著文本生成呈指數(shù)級爆炸。深度神經網(wǎng)絡的數(shù)十億參數(shù)編織著獨特的認知圖景,Transformer架構的自注意力機制將訓練數(shù)據(jù)中的語義碎片編織成連貫文本,在賦予A強大創(chuàng)造力的同時,也埋下了幻覺的種子:當上下文關聯(lián)超過模型理解閾值時,系統(tǒng)會啟動概率補償機制,用統(tǒng)計學最優(yōu)解填補認知空白。
大語言模型通過上千億Token的語料庫學習人類表達范式,但數(shù)據(jù)中的偏見、錯誤與時代局限性都被編碼進模型參數(shù),形成認知烙印。若訓練數(shù)據(jù)中類似問題未被充分覆蓋或標注,模型可能無法正確歸納,從而強行拼圖,在語義補全沖動下制造出邏輯自洽的合理虛構。這也反映了當前A模型的一個局限性,即依賴大量數(shù)據(jù)和特定訓練,而缺乏真正的常識推理能力。類似問題還有A生成人物圖片時經常出現(xiàn)的6根手指。
在醫(yī)療咨詢場景中,某A系統(tǒng)曾給出“糖尿病可用胰島素鼻腔噴霧治療”的虛假方案,這種專業(yè)領域的幻覺輸出可能造成嚴重后果。教育領域同樣面臨挑戰(zhàn),如學生提交的A生成論文中頻繁出現(xiàn)“幽靈引用”,這種現(xiàn)象會摧毀知識傳播的信任基礎,增加A普及的隱性社會代價。
為了對抗A幻覺,眾多A公司正努力構建可信A的進化圖景:DeepSeek的混合專家系統(tǒng)(MoE)通過動態(tài)路由機制,將問題分配給專業(yè)子模型處理,相比傳統(tǒng)Transformer架構可將事實錯誤率降低 40 % ;OpenAI的“過程監(jiān)督”系統(tǒng)對推理鏈進行逐步驗證,這種培養(yǎng)式訓練使GPT-4的邏輯嚴謹性提升3倍;谷歌的PaL-X模型通過視頻幀序列分析驗證文本描述的真實性,這種跨模態(tài)糾錯機制將幻覺發(fā)生率壓縮至 0 . 3 % 以下;IBM的Neuro-SymbolicA將深度學習與知識推理分離又整合,在保持創(chuàng)造力的同時實現(xiàn)邏輯可驗證。
在這場人機共生的認知革命中,A迷之自信的幻覺正是技術黎明期的成長陣痛,標記著技術進化的必經階段,其最終將走向更可信、更具人文關懷的人工智能未來。