
AI(人工智能)看起來使用很方便,但AI“一本正經(jīng)地胡說八道”有時候真的讓人非常頭疼,它給出的信息需要反復(fù)核實,有時反而不如直接上網(wǎng)搜索來得高效。那么,如何降低AI幻覺呢?
想要獲得準(zhǔn)確答案,提問方式很關(guān)鍵。總結(jié)成提示詞技巧,就是下面4種問法:
設(shè)定邊界。示例:將“介紹ChatGPT的發(fā)展歷程”,改為“請僅基于OpenAI官方2022—2023年的公開信息,介紹ChatGPT的發(fā)展歷程”。
標(biāo)注不確定。示例:將“分析特斯拉2025年的市場份額”,改為“分析特斯拉2025年的市場份額,非官方數(shù)據(jù)或預(yù)測性內(nèi)容需要進(jìn)行標(biāo)注”。
步驟拆解。示例:將“評估AI對就業(yè)的影響”,改為“請分兩步評估AI對就業(yè)的影響:先列出目前已發(fā)生的具體案例;基于這些案例進(jìn)行未來趨勢分析”。
明確約束。示例:將“預(yù)測2026年房地產(chǎn)市場走勢”,改為“請僅基于2025年的實際房地產(chǎn)數(shù)據(jù)和已出臺的相關(guān)政策,預(yù)測2026年房地產(chǎn)市場走勢,不要加入任何推測性內(nèi)容”。
因為AI給出的內(nèi)容是根據(jù)概率進(jìn)行生成的,一次性生成的內(nèi)容越多,出現(xiàn)AI幻覺的概率就越大,我們可以主動限制它的輸出量。如果我要AI寫一篇長文章,就會這么跟AI說:“咱們一段一段來寫,先把開頭寫好。等這部分可以了,再繼續(xù)寫下一段。”
想要提高AI回答的可靠性,還有一個實用的方法是采用“多模型交叉驗證”。使用一個AI聚合平臺,讓多個AI模型同時回答同一個問題。當(dāng)遇到需要給出嚴(yán)謹(jǐn)答案的問題時,就啟動這個功能,讓不同的大模型一起參與討論,通過對比它們的答案來獲得更全面的認(rèn)識。
AI聰明但健忘,為了讓它的表現(xiàn)更靠譜,我們可以給它配一本超級百科全書,讓它隨時查閱里面的內(nèi)容來回答問題。這本“百科全書”就是RAG的核心,它可以讓AI在回答問題之前,先從可靠的資料中找到相關(guān)信息,再根據(jù)這些信息生成答案。目前RAG技術(shù)多用在醫(yī)療、法律、金融等專業(yè)領(lǐng)域,當(dāng)然,AI生成的內(nèi)容還是必須經(jīng)過專業(yè)人士的審查。
有時候與其把AI幻覺當(dāng)成缺陷,不如把它看作創(chuàng)意的源泉!在寫作、藝術(shù)創(chuàng)作等需要頭腦風(fēng)暴時,這些“跳躍性思維”反而可能幫我們打開新世界的大門。
當(dāng)我們學(xué)會用正確的方式與AI對話,善用它的創(chuàng)造力,同時保持獨立思考,AI就能成為我們的得力助手,而不是一個“能言善辯的謊言家”。畢竟,在這個AI與人類共同進(jìn)步的時代,重要的不是責(zé)備AI的不完美,而是學(xué)會與之更好地協(xié)作。
(相 如摘自微信公眾號“科普中國”)