摘 要:
知識異化即人類所創(chuàng)造的知識反過來成為異己的力量,對人自身的地位和能力形成控制、削弱等負面效應的現(xiàn)象。人工智能,尤其是生成式大模型,其作為知識生產(chǎn)的強力工具能夠積極提升人類知識勞動水平,但同時也蘊含著知識異化的種種可能,包括導致知識主體“失能”、知識內(nèi)容“失真”、知識價值“失效”等。在生成式大模型時代來臨的今天,需要認真分析和對待上述知識異化現(xiàn)象,使人工智能能夠更好地發(fā)揮促進人與社會發(fā)展的積極效應。
關鍵詞:
知識異化; 生成式人工智能; 大模型; 知識生產(chǎn)
B017; TP18 A 0011 09
大模型作為生成式人工智能(簡稱“生成式大模型”)的橫空出世,開啟了知識生產(chǎn)的新時代,其強大的內(nèi)容或知識生產(chǎn)能力隱含著知識異化的種種可能,包括人被知識生產(chǎn)技術所異化(如人對作為知識生產(chǎn)技術的生成式人工智能大模型的過度依賴)而導致的知識主體的失能,以及知識的機器生產(chǎn)方式使知識在本質(zhì)與意義上失去真實性和稀缺性而導致的知識內(nèi)容的失真與知識價值的失效等異化現(xiàn)象。必須深入分析和認真對待生成式大模型帶來的種種知識異化現(xiàn)象,使人工智能能夠更好地發(fā)揮促進人與社會發(fā)展的積極效應。
一、 “知識異化”的界定
生成式人工智能與傳統(tǒng)人工智能的區(qū)別在于,后者不具備知識生產(chǎn)能力,而生成式人工智能尤其是大模型由于在大數(shù)據(jù)、大算力和深度神經(jīng)網(wǎng)絡的強算法基礎上采用了Transformer構架與多頭及長距離注意力機制,通過預訓練的方式將海量的知識整合到神經(jīng)網(wǎng)絡中,從而增強了模型的語言處理能力,可以生成新的內(nèi)容,如文本、圖像、音頻和視頻等,在此基礎上能夠以參數(shù)化的方式處理和操縱知識,①因此具有強大的知識生產(chǎn)能力。生成式大模型使“萬物皆可生成”的工作原理具體化為知識可以由智能機器所生產(chǎn)。當知識可由智能機器來生產(chǎn)時,知識異化的可能隨之出現(xiàn)。
作為一個新提出的概念,“知識異化”可以從多種維度推論和引申而來,其含義首先可以從一般的“異化”來演繹。“異化”一詞源于拉丁文alienation和alienare,有轉(zhuǎn)讓、讓渡、脫離、差異、精神錯亂等含義。在德國古典哲學中,“異化”被提升為哲學術語,用來表達主體與自己創(chuàng)造出來的對象物之間的一種特殊關系:兩者之間發(fā)生疏離和分裂,人的創(chuàng)造物變成自己的對立物,成為反對自己、支配自己的異己力量,即反過來控制甚至奴役人,使人受其損害,從而產(chǎn)生負面影響。“主體隨著自身矛盾的發(fā)展產(chǎn)生的客體(自己的對立面),變成一種外在、異己的力量,凌駕于主體之上,反過來又束縛、壓制、控制、支配著主體,這就是異化。”①
以此關照人的知識活動,也可以看到類似的現(xiàn)象:人創(chuàng)造出來的知識同樣也可以逐漸脫離其原本的用途和意義,“反客為主”地演變?yōu)橹浜涂刂迫说牧α浚瑥亩恢R所束縛、限制。“教條主義”或“本本主義”就是這種知識異化的典型,表現(xiàn)為人對書本知識的絕對崇拜,不敢越既有理論之“雷池”一步,人的行動和認識不是根據(jù)實際情況的變化而變化,而是將過去的知識作為一成不變的條條框框捆住自己的手腳、擋住自己的視線。此時的知識不僅不能發(fā)揮其應有的引導實踐的作用,反而會產(chǎn)生種種負面效應,使人喪失對于知識的主體性。因此,基于“異化”的一般含義(自己的活動及其產(chǎn)物成為統(tǒng)治、支配、奴役自己的異己力量),可將“知識異化”理解為:當知識不再是人類智慧的結(jié)晶,而是變成一種異己的僵化的力量,反過來控制和支配人類時,就發(fā)生了知識異化。
“知識異化”的含義也可以借鑒馬克思的“勞動異化”來理解。馬克思在批判繼承黑格爾異化理論的基礎上,提出了自己的異化勞動理論,揭示了在資本主義生產(chǎn)方式下勞動者與勞動產(chǎn)品、勞動活動、人的類本質(zhì)以及他人之間關系的異化。類似地,知識異化也可以理解為在特定社會和技術條件下,知識(作為人類智慧的結(jié)晶和創(chuàng)造力的體現(xiàn))不再是為了滿足人類對真理的追求和服務于人類自身的全面發(fā)展,而是轉(zhuǎn)變?yōu)橐环N外在的甚至是對抗人類的力量。例如,知識的獲取、傳播和應用如果受到資本、權力和技術等外部因素的操控,知識往往就會失去其內(nèi)在的價值和意義,它不再是人們認識世界、改造世界的工具,而是成為一種支配、控制甚至奴役人的力量,從而在其初衷和效果之間產(chǎn)生了疏離和對立。法蘭克福學派或文化馬克思主義就重點揭示和批判了這種意義上的知識異化。
“知識異化”的含義還可從相近的“信息異化”中受到啟發(fā)。信息異化是信息時代備受關注的現(xiàn)象。所謂信息異化, 指的是由人所創(chuàng)造的信息反過來成為可以離開人而存在的東西,并被對象化、功能化后成為可被頂禮膜拜的偶像性存在,甚至成為萬物的本原、一切的根基。此時人作為信息的生產(chǎn)者和創(chuàng)造者,不但不能很好地管理信息,反而被各種信息(甚至無聊至極的信息)所牽制,成為被信息或信息的載體所控制的“客體”,它刻畫了人腦成為電腦的附庸、雙眼成為屏幕的附庸、手指成為鍵盤和鼠標的附庸、現(xiàn)實生活成為虛擬生存的附庸等情形。“網(wǎng)絡沉溺”“手機控”“信息強迫癥”“信息消費主義”等就是典型的信息異化現(xiàn)象。②究其實質(zhì),信息異化是人與信息關系的顛倒,是信息的主體喪失了對信息的控制能力,信息及其技術反客為主,成為外在的異己的力量(控制、統(tǒng)治和支配人的力量)。③可以說,信息異化是最近似于知識異化的概念,因為知識就是信息的一種形態(tài),從而知識異化也是信息異化的一種表現(xiàn),從信息異化的存在必然推導出知識異化的存在。比如,“信息繭房”是信息異化的重要表現(xiàn),“知識繭房”也理所當然是知識異化的一種形式:人變得只認可和接受與自己信念相符的知識,使自己的知識面越來越窄,以致走向“知識固化”“思維僵化”“認知鎖定”等。可以說,知識向度上的信息異化就是知識異化。
歸結(jié)上述思路的共性,可以將“知識異化”視為在知識生產(chǎn)、傳播和應用的過程中,知識逐漸脫離其本質(zhì)屬性和目的,變成人的一種異己力量,反過來控制和限制人的發(fā)展的現(xiàn)象。從總體上說,知識異化就是人與知識關系的顛倒,知識與人的本質(zhì)需求和發(fā)展相疏離。
知識異化是發(fā)生于特定社會條件下的現(xiàn)象,不同的原因可能造成不同特征的知識異化。生成式人工智能大模型的出現(xiàn),造就了特定的知識異化。人工智能作為智能機器,演進到生成式大模型后,就可以作為知識機器來使用。生成式大模型通常是擁有超大規(guī)模參數(shù)和復雜計算結(jié)構的機器學習模型,這種模型通過大數(shù)據(jù)的訓練具有了從海量數(shù)據(jù)中提取出關鍵信息和規(guī)律的能力,進而能夠處理和完成多種復雜任務,尤其是能夠生成高質(zhì)量的文本內(nèi)容,在人機對話中靈活地回應各種問題和要求,這些都是生成式大模型的強大內(nèi)容生成能力,也是其進行知識生產(chǎn)的具體表現(xiàn)。借助生成式大模型這一知識生產(chǎn)的新型工具,人所進行的知識生產(chǎn)可以從傳統(tǒng)的手工和腦力勞動演變?yōu)榻柚斯ぶ悄艿臋C器生產(chǎn)過程,或人機合作的知識創(chuàng)作活動。在這種新型的活動中,人只要將生產(chǎn)什么樣知識的目的意圖“告訴”給機器,生成式大模型就會源源不斷地“吐出”人所需要的一切內(nèi)容,包括知識。這個過程使得人類的知識生產(chǎn)能力發(fā)生了一場類似工業(yè)革命的新突破,具有歷史發(fā)展里程碑的重大意義。與此同時,這一巨變也引發(fā)了知識異化的可能,包括人被知識生產(chǎn)的新技術所異化:生成式大模型不僅導致知識主體(人)的多種能力在被技術取代的過程中逐漸衰退甚至完全喪失(失能),還導致知識失去其本真的規(guī)定性和原始意義與價值,從而在內(nèi)容上失真(如生成式大模型中的幻覺或“一本正經(jīng)的胡說八道”)和在價值上失效(如知識的貶值或失去意義)。由此,生成式大模型導致的知識異化現(xiàn)象有可能惡化知識活動的生態(tài),延緩知識社會的進步,還可能阻礙人的全面發(fā)展,帶來種種新的風險,因此必須對其高度關注并尋求積極的應對之策。
二、 失能:知識主體的能力異化
生成式大模型的主職本是協(xié)助人的知識生產(chǎn),提高人的知識生產(chǎn)能力,然而它也可能對人形成一種特殊的異化:知識生產(chǎn)能力的喪失,或者說,“失能型異化”,即人被知識生產(chǎn)的新技術所異化。
技術與人的能力之間具有這樣一種一般關系:模擬人某一方面功能的技術,在其成熟到一定程度后,就會形成從輔助、強化到替代的功能擴張過程,在這一過程中,人的能力向自己的創(chuàng)造物轉(zhuǎn)移,工具替代了人的功能,而人的相關能力甚至主體地位則在工具面前被削弱了甚至喪失了,具體表現(xiàn)為人對技術的依賴越來越嚴重,以至于一旦離開技術,人就不能進行相關的活動、完成相應的任務。從人的某些體力活動到智力活動(如計算、記憶等),莫不如此。
生成式大模型憑借其海量的訓練數(shù)據(jù)、復雜的神經(jīng)網(wǎng)絡結(jié)構和先進的算法優(yōu)化展現(xiàn)出了令人矚目的能力。它們能夠閱讀并理解大量文本,進行高效的信息提取和概括,生成流暢且富有邏輯性的文本內(nèi)容,甚至生成新的觀點,創(chuàng)造出人類未曾預料到的新知識。生成式大模型之所以具有這樣的能力,是因為人工智能從“搜索范式”進化到了“創(chuàng)造范式”,為人提供了知識生產(chǎn)的好伙伴、好幫手,使得人只要擁有一個好的AI模型,尤其是大語言模型,就能獲得一個強大的數(shù)據(jù)生成器,它可以生成所有我們想講的和能講的話,①這些“話”就包括我們所需要的“知識”。也就是說,生成式大模型提供了強大的知識生產(chǎn)能力,人可以借助它讓知識“一鍵生成”,甚至在與腦機接口結(jié)合后還可以“一念生成”,②極大地提高知識的“產(chǎn)能”。
生成式大模型在一定意義上可稱為知識生成技術或智能化的知識生產(chǎn)技術,前面提到的技術與人的能力關系問題在這里復現(xiàn):人工智能使得大模型在知識生產(chǎn)中逐漸取得了與人類相似的地位,甚至在某些方面超越了人類,尤其是在處理大規(guī)模數(shù)據(jù)、進行復雜計算和模擬等方面,隨之也就產(chǎn)生了人在知識生產(chǎn)中對大模型的依從甚至過度的依賴。這種依賴可能導致個人在面臨知識創(chuàng)作等任務時首先想到的是求助于人工智能,而不是依靠自己的思考和探索。長此以往,這可能會削弱人類探索和形成知識的能力,因為在知識或答案一鍵生成的背景下,人們可能不再需要深入研究和思考,而是依賴于模型的輸出,這無疑會導致人在知識生產(chǎn)過程中的創(chuàng)造性和思考力的逐漸減弱。換句話說,當人的能力主要體現(xiàn)為給智能機器寫提示詞的水平時,人類的思維水平就反向地被人工智能所拉低,形成“人向機器對齊”的后果。
更具體地說,生成式大模型帶來的自動化知識生產(chǎn)有可能導致人的知識生產(chǎn)技能轉(zhuǎn)移給大模型從而被其異化。論文寫作是標準的知識生產(chǎn)過程,需要一系列技能,如文獻的閱讀與概括、思想的組織與條理化、文稿的寫作與流暢化,生成式大模型可以提供從助讀、助思到助寫的幫助,人如果在這個過程中形成了對大模型的過度依賴,就會從“助”到“替”,走向大模型對人的“替讀”“替思”和“替寫”, 以至于有了生成式大模型,只要輸入提示詞,知識就可以從屏幕上流出,實現(xiàn)了從“知識創(chuàng)作”到“知識一鍵生成”的跨越。長期依賴大模型進行這種“便捷的”知識生產(chǎn),人們可能會忽視對傳統(tǒng)知識生產(chǎn)技能的掌握和提升,不再力求自己通過勤勉的閱讀、思考與寫作去創(chuàng)造知識,而是直接利用人工智能生成的內(nèi)容。長此以往,人就有可能越來越依賴其提供的信息和見解,以至于離開了大模型便“一事無成”,包括無法再寫作論文或生產(chǎn)知識,從而失去創(chuàng)造知識的能力,也喪失主動思考和解決問題的能力,甚至獨立判斷的能力也逐漸減弱,相關的文獻閱讀、數(shù)據(jù)分析、邏輯推理、文章寫作等方面的能力難免退化,走向整體性的“認知惰性”。這是一種特定類型的知識異化,即人的“失能型異化”。這里的所謂“失能”,就是指人們在面對某些任務時,由于過度依賴人工智能而失去了獨立完成任務的能力。基于生成式大模型的知識創(chuàng)造日益趨向自動化,過度使用它的人會不斷地在這個過程中“去技能化”,也就是“失能化”。
這種失能還會深刻觸及人類的主體性或主體地位。生成式大模型能夠獨立完成從數(shù)據(jù)采集、處理到分析、生成的全過程,甚至在某些領域能夠創(chuàng)造出具有創(chuàng)新性的知識內(nèi)容,這種轉(zhuǎn)變不僅改變了知識生產(chǎn)的流程和模式,也重新定義了知識生產(chǎn)的主體。人類不再是唯一的或主導的知識生產(chǎn)者,而是與人工智能共同協(xié)作,甚至在某些情況下被人工智能所取代。與大模型的強大能力相比,人類在知識生產(chǎn)中的某些能力顯得愈發(fā)渺小;人使用大模型的一些勞動被智能機器所侵吞或淹沒,人的作用在大模型面前逐漸變得微不足道。例如,隨著人工智能系統(tǒng)在閱讀理解、信息概括、寫作和文本生成等方面的能力不斷提升,那些曾經(jīng)被認為是高級認知技能的人類活動變得不再那么獨特;在快速閱讀、海量信息處理、精準概括以及高效寫作等方面,人類難以與經(jīng)過優(yōu)化訓練的大模型相匹敵。這種能力上的差距,使生成式大模型在知識生產(chǎn)中的主導地位日益凸顯,也使得人在某些知識生產(chǎn)環(huán)節(jié)中逐漸失去競爭力,從而被迫退出知識生產(chǎn)的諸多環(huán)節(jié),不再是知識生產(chǎn)的核心力量,而是淪為配角或輔助角色。這種轉(zhuǎn)變使得人類在知識生產(chǎn)中的地位逐漸下降,甚至可能被邊緣化,由此形成基于知識異化的人的本質(zhì)的異化。
對于人工智能的過度依賴,也意味著人在思考和寫作時可能會過于依賴預設的模式和框架,從而陷入一種被動接受的狀態(tài),不再主動探索和創(chuàng)新,由此會大大限制人的創(chuàng)造力發(fā)揮;而人一旦習慣于接受現(xiàn)成的答案而非主動思考,就可能會失去探索未知世界的動力,使人永不滿足的求知欲和創(chuàng)造性之主體性特質(zhì)受到削弱甚至摧毀。人過度依賴生成式人工智能來完成任務,還使得人在與人工智能互動的過程中逐漸失去主體地位,變成人工智能的附庸。例如,在社交媒體上,如果用戶過度依賴人工智能推薦的內(nèi)容,他們可能會失去自己的興趣和價值觀,完全按照人工智能的推薦來瀏覽信息。在工作場所,如果員工過度依賴人工智能生成的報告和分析,他們可能會失去自己的判斷力和決策能力,完全按照人工智能的建議來執(zhí)行任務,由此出現(xiàn)令人擔憂的后果:“人類心智的核心能力因為AI的濫用而倒退,人類心智水平的倒退,勢必帶來主體意志的逐步消退,而AI對于人類主體意志的侵犯,將導致難以承受的后果。”①或者說,當一個人發(fā)現(xiàn)自己所創(chuàng)造的知識主要來源于外部智能體而非自身努力時,他對于自己作為知識創(chuàng)造者的角色認知則可能發(fā)生改變。這種情況不僅會影響個人的職業(yè)滿足感,還可能對其自我價值感造成負面影響,產(chǎn)生“我是誰?”這樣的存在主義問題。這就是知識異化可能導向的終極異化——人類自我意識的喪失,人由此失去了對自身存在的認識和理解。
人有一種不斷增強工具能力的追求,對知識工具如人工智能的追求也同樣如此,所導致的往往是知識工具的能力越來越強,知識主體的能力則越來越弱,機器的進化與人的退化同時發(fā)生。對于生成式大模型,人類普遍期待其能力更強,可以為人類做越來越多的事情。例如:希望人工智能不僅會生成知識,還會進行推理;不僅能用于專業(yè)領域,而且能通用于所有領域;不僅能“搬運”知識,而且能“創(chuàng)造”知識。這實質(zhì)上是對通用人工智能和超級人工智能的追求。一旦具有超能力的人工智能出現(xiàn)了而又不能為人所掌控,就會發(fā)生人與人工智能之間的主客異位。所以,這里的失能型異化,就是指人造的知識工具在性能上遠超人類自己,人反過來受到工具的排斥和壓制。因此,失能型的知識異化是人類需要認真應對的智能機器介入知識生產(chǎn)的新挑戰(zhàn)。
三、 失真:知識內(nèi)容異化
從柏拉圖以來,知識在哲學上被界定為“被確證的真信念”,盡管葛蒂爾也找出了反例來否定這個界定,但總體上這個界定仍具有其合理性,它刻畫了知識所具有的最重要的本質(zhì)屬性:真實性和可靠性。在生成式大模型關聯(lián)的知識異化中,知識內(nèi)容的異化是另一種情形,即:由人工智能所生成的知識有可能背離知識的真實性和可靠性。因為目前的生成式大模型存在一個明顯的局限,就是它的幻覺或杜撰,使得由其生成的知識在質(zhì)量上大打折扣,出現(xiàn)知識在內(nèi)容上的“失真”,這種“失真”使來自大模型的知識尤其是一些關鍵的知識無法得以應用,從而進一步導致人們對其缺乏信任。知識生產(chǎn)的初衷本是為人提供準確、可靠的信息和指導,但生成式大模型的幻覺或杜撰使得它所生成的部分知識既不真實,也未得到確證,還失去了其可靠性。隨著與知識生產(chǎn)的這些初衷相背離,大模型所生成的知識就與知識的本質(zhì)相疏離,形成知識內(nèi)容上的異化。
生成式大模型能夠以前所未有的速度生成大量知識。這些知識覆蓋了從基礎科學到日常生活的各個領域,看似滿足了人類對信息無限追求的需要,然而,這種繁榮的背后卻隱藏著質(zhì)量危機。盡管大模型能夠提高知識生產(chǎn)的效率,但其生成的知識的質(zhì)量往往會受到多種因素的影響,如數(shù)據(jù)質(zhì)量、模型設計、算法選擇等,尤其是大模型訓練語料可能存在各種偏差與傾向,比如種族偏見、性別偏見、文化偏見、意識形態(tài)偏見等。①訓練數(shù)據(jù)的這些偏差或算法的局限性會導致錯誤信息的輸出,若將其作為被生產(chǎn)出來的知識加以廣泛傳播,如堆積到網(wǎng)絡中,就會謬種流傳、誤導公眾。傳統(tǒng)的知識生產(chǎn)通常需要經(jīng)過同行評審等過程來保證其準確性和可靠性,但人工智能生成的知識由于其數(shù)量巨大,審核和驗證這些知識的質(zhì)量就變得極其困難,缺乏足夠的人力和時間來確保每一條知識的準確性和可靠性,所以錯誤信息的誤導就有可能在大模型的介導下變得常態(tài)化。或者說,大模型驅(qū)動的AIGC技術使內(nèi)容生成與制作的門檻大大降低,從而使虛假內(nèi)容呈現(xiàn)泛濫態(tài)勢。②因此,由人工智能生成的未經(jīng)審查的內(nèi)容,其權威性和可信度是值得質(zhì)疑的,這樣的內(nèi)容被視為知識無疑會損害知識的本真屬性,從而形成一種特定的異化。
機器生產(chǎn)知識的最大質(zhì)量問題還是所謂的“幻覺”問題。生成式大模型在生成知識時是基于已有的數(shù)據(jù)和模式來進行推斷和預測的。然而,由于訓練數(shù)據(jù)的不完整、算法的限制或輸入信息的模糊性等因素,大模型可能會產(chǎn)生幻覺或杜撰、捏造現(xiàn)象,使輸出的內(nèi)容與真實情況存在顯著差異,生成看似合理但實際上錯誤或不存在的信息,這種現(xiàn)象影響了知識的準確性和可靠性,導致對大模型的信任度下降。
在生成式大模型產(chǎn)生“幻覺”的多種因素中,“訓練數(shù)據(jù)質(zhì)量問題”是指大模型訓練所依賴的海量數(shù)據(jù)往往來源于互聯(lián)網(wǎng),這些數(shù)據(jù)中不可避免地包含了錯誤、過時、偏見等低質(zhì)量信息。這些低質(zhì)量數(shù)據(jù)在模型訓練過程中被學習并內(nèi)化,進而反映在其輸出結(jié)果中,使模型在生成知識時可能產(chǎn)生幻覺。“模型算法局限性”是指大模型雖然具備強大的處理能力,但其算法本身仍存在局限性。例如,模型在處理復雜邏輯推理或語義理解任務時可能表現(xiàn)不佳,導致生成的答案缺乏準確性和深度。“生成策略不當”是指某些生成策略(如基于采樣的解碼方式)可能引入隨機性,也會導致模型在生成知識時產(chǎn)生幻覺。可以說,訓練的水平就是生成式大模型的“天花板”,大模型不知道自己不知道,也不知道自己錯在哪里,因而不具有糾錯的能力,對一切問題它都要應答,哪怕是在自己不知道的領域。而自回歸的生成方式也可能導致幻覺累積,進一步加劇問題的嚴重性。此外,生成式大模型的決策過程往往不透明且難以解釋,這也是人們質(zhì)疑其輸出結(jié)果公正性和可信度的原因。
多種因素導致大模型生產(chǎn)的知識在真實性上受到質(zhì)疑, 使知識變得真?zhèn)坞y辨,人們在海量的信息中篩選真實、有價值的知識則變得越來越困難,知識的真?zhèn)涡猿闪艘粋€嚴重的問題。不準確或錯誤的知識不僅無法為用戶提供有價值的信息,還可能誤導用戶并產(chǎn)生負面影響,特別是在一些關鍵領域,如醫(yī)學、法律、金融等領域,錯誤的知識可能導致嚴重的后果和損失。例如,如果一個醫(yī)療工作者依賴于人工智能提供的錯誤建議,就可能導致誤診或誤治,對病人的健康甚至生命造成威脅。
更有甚者,當用戶頻繁遇到由人工智能生成的錯誤信息時,他們對整個系統(tǒng)的信任度就會逐漸降低。這種“信任危機”不僅會影響個體用戶的體驗,還可能波及更廣泛的社會層面,比如科研機構、教育部門以及商業(yè)企業(yè),使其對從大模型中獲得知識的可靠性持懷疑態(tài)度。這種不信任不僅影響了人們對大模型的使用和依賴程度,還可能對整個知識體系產(chǎn)生負面影響。因為當人們不再信任某個知識來源時,他們可能會轉(zhuǎn)向其他不可靠的信息來源,這種轉(zhuǎn)變不僅浪費了資源和時間,還可能導致整個社會的知識體系出現(xiàn)分裂和對立。因為不同的群體可能擁有不同的信息來源和觀點,他們之間的交流和合作將變得更加困難和復雜。進一步地,人類決策過程中的不確定性也將隨之增加:無論是個人還是組織,在做出重要決策時都希望基于準確可靠的數(shù)據(jù)和知識,如果不能確保從人工智能獲取的信息是真實的,那么這個決策過程就會充滿不確定性和風險,從而加劇社會的混亂和不穩(wěn)定。
知識在內(nèi)容上必須真實可靠,這是知識的本質(zhì)要求。與此相關,從動態(tài)的角度看,新生產(chǎn)出來的知識還應該是豐富的、有新內(nèi)容的,即相較于先前的既有的知識來說,知識生產(chǎn)的產(chǎn)品還應該具有創(chuàng)造性或新穎性。但生成式大模型使得知識生產(chǎn)呈現(xiàn)高效化的同時也走向了工業(yè)化、標準化和同質(zhì)化,缺乏知識的新穎性。雖然大模型可以模仿人類的語言風格并提供看似合理的答案,但它們通常依賴于現(xiàn)有的數(shù)據(jù)集,很難超越已知的信息范圍。這意味著大模型很難產(chǎn)生真正具有創(chuàng)新性的思想和觀點,它們可能只是簡單地復制粘貼已有的信息,或者根據(jù)預設的模式生成符合特定模板或框架的內(nèi)容,所進行的生成過程在本質(zhì)上是通過“預測下一個詞”的文字接龍或字句續(xù)寫,而沒有真正意義上的深入研究和思考。因此,由人工智能生成的內(nèi)容通常缺乏深度見解或創(chuàng)新思維,個性化的見解和獨特的思考方式也在高效快速生成的方式中不復存在,不同人使用相同模型時只會得到相似的結(jié)果,或傾向于生成符合大多數(shù)情況的標準答案,導致知識生產(chǎn)趨向標準化和同質(zhì)化,缺乏多樣化和創(chuàng)造性,不同領域的知識和觀點趨于相似和單一。在這個過程中,人們可能會逐漸失去對自己獨特經(jīng)驗和知識的認同感,知識與個體之間由此產(chǎn)生疏離或異化。
由于生成式大模型介導的知識生成速度極快,通過“快速響應”機制來迅速生成看似合理的回答或文本不能深入分析問題、評估多種可能性、進行邏輯推理和驗證;由于缺乏深度理解和推理能力,模型在解釋復雜概念、推導新理論或進行跨學科整合時顯得力不從心,限制了知識的深度發(fā)展,從而降低了知識的質(zhì)量。大模型的使用本是為了提高知識內(nèi)容的質(zhì)量,但這一悖反的結(jié)果卻導致了知識內(nèi)容在質(zhì)量上被生成式大模型所反噬或異化。與此相關,人們可能更傾向于接受大模型提供的“快餐式”知識,而不是深入探究和反思,這就導致了知識與理解之間的疏離或異化。
四、 失效:知識通脹異化
生成式大模型以其強大的算法和海量數(shù)據(jù)為基礎,極大地提高了知識生產(chǎn)的效率,甚至實現(xiàn)了知識的“一鍵生成”。然而,與此同時,知識生產(chǎn)的門檻也大為降低,導致大量知識如潮水般涌現(xiàn)。巨大的知識產(chǎn)量難免導向“知識通脹”:數(shù)量巨大的知識由人工智能生產(chǎn)出來后,同貨幣超發(fā)導致通貨膨脹的情形一樣,知識也因過多的產(chǎn)出而降低其價值或失去其效用(失效),由知識的屬性所決定的崇高地位因此受損,知識的意義由此面臨新的挑戰(zhàn)。
隨著生成式人工智能技術的飛速發(fā)展,知識生產(chǎn)的速度和規(guī)模達到了前所未有的水平。這些技術能夠在短時間內(nèi)生成大量的文本、圖片、音頻和視頻等內(nèi)容,極大地提高了知識的產(chǎn)能,使知識的數(shù)量呈現(xiàn)出爆炸式的增長,人類由此進入了一個知識生產(chǎn)效率極高的時代。在智能機器的加持下,知識可以被生成式大模型海量生產(chǎn)出來,要多少有多少,難免發(fā)生知識通脹。如同發(fā)生通貨膨脹時難以維持貨幣的價值一樣,知識數(shù)量的無限膨脹必然使知識的質(zhì)量也難以得到保證。如前所述,由于人工智能算法的限制和訓練數(shù)據(jù)的偏差,大模型生成的知識往往缺乏深度、準確性和創(chuàng)新性,導致了大量低質(zhì)量甚至錯誤的信息充斥網(wǎng)絡空間。正因為如此,一些知識傳播平臺(如學術期刊)不認可從而禁止刊登由生成式大模型所生成的內(nèi)容。當知識的價值隨著其供應量的增加而相對下降時,或者說,當知識變得可以信手拈來且無處不在、大大超過社會的需求和吸收能力時,它的稀缺性就會減弱,就像貨幣通脹中貨幣的購買力下降一樣。由此,本來由人工智能帶來的人類知識產(chǎn)能的劇增和知識供給的爆發(fā)所帶來的知識革命的樂觀前景,也就蘊含著反向的可能,即生成式大模型淪為“生產(chǎn)廉價文字內(nèi)容的加速器”。①
其實知識通脹在人工智能的影響之外早就以“學歷通脹”或“證書通脹”的方式在教育領域中有所表現(xiàn)。當越來越多的人擁有高學歷或?qū)I(yè)證書時,這些證書的實際價值就會降低,隨之在就業(yè)市場就會出現(xiàn)“證書通脹”的現(xiàn)象,從而導致知識的相對貶值。
當然,真正的知識永遠是稀缺和寶貴的,但知識的通脹導致一般性甚至低質(zhì)性的知識產(chǎn)能過剩,使真正的知識無法得到有效的傳播和關注,知識不能“變現(xiàn)”抑或知識的泡沫化造成了知識勞動的極大浪費,使人陷入了這種無意義的“知識生產(chǎn)”之中。當人與上述低質(zhì)信息打交道成為常態(tài)時,人的知識勞動就大量消耗在一些簡單、重復的信息處理活動上,而真正有價值的新知識、新觀點卻難以涌現(xiàn)。這種低效重復勞動不僅浪費了個人的精力,也嚴重削弱了社會的創(chuàng)造力,所以伴隨知識通脹的發(fā)生還會出現(xiàn)創(chuàng)造力的通縮。人們生產(chǎn)廉價文字或低質(zhì)信息所花費的大量時間和精力通常無法給自己帶來實質(zhì)性的回報,也不能對社會有所貢獻。所以,知識通脹會導致知識勞動貶值或變得無意義。這種無意義的勞動極可能削弱人的求知動力和創(chuàng)造欲求,影響知識生產(chǎn)者的積極性和成就感,導致人生意義的喪失和自我價值的失落,還可能導致整個社會對知識的重視程度降低。因為當知識不再被視為一種寶貴的資源時,人們就不再愿意投入時間和精力去學習和探索新的知識,從而限制了整個社會的知識進步。
知識通脹的另一種危害是對人造成日益深重的信息過載。生成式大模型所生產(chǎn)的知識種類繁多、數(shù)量龐大且更換迅速。在知識大量生成的背景下,優(yōu)質(zhì)知識被淹沒在信息的海洋中,難以得到有效的傳播和關注,使人在魚龍混雜的海量知識信息中眼花繚亂,難以篩選出有價值的內(nèi)容;人們面對無限膨脹的知識,很難聚焦于真正重要的內(nèi)容。隨著知識數(shù)量的爆炸式增長,許多信息實際上是冗余的、重復的,甚至是相互矛盾的。過多的信息也會使用戶感到困惑或難以消化,導致認知負擔過重,使人們在獲取知識時需要付出更多的努力和時間成本,增加了學習的難度和壓力;此外,還會因為篩選和甄別信息的難度增加而導致決策失誤和資源浪費。
知識通脹還間接地帶來了知識的版權和責任問題。利用人工智能生成大量的內(nèi)容時,往往會涉及復雜的版權歸屬問題。一些知識傳播平臺(如學術期刊)禁止刊登生成式大模型所生成的內(nèi)容,即使引用也不行,這難免會讓參與人機合作進行知識生產(chǎn)的人產(chǎn)生這樣的疑惑:在人借助知識機器所生成的內(nèi)容產(chǎn)品中,誰的貢獻更大?這些內(nèi)容品所表達的是我的還是智能機器的觀點和看法?一些參與者在有利的情況下,可能傾向于將使用大模型生成的內(nèi)容作為自己的自主知識成果,而當在知識內(nèi)容審核中發(fā)現(xiàn)錯誤時,則將問題歸咎于智能機器的“幻覺”,這就是知識與責任的異化:隨著人工智能在知識生產(chǎn)中的參與度提高,責任歸屬變得模糊,在享受成果和承擔責任之間出現(xiàn)了新的不平衡。當人工智能生成的知識產(chǎn)生問題或爭議時,很難確定責任方(究竟應該由模型開發(fā)者、使用者還是模型本身來負責),這無疑是生成式大模型對知識產(chǎn)權的概念厘定與實踐操作所提出的挑戰(zhàn),也是知識與產(chǎn)權或責任之間的一種特殊的異化情形。
伴隨知識通脹而來的知識在功用上的失效或貶值,還形成了知識權力上的失衡。經(jīng)濟領域中的通貨膨脹通常會導致貧富差距的擴大,知識生產(chǎn)領域中的知識通脹也會導致類似的結(jié)果。大模型的開發(fā)和應用需要大量的數(shù)據(jù)和計算資源,這使得只有少數(shù)頭部企業(yè)或大廠才擁有研發(fā)大模型的雄厚實力,從而使相應的知識生產(chǎn)技術集中在少數(shù)企業(yè)手中。它們通過收費服務或廣告業(yè)務等獲取巨大的收益,使得使用大模型的知識生產(chǎn)者所創(chuàng)造的知識(如軟件代碼、文章、設計等)不再屬于他們自己,而是被企業(yè)或其他機構所控制。如同數(shù)字勞動的數(shù)據(jù)歸數(shù)字資本家所有一樣,知識勞動者很難從他們的知識勞動中獲得相應的認可或回報。這也是知識權力的一種不平衡。更廣義地說,只有掌握技術和資源的人或組織能夠有效利用大模型,從而掌握知識生產(chǎn)的主動權,甚至可能形成知識壟斷,加劇社會不平等,這也是知識權力對普通社會大眾所造成的一種知識異化。
五、 結(jié) 語
歸結(jié)以上的分析,生成式大模型所帶來的知識異化主要體現(xiàn)為知識主體的失能、知識內(nèi)容的失真和知識價值的失效三個方面。
面對知識主體的失能型異化,我們要看到:一方面,隨著生成式大模型在知識生產(chǎn)中的應用越來越廣泛,知識生產(chǎn)主體的角色也必然發(fā)生新的變化,人不再是唯一的知識生產(chǎn)者,而是與人工智能共同協(xié)作,甚至在某些情況下還會被人工智能所取代。另一方面,這種變化要求人類必須適應新的知識技術范式,并積極主動地構建一種人機合作的知識生產(chǎn)模式。在這種模式下,人類需要確保自己的主體地位,將提出任務、目標的“權利”留給自己,并負責提供創(chuàng)意、靈感和決策等高層次的知識生產(chǎn)活動,而讓人工智能主要負責處理大量數(shù)據(jù)、進行精細計算和輔助創(chuàng)作等低層次或重復性的工作。這種合理分工和高效協(xié)作可以充分發(fā)揮人類和人工智能的各自優(yōu)勢,提高知識生產(chǎn)的效率和質(zhì)量。同時,人類也需要不斷提升自身的技能和素質(zhì),以應對人工智能帶來的挑戰(zhàn),并將這種挑戰(zhàn)轉(zhuǎn)變?yōu)檫M一步發(fā)展自己、提升能力的新機遇。
面對知識內(nèi)容的失真型異化,需要圍繞提升知識質(zhì)量而采取一系列措施,如:不斷改進模型的架構,加強模型的可解釋性和可控性(如使用模塊化或分層的模型設計,以便更精細地控制信息的流動和處理),引入人工審核和專家驗證機制,將外部知識庫或常識性信息融入模型中,通過提供額外的監(jiān)督和指導,幫助模型更好地理解世界的基本規(guī)律和事實;優(yōu)化大模型的訓練數(shù)據(jù)集(如對訓練數(shù)據(jù)進行徹底的清洗,去除錯誤、矛盾或低質(zhì)量的數(shù)據(jù)),通過使用多樣化且豐富的數(shù)據(jù)集進行訓練,以涵蓋更廣泛的情形和場景,提升知識多樣性;引入更多真實世界的數(shù)據(jù),特別是針對特定領域或任務的數(shù)據(jù);推動跨學科研究和深度學習技術的進一步發(fā)展,不斷完善大模型的設計和應用場景,定期監(jiān)控模型的性能和輸出,根據(jù)反饋對模型進行微調(diào),包括鼓勵用戶提供關于模型輸出的反饋,并將這些反饋納入模型的迭代過程中,通過這些措施來及時發(fā)現(xiàn)并糾正模型的“幻覺”現(xiàn)象。通過這些努力,可以在保持生成速度的同時,不斷改進其性能和準確性,促進知識的健康發(fā)展。
面對知識價值的失效型異化,需要加強人工智能技術的監(jiān)管和評估體系,確保生成的知識符合一定的質(zhì)量標準和倫理要求;還需要推動知識篩選和推薦技術等知識管理工具的發(fā)展,幫助用戶快速找到有價值的信息和內(nèi)容。同時,加強教育和引導,提高公眾對高質(zhì)量知識的辨識能力和追求意識,學會在知識通脹的背景下選擇有價值的知識,不斷提高這種選擇的準確性和有效性;通過政策引導和激勵措施,促進知識的共享和平衡發(fā)展,確保不同社會群體和個體都能夠平等地獲取和使用知識資源,以縮小知識鴻溝和減少社會不平等。
總之,生成式大模型時代的知識異化是一個新出現(xiàn)的社會現(xiàn)象,它反映了技術進步與人的發(fā)展之間的復雜關系。從總體上看,生成式大模型中的知識異化是知識生產(chǎn)變革中的次生支流,不是主流,不能因此而否認生成式大模型的知識革命意義和積極進步價值。當然,從未雨綢繆的意義上來說,我們在享受人工智能技術帶來的便利和效率的同時,也需要警惕其可能帶來的負面影響和挑戰(zhàn)。基于一種全面的辯證的視野,則需要看到生成式大模型的能力增強并不意味著人類將完全失去在知識生產(chǎn)中的作用。相反,人類可以通過與人工智能的協(xié)作和互補,共同推動知識生產(chǎn)的進步和發(fā)展。通過加強技術研發(fā)的倫理約束、價值對齊以及加強人類自身的教育和素質(zhì)提升等措施,我們可以努力構建一個人機和諧、人與人工智能相互包容、可持續(xù)發(fā)展的未來社會。
An Analysis of Generative Large Models and Knowledge Alienation
XIAO Feng
School of Marxism and Institute of Intelligent Philosophy and Culture,
Shanghai University, Shanghai 200444, China
Knowledge alienation refers to negative effects that human created knowledge turns into an alien force, controlling and weakening human’s own status and abilities. Artificial intelligence, especially generative large models, as powerful tools for knowledge production, actively improves human knowledge labor levels, while also contains various possibilities of knowledge alienation, including “disabled” knowledge subjects, “distorted” knowledge content, and “ineffective” knowledge value. In the era of generative large models, it is necessary to carefully analyze and deal with the phenomenon of knowledge alienation mentioned above in order to enable artificial intelligence to better play a positive role in promoting human and social development.
knowledge alienation; generative artificial intelligence; large models; knowledge production
責任編輯:曾 靜