內容摘要:以ChatGPT為代表的生成式人工智能技術正表現出強大的知識生產與傳播能力,或對人類知識體系產生難以捉摸的影響。從社會知識論與知識社會學的視角,可以分析ChatGPT作為構建和傳播知識的社會行動者之理論合法性及其潛在影響:它的確在理想情況下為促進知識交流與融合、培育出更高層次的集體智慧創造了機遇,但在社會現實與技術發展交織的情況下,它同樣也可能會走向“眾智連接”的反面——俘獲知識權力、發展出后人類意義上的硅基知識寡頭;將知識倫理、媒介倫理融入預判性技術倫理的框架中,有助于調適社會化技術融于知識社會化進程時的張力與矛盾,進而有助于更好地厘清、定位人工智能體介入知識網絡后帶來的人類知識危機。
關鍵詞: ChatGPT;生成式人工智能;社會知識論;知識生產;知識傳播;技術倫理
課題:國家社科基金重大項目“智能時代的信息價值觀引領研究”(編號:18ZDA307)
DOI:10.3969/j.issn.2095-0330.2023.06.002
ChatGPT與其背后的GPT技術(GenerativePre-trained Transformer,基于Transformer架構的生成式預訓練模型)已經引發全球關注。由于吸納了Wikipedia等眾多知識性資源,且支持自然語言問答,ChatGPT自問世以來,其豐富的知識庫使其成為“激發生產力和人類創造力的巨大引擎”,它在知識生產、傳播上的功能性地位亦逐漸獲得認可。
然而,在討論以ChatGPT為代表的生成式人工智能與人類知識體系時,一些問題亟待提前厘清:首先,ChatGPT所生產、傳播的內容是否可以稱為“知識”?換言之,如何從已有的知識論上定位ChatGPT所參與生產、傳播的內容?這是需要解決的第一個問題;其次,如果承認其內容作為知識的“正當性”,它所擁有的“知識”與現有的人類知識、文明體系有何基本關聯?這是接踵而至的第二個問題;最后,一個不得不思考的問題在于,它所主導的知識體系會對人類主導的知識體系產生哪些可能的影響?它是否會促進知識的交流與融合,抑或俘獲知識權力、壟斷知識的社會化進程?盡管仍有不少觀點謹慎地將ChatGPT視作弱人工智能,但為了面對知識領域可能出現的“科林格里奇困境”,在人工智能技術的知識能力愈來愈突出的背景之下,前置這些思考有其重要價值。
一、人機共生時代的知識生產與傳播:社會化的技術和知識的社會化
何謂知識?這是在探討知識與人工智能之前必須要引入的一個重要問題。實際上,關于知識的知識,即知識論,人們對其莫衷一是:過去相當長的歷史時期內,《泰阿泰德》(Theaetetus)中關于知識的定義“得到證成的真信念(justified truebeliefs)”受到傳統知識論者的推崇 。但隨著20世紀60年代“蓋梯爾問題”的提出,人們意識到傳統知識論對知識的三元定義存在不足:即便保證了“證成”“真”“信念”,人們也可能得不到知識;對知識定義的完善需要通過附加或者完全替換知識的必要條件來實現。傳統的知識論自此面臨挑戰,超歷史的元知識概念、純理性的邏輯化傳統等使得傳統知識論招致批評。作為非主流的一些論調,如從生理、心理的個體認識論傾向進入的自然主義認識論(naturalism in epistemology)、從社會歷史的社會認識論角度進入的語境主義認識論(contextualismin epistemology)等得以重新活躍于理論視野,對知識產生、傳播、接受的動態過程展開闡釋。
隨著人類社會步入技術高速發展的大圖景之中,非人存在(nonhuman),如機器與技術、動植物與生態環境等,作為意義建構之行動者的地位得到了關注。其中,機器與技術對人們知識與認知構建上的功能在彼得-保羅·維貝克(Peter-Paul Verbeek)關于非人本主義的道德示例中即有跡可循——諸如超聲波這樣的技術徹底改變了人類對妊娠、疾病與生命的感知與體驗。當前人類的知識體系面臨新變局,知識創新走向人機協作的新階段;智能技術正從內涵、類型、范圍、生產模式、表征和結構等多向度改變當代的知識,革新我們對于知識的基本觀念。
正因如此,從人類的邏輯、理性與生理、心理等出發的知識論在當今現實中遭遇了解釋力上的考驗——當機器與技術可能(或已經)成為影響人類知識生產與傳播的重要主體,理性邏輯以及生理、心理等自然性因素何以觀照知識體系中的非人部分?反觀社會知識論(social epistemology),它對于思考當下人機共生的局面仍葆有解釋力與生命力:區別于其他知識論觀點,社會知識論者反對個體主義將知識視為孤立個體心智運作后的結果,而將其視為一種社會共識和社會系統,重點考察“知識在社會層面的概念和規范”。社會因素對知識確證的影響在社會知識論之下既已明確,被“社會化”高度建構的機器與技術得以自然地進入關于人機共生時代知識生產、傳播的討論之中;換言之,在人機共存的智能社會,機器與技術作為超越人類生命的新社會主體理應被納入關于知識社會化的討論中。
需要說明的是,社會知識論在經驗方面植根于知識社會學(sociology of knowledge)。故從社會知識論進入探討人機共生時代的知識生產與傳播,應循知識社會學對知識的界定進行考察——既包括一般的科學和理論知識,亦包括思想、觀念,以及用以指導日常生活的常識,這為本文所探討的“知識”劃定了邊界。
二、作為知識主體的ChatGPT:人工智能與人類知識 何以關聯
基于社會化的技術和知識的社會化兩個層次,前文表明了在社會知識論視野下,機器與技術的視角不應缺位于當今智能社會知識生產、傳播的討論之立場。但當觀察將視角移至具體的人工智能技術,試圖闡述ChatGPT在知識生產、傳播上的功能與影響時,有必要再回應一個問題:以ChatGPT為代表的人工智能與人類知識有何關聯?
就一般意義的人工智能技術而言,人工智能與人類知識之間至少存在兩個維度上的關聯:一方面,知識本身構成人工智能的基礎內涵。尼爾斯·尼爾森(Nils Nilsson)很早便表示人工智能即一門“關于知識的科學,其本質是關于如何表示、獲得、利用知識”。知識是智能的基礎,沒有人類預存的知識,就談不上評價機器表現出的智能。 人工智能的三大流派——符號主義(指名)、行為主義(指物)、聯結主義(指心),雖各有其技術主張,但對知識表征(knowledgerepresentation)的追求未有止步,都長期致力于尋覓更優的數據結構,以更好地符號化、形式化或模型化人類知識,充分發揮機器的計算能力。
另一方面,知識發現(knowledge discovery)是人工智能的重要外延。如將邁克爾· 波蘭尼(Mi c h a e l P o l a n y i ) 顯性知識( e x p l i c i tknowledge)與隱性知識(tacit knowledge)的二分思路置于人工智能的語境下思考:人類的顯性知識在恰當的知識表示方法下可由機器習得,進而用于服務人類決策;至于人在感覺上可以把握卻無法清晰描述、表達的隱性知識,在人工智能技術加持的知識發現與數據挖掘過程中則有轉化成顯性知識的可能。除了人類知識的轉化和發現外,一種與人類知識平行的機器知識(machine knowledge)也在人工智能的發展中不斷被發掘和完善,如在知識蒸餾(knowledge distillation)的深度學習過程中,“教師—學生模式(teacher-studentmodel)”會將訓練好的模型里包含的知識性信息(如模型參數)提取、泛化至其他模型中,形成一個由“教師模型”類人化地向“學生模型”傳授“知識”的過程。 這一過程中被轉移的“暗知識(dark knowledge)”具備知識的一般屬性,且同樣是從人工智能的訓練過程中被發現,但它往往不在人類可把握、理解的知識范疇內,有學者將其視為機器知識的一種典型。
就ChatGPT的實際情況而言,它對于人類知識的學習和吸收已到達了較高的水準——對于這一水準的評判來自兩個層次:參數與數據。作為一個大語言模型,GPT的性能通常隨著向模型添加更多數據和參數而得到擴展。目前,ChatGPT在不同版本中接入了GPT-3.5和GPT-4兩個模型:前者的參數數量達1750億,訓練集的token數量達4990億,其數據源來自Common Crawl數據庫、WebText數據集、英文維基百科、書籍期刊,這其中僅蘊含在書刊內的知識就已超出一般個人的知識水平;后者的參數數量和數據集大小雖暫未得到官方說明,但就其表現而言,GPT-4在多個測試集上表現出SOTA(state of the art)水準,且在多個學科領域的考核中表現出超越80%人類應試者的水平,這些數據在一定程度上表明GPT技術對知識的掌握與利用不僅已經開始超出同類大語言模型,還超出大多數人類個體。
與此同時, C h a t G P T 還在強化學習技術的加持下, 從與人類的對話中動態地習得其不知曉的知識或修正自身錯誤的“ 幻覺(hallucination)”——譬如此前用戶在GPT-3上發現了其在計數能力上的缺憾,但最終在對話引導下修正了其計數結果,這是技術在與人交互時進行知識發現、學習的一個實例。在技術層面,基于人類反饋的強化學習方法(ReinforcementLearning from Human Feedback,RLHF)已經被嵌入ChatGPT之中,現有技術條件可以保證會話式的人工智能系統在RLHF機制下實時更新其知識體系,并在后續的交流中改進其反應。
人工智能以知識的表示、獲取、應用為依歸。技術的角度進一步說明,從知識的角度進入并觀察人工智能的技術本質和社會影響是一條天然的進路:一方面,人工智能的發展要旨就在于不斷完成對人類既有知識的收集、學習與內化; 另一方面,人工智能在輔助轉化隱性知識、生成自有知識上已經表現出一定能力。以ChatGPT為代表的人工智能體已然成為當代知識體系中的重要行動者,它們在學習、利用、傳播人類既有知識的同時,也參與挖掘甚至自行生產知識,其作為知識主體的地位理應得到認可。
三、眾智連接的可能:知識社會化的愿景
以ChatGPT為代表的人工智能作為知識生產者與傳播者的地位得到論證,思考它們可能為人類知識體系創造出的變局便成為題中之義。如前所述,ChatGPT之于知識體系的功能不僅限于內化與繼承,還在于創新和發展。這一論斷的實質建立在知識社會化生產的愿景之上:知識是社會的產物,在社會互動中產生、傳播;作為智能社會的行動者之一,以ChatGPT為代表的人工智能技術接入了知識生產、傳播的社會網絡之中,得以同人類一道參與知識的社會化進程。
伯格(Peter L. Berger)、盧克曼(ThomasLuckmann)在闡述知識的社會化過程時引入了社會知識庫(social stock of knowledge)的概念:他們認為語言以及由語言形成的語義場將個人與社會總體經驗客觀化,并決定了經驗的留存,最終形成社會知識庫。過去,我們可能認為人類語言是一種獨特的人類產物,“語言所表達的,即社會作為一個整體借以表現經驗事實的方式”。對于一個有語言能力且具備生產、傳播知識功能的人工智能體而言,ChatGPT正展現出將伯格、盧克曼所述的社會知識庫實體化的能力:作為大語言模型,GPT技術本身在語言理解能力上具備優勢,對社會知識庫背后的語言及語義場有兼容、擴展的可能,它內化人類歷史的知識體系,又在互動中實時學習用戶的輸入和反饋,從中挖掘知識;這些知識包括已為人類所把握、所表達的顯性知識,亦包括為人類所把握但尚不能清晰傳達的隱性知識,最終在交互中實現傳遞,實現知識的社會化分配。
事實上,這種“眾智連接”的理念在Web2.0時代就得到過實踐,即在互聯與社交中發展所謂的“集體智慧(collective intelligence)”——一種從個體互動中涌現的、不斷增強和協調的分布式智慧,如維基百科等集體知識庫、Topcoder等眾包平臺、微信讀書等社會化標注應用、IMDb等推薦平臺等均貢獻了豐富的集體智慧。在生成式智能獲得大規模社會化應用的背景之下,“眾智連接”的愿景被賦予了更多可能:
首先,“眾智連接”主體的異質化。集體智慧下的個體(individuals)不再僅僅局限于人,也可以是機器代理(software agents)。集體智慧的產生不再簡單依靠維基人(Wikipedians)之間的知識共創模式,機器與人以及機器與機器(如“暗知識”的傳遞)之間同樣可以實現集體智慧的無縫集成。對于ChatGPT而言,機器與人之間知識的交流協作案例不勝枚舉,機器與機器之間的智能交流亦有案例,如ChatGPT與Stable Diffusion等其他生成式智能模型之間實現功能嫁接,提高多模態內容的生產能力。
其次,“眾智連接”模式的智能化。必須承認,Web2.0時代的“集體智慧”并非沒有智能技術的參與,例如谷歌利用搜索引擎記錄下的集體知識和數字痕跡,為用戶在搜索欄中輸入的問題提供智能推薦、補全等功能,這是智能技術銜接眾智的一個表現。但是一方面,這種基于推薦算法的偏好預測結果是否可以稱得上一種“集體智慧”或“公共知識”有待考量;另一方面,各地用戶在與ChatGPT的對話中輸送了大量的地方知識,借助數據挖掘技術,這些由用戶輸入的智慧可在模型微調和迭代過程中形成結晶化的知識(crystallizedknowledge),進而反映到后續的模型中,這在推薦系統中難以實現。
最后,“眾智連接”效果的擴大化。大語言模型的規模在超過該閾值后,其在少樣本學習(few-shot prompt)、多步推理(multi-stepreasoning)、模型校準(model calibration)等方面的能力將涌現,即以人類不曾預測和把握的形式,突然地出現、提升; 且模型規模越大,其記憶速度越快、遺忘內容越少。 在學習、推理、校正、記憶知識方面勝過GPT-3.5的GPT-4嵌入ChatGPT,極大地增強了ChatGPT學習、發現、傳播知識的效能。綜上,大模型時代集體智慧的產生與發展是我們置身小模型時代難以想象的。
ChatGPT技術上的進步及其社會化的應用為智能時代的集體智慧發展提供了新的進路,創造了知識社會化生產、傳播的新愿景:人與人、人與機器、機器與機器之間的知識得以貫通,塑造出一個龐大、多元且有自進化能力的社會知識庫。但過去集體智慧的發展經驗提醒我們,協作化的知識生產本質上是社會共識的生產,僅從技術層面做出“眾智連接”的遐想或許會導致一葉障目——機器只是諸多行動者中的一員,技術也僅是社會系統中的一部分。過去的觀點認為集體智慧的生成需在多樣化(diversity)、獨立化(independence)、去中心化(decentralization)的環境下;另有學者為集體智慧提煉了四項基礎原則:開放化(openness)、對等化(peering)、共享化(sharing)和全球化(actingglobally)。不難看出,“集體智慧”這一概念的發展同樣暗合社會知識論與知識社會學的主要邏輯:即知識是社會的政治、經濟、文化、科技等要素作用下的社會產品,對知識的生產、傳播的考察要放置在整體性的社會背景之下。目前就ChatGPT的技術特性來看,它確有可能引領“眾智連接”的局面出現;但當其與其所處的社會系統在運行邏輯上有悖于集體智慧之開放、對等、共享、全球行動等原則時,“眾智連接”將會受阻甚至出現逆轉。
四、知識寡頭的風險:技術社會化的隱憂
知識權力的集中,即知識壟斷,是集體智慧的反面,曼海姆(Karl Mannheim)的“知識的政治”主張、福柯(Michel Foucault)的“知識—權力”理論,都為知識社會化進程中暴露出的權力偏向提供了洞察。“眾智連接”是ChatGPT作為知識主體與人類知識體系相融后的一種開放愿景,但當人工智能及其所處的環境與集體智慧發展的原則與條件形成沖突時,它本身作為巨量知識庫的屬性有可能會將其推至“眾智連接”的反方向,變為硅基(silicon-based)意義上的知識權力中心,成為新的“知識寡頭”。
之所以強調ChatGPT作為知識寡頭之新,是因為此前知識社會化的進程實際上也是各類知識寡頭產生的進程。就前ChatGPT時期而言,全球知識體系的早期形成有賴于作為主體的大學和學術社團、作為中介的大型學術出版商,以及作為通用方式的科學知識驗證、求真和論證,知識最初于這樣的條件下在全球范圍內得以產生、確證和傳播,大學及其雇傭的專業人員、學術期刊、圖書館等壟斷了當時的知識生產,主導了知識分配的進程。隨著技術革新,Web2.0時代看似變革了原來的知識權力結構,雖然數據上呈現出一派融合共生的樣態,但平臺資本主義其實讓數據庫、搜索引擎、網絡百科全書以及公共平臺成了新的知識寡頭,它們背后的系統性不平等被認為對全球知識生產系統造成了損害。
從當下知識生產、傳播系統中幾類知識分配主體的反應,我們可以較為直觀地察覺到ChatGPT對現有知識權力的沖擊,以及其發展成知識寡頭的可能性:部分大學正在形成反對ChatGPT進入校園的規章與制度,一些學術期刊開始禁止或限制ChatGPT以合作者的形式出現在學術文章中,StackOverflow等專業知識社區不允許上傳ChatGPT生成的內容……主流的知識分配主體正在對作為新型主體的ChatGPT發起密集的限制,這實際上都是知識權力體系面臨變革與更迭的重要信號。
當前,作為一項新興技術的ChatGPT仍然附著于平臺資本之上,深深根植于西方的社會土壤中,這決定了它成為區域性甚至全球性知識寡頭路徑的第一步:正如前ChatGPT時期由平臺資本培育出的知識寡頭們——谷歌搜索、維基百科和愛思唯爾、施普林格等大型學術數據庫那樣,它們主導的知識分配實際上是西方科技巨頭全球資本擴張過程的一個縮影;在這個過程中,它們不僅向全球用戶傳遞帶有西方文化烙印的知識與觀念,更是重新定義了多數人獲取知識的方式——當求知欲被激發時,“上谷歌、搜維基”已經成為很多人的定勢思維。目前,ChatGPT在某種程度上正在復制谷歌和維基百科的路徑,在全球范圍內高速收割用戶,人們“上谷歌、搜維基”的慣性或正在被“問ChatGPT”打破。
這種附著在特定社會環境與平臺資本上所形成的認知寡頭養成路徑是需要被關注的。前文提及的數據庫、搜索引擎等在各自的全球擴張進程中屢次受到西方中心主義的質疑和詰問,事實上,它們的確將一些西方的、北方的偏見包裝成知識,在促使東方、南方對其知識權力形成依附后將這些偏見散布出去,這其實也就是曼海姆所言的知識之社會性、偏向性或意識形態性。 此外,除了促成對知識權力的依附之外,這種知識寡頭還可能直接造成對知識的封鎖與阻斷,這在ChatGPT此前的一些舉動上已經可見苗頭——ChatGPT及其開發者OpenAI封禁了大量亞洲節點,這在客觀上造成了知識獲取與交流的困難。
但如果對ChatGPT等人工智能技術可能形成的知識寡頭之思僅止步于此,那么ChatGPT與谷歌搜索、維基百科將不會產生差異。而很顯然的是,前者與后兩者在智能化程度上已有顯著差異,GPT等智能技術在協助知識被發現、生成自有知識上已經展現其能力,賦予了ChatGPT在知識創造、傳播上的主體性。知識社會學的基本觀點需要我們保持邏輯的連貫性:如將一個具備知識創造、傳播能力的人工智能體視為實然的社會行動者,其對知識可能產生的影響需要仔細考慮。
走過成為知識寡頭的第一階段,即附著于特定社會土壤和平臺資本上,對全球知識權力體系進行占領后,ChatGPT還有可能走向其作為知識寡頭的第二階段:在這一階段,知識寡頭這一概念直接指向機器知識與人類知識之間的關系。正如計算機科學家史蒂芬·沃爾弗拉姆(StephenWo l f r am)所言,一個如天氣那般具有計算不可約性(computational irreducibility)、與人類文明平行的“AI文明(civilization of AIs)”正在形成, 它獨屬于人工智能體的歷史網絡(web of history);當人類抵達技術奇點后(technological singularity),包括人類知識在內的一切人類主義敘事都有可能失去描述與解釋的效力。當前在人工智能發展的過程中,不論是模型擴大涌現出的各類能力,還是模型壓縮過程中出現的“暗知識”,實際上已經都超出了人類既有知識可以解釋和預測的范疇。計算機科學家正在嘗試整理、解釋大語言模型的涌現能力,形成相關的理論和知識,這實際上是人類知識對不可解釋的機器知識進行轉譯。
這種立足于智能和技術邏輯之上的認知寡頭養成路徑同樣值得關注,它關乎知識生產中人的主體性危機與人本主義的存在危機。一方面,這種知識寡頭的出現重新定義了知識觀:人工智能中不可解釋但又確然發生的現象顯然不能被忽略,但對它的解釋是對人類知識的補充,還是對機器知識的注解,這需要辨明。簡而言之,這些是否還屬于知識的范疇?如果是,這是屬于誰的知識?另一方面,這種知識寡頭的出現標志著中間組織(intermediate group)的解體與重塑,或重新書寫了知識社會化的效果與方式:GPT技術目前尚未完全解決“幻覺”與抄襲的問題,若其知識寡頭的地位得到確立,由GPT技術主導的知識生產與傳播有可能會將知識社會化推入謬訊誤訊頻發與知識循環復制的怪圈之中;此外,此前人類知識的交流仍在人群中完成——人們一起聚在各式平臺上相互補充、糾正,形成開放、供參閱的知識;但當人們開始轉向和ChatGPT“取經”,在一方小小的界面中與機器完成知識的交流與共創,人類的知識社區或將就此沒落,人在知識生產這一維度上將走向原子化(atomization)。
五、知識危機的消解:預判性技術倫理與知識倫理、媒介倫理的融合
本文從社會知識論與知識社會學的視角進入,將ChatGPT代表的人工智能技術視為構建和傳播知識的重要社會行動者之一,闡明了ChatGPT介入社會知識生產網絡后可能帶來的兩種局面——它在理想情況下可以促進知識交流與融合、培育出更高層次的集體智慧,同樣也有很大可能會在社會現實與技術發展的交織下俘獲知識權力、發展出后人類意義上的硅基知識寡頭,這樣會將知識生產、傳播推入危機之中。
傳統的人本主義倫理學往往主張在技術形成之后再根據其社會影響對其進行反思,這種后思式的外在路徑常遭到后現象與后人類主義者的批評。一些新倫理范式有益于改善人類對智能技術的滯后性調適。其中,荷蘭預判性技術倫理思潮即試圖對這種批評作出回應,主張以前瞻性和實踐性的思維評價技術的社會后果。例如,茨亞林·斯威斯卓(Tsjalling Swierstra)與卡廷卡·韋伯斯(Katinka Waelbers)綜合現況、能力、義務三個維度,與利益相關者(stakeholder)、后果(consequences)、美好生活(good life)三個層次設計了道德的技術調節矩陣(matrix for thetechnological mediation of morality)以幫助判別技術倫理風險;又如菲利普·柏瑞(PhilipBrey)圍繞危害和風險(harms and risks)、權利(rights)、分配正義(distributive justice)、幸福和公共利益(well-being and the commongood)四大維度羅列了詳盡的技術倫理清單。這些倫理學的理論工具本質上均系回應維貝克“道德物化(materialization of morality)”的非人本主義倫理學思想,即將機器和技術同樣視為重要的社會行動者,并通過技術設計賦予人工智能道德觀念,這對于規范ChatGPT這類一經發布便快速社會化的人工智能產品有了可操作性。但ChatGPT用戶眾多,知識生產、傳播只是其中一環,如要有針對性地化解可能的知識危機,還需要將知識倫理、媒介倫理融入其中。
知識倫理與預知性技術倫理的結合點在于,何以前瞻性地判斷一項智能技術被用于知識生產后可能帶來的價值與危害,包括是否可以形成特定知識、為何(不)需要形成特定知識、這種知識有何價值與問題、誰應當成為其知識價值與風險的責任主體等,進而更細致地思考特定知識對應的道德理想、學科歸屬、時代性、民族性等問題, 這實際上面向的是知識的倫理化問題;對應地,媒介倫理與預知性技術倫理的結合點在于,如何前瞻性地思考技術生成內容進入信息傳播可能帶來的價值與危害,包括是否可以傳播特定的人工智能生成信息、為何(不)需要形成特定人工智能生成信息、這種傳播信息有何價值與問題、誰應當成為其傳播價值與風險的責任主體等,這實際上面向的即媒介的社會化問題。
知識倫理與媒介倫理的引入對應著ChatGPT作為知識生產者與知識傳播媒介的雙重定位,它們融入預判性技術倫理的框架中將會有助于更好地厘清智能技術介入知識網絡后帶來的風險。就柏瑞的預知性倫理理論而言,將知識倫理與媒介倫理融入其中,ChatGPT在知識領域的倫理問題可以得到清晰定位:它在危害和風險層面上可能會表現出損害人類認知能力與社會知識體系兩種顯在風險,在權利上則有可能波及人作為知識生產主體的自主、尊嚴、知識產權,在分配正義上會出現知識傳播、分配上的不公、歧視以及封鎖等問題,在幸福和公共利益上則更有可能對知識社會化過程中的民主、多元造成損害。循著這些潛在風險,我們可進一步在柏瑞提及的技術(technology)、人工(artifact)、應用(application)三個層次,對技術本身、技術開發人員、企業與投資人、行業監管組織、使用者等多個主體展開倫理責任分配與風險追責。
誠然,隨著以ChatGPT為代表的生成式人工智能涌入知識生產、傳播領域,不論是其可能促成的美好愿景,還是可能釀成的壟斷風險,其實質還是在于社會化的技術融于知識的社會化進程時產生的張力與矛盾;故來自外部的倫理規約只是一道約束,如何將價值理性整合進人工智能的技術架構,讓智能體真正學習作為知識的德性倫理、價值觀與知識觀,并外化于實踐,這是需要重點思考的命題;否則,當人工智能體以硅基寡頭的形式占領知識生產與傳播的陣地時,一切或許只能期待“關機游戲(off-switch game)”或“紅色按鈕(bigred button)”的啟動。
(作者陳昌鳳系清華大學新聞與傳播學院教授、博士生導師;黃陽坤系清華大學新聞與傳播學院2022 級博士研究生)