自2017年谷歌團(tuán)隊(duì)在《注意力即為你所需的一切》(Attention IsAllYou Need)一文中提出用“Transformer\"取代卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)兩種深度學(xué)習(xí)模型后,再次將人工智能在自然語言處理(NLP)領(lǐng)域推向高潮。Ope-nAI公司于2018年開發(fā)第一代基于該架構(gòu)的自然語言處理模型一 一ChatGPT,經(jīng)過5年的不斷訓(xùn)練與優(yōu)化后已經(jīng)更新至第四代版本,該模型不僅可以完成諸多理性任務(wù),自動生成更加流暢、高質(zhì)量的自然語言文本,如對話、文章、新聞報(bào)道等,甚至可以解決 100 % 的“意外遷移任務(wù)”和 90 % 的\"錯(cuò)誤信念任務(wù)”。正如斯坦福大學(xué)計(jì)算心理學(xué)家米哈爾·科辛斯基(MichalKosinski)所言:“這將預(yù)示著人工智能發(fā)展的一個(gè)分水嶺:推斷他人心理狀態(tài)的能力將極大地提高人工智能與人類(以及彼此)互動和交流的能力,并使其能夠發(fā)展其他依賴心智理論的能力,如共情、道德判斷或自我意識。\"①ChatGPT能否在感性方面恢復(fù)人類思維和AI之間的隱喻聯(lián)系,即是否擁有讀心能力,成為討論的熱點(diǎn),并掀起了爭論。
一、ChatGPT讀心之爭
“ChatGPT”作為一個(gè)自回歸的大語言模型,相較于一般的生成式AI而言,它更具交互性和智能性。該模型已經(jīng)具備了強(qiáng)大的自然語言處理能力,當(dāng)研發(fā)人員進(jìn)一步探討其是否具備感性能力時(shí),在“ChatGPT能否讀心\"這一問題上引發(fā)了爭論。
(一)ChatGPT能讀心
ChatGPT在一些場景下能夠產(chǎn)生類似于人類反應(yīng)的響應(yīng),對他人心理活動進(jìn)行預(yù)測,甚至能與人進(jìn)行高效溝通。研發(fā)人員通過對比ChatGPT的不同版本后發(fā)現(xiàn),隨著模型不斷提升自身的復(fù)雜度,它解決與心理有關(guān)的問題的能力也在不斷提高。據(jù)此,他們認(rèn)為該模型具備“讀心\"的能力。
美國得克薩斯大學(xué)奧斯汀分校的研發(fā)人員在《自然神經(jīng)科學(xué)》(NatureNeuroscience)期刊發(fā)表了《從非侵入性大腦記錄中重建連續(xù)語言的語義》(Semantic reconstruction of continuous language fromnon-invasivebrainrecordings)一文,聲稱他們研發(fā)出一種名為無創(chuàng)解碼器的人工智能系統(tǒng),該系統(tǒng)部分依賴于LLM(LargeLanguageModels),而這正是ChatGPT運(yùn)行的基礎(chǔ)。研發(fā)人員讓被試躺在功能性磁共振(fMRI)機(jī)器中,在接受掃描的同時(shí)從耳機(jī)中聽取播客(Podcast)故事。他們將被試的fMRI數(shù)據(jù)所顯示的大腦活動與播客故事里的語言特征聯(lián)系起來,通過記錄這種皮層語義表征來重建連續(xù)語言,使得被試可以理解單詞序列、感知中的或想象中的語音甚至是無聲視頻的含義。實(shí)驗(yàn)結(jié)果顯示,這一系統(tǒng)雖然達(dá)不到 100 % 的準(zhǔn)確度,但是它能夠讀出被試大腦中的故事大意。這種語義解碼器證明了非侵入型腦機(jī)接口的可行性,為ChatGPT等語言模型提供了可以讀心的有力證據(jù)。
摩根大通公司約瑟夫·勒普頓(Joseph Lup-ton)等經(jīng)濟(jì)學(xué)家在ChatGPT的基礎(chǔ)上推出解碼央行鷹鴿的Robo-Fedwatchers模型。該模型通過回溯和學(xué)習(xí)美聯(lián)儲過往25年央行官員在宣布政策或講話時(shí)的表情與音調(diào),旨在揣摩并破譯美聯(lián)儲官員釋放的潛在交易信號,最后根據(jù)所謂的\"鷹鴿評分\"(Hawk-DoveScore),對政策信號進(jìn)行從寬松到緊縮的評級分類,高效預(yù)測利率政策出現(xiàn)變化的時(shí)間點(diǎn)。“鷹鴿評分”最初作為一種進(jìn)化的穩(wěn)定策略,“是一種程序預(yù)先編制好的行為方式。\"2188通過對老鷹與鴿子搏斗結(jié)果進(jìn)行賦分,使二者在比例上產(chǎn)生明顯的差別,從而保持進(jìn)化的穩(wěn)定性。當(dāng)官員在兩次政策會議之間講話的鷹派基調(diào)突然上升時(shí),Robo-Fedwatchers模型預(yù)測下一次政策聲明會變得更加鷹派,便于相關(guān)人員實(shí)施下一步計(jì)劃。經(jīng)濟(jì)學(xué)家將該模型指數(shù)與一系列資產(chǎn)表現(xiàn)進(jìn)行對比后發(fā)現(xiàn),其預(yù)測結(jié)果極具準(zhǔn)確性,且使得美聯(lián)儲等歐美主要央行的貨幣政策聲明變得更為通俗易懂,這種轉(zhuǎn)變也將有助于AI在這一領(lǐng)域中對大數(shù)據(jù)剖析時(shí)的應(yīng)用。以色列心理生物學(xué)研究中心的佐哈(ZoharElyoseph)及其團(tuán)隊(duì)利用情緒意識水平量表(LEAS)來作為一個(gè)客觀的、基于表現(xiàn)的測試并分析ChatGPT對20種情景的反應(yīng),在兩次測試中將其情感意識(Emo-tionalAwareness,EA)表現(xiàn)與一般人群的表現(xiàn)進(jìn)行比較。在第一次測試中,ChatGPT在所有LEAS表上的表現(xiàn)明顯高于一般人群(Z得分 = 2 . 8 4 )。在第二次測試中,ChatGPT的成績顯著提高,幾乎達(dá)到了LEAS的最高分?jǐn)?shù)(Z分?jǐn)?shù) = 4 . 2 6 ),其準(zhǔn)確率水平也極高(9.7/10)3。可見,ChatGPT等AI系統(tǒng)在轉(zhuǎn)換講話內(nèi)容及其隱含的情緒的\"讀心\"能力上,邁出了重要的一步。
斯坦福大學(xué)計(jì)算心理學(xué)家米哈爾·科辛斯基及其團(tuán)隊(duì)在ArXiv平臺提交了一篇名為《心智理論可能自發(fā)地出現(xiàn)在大型語言模型中》(TheoryofMind May Have Spontaneously Emerged in LargeLanguageModels)的預(yù)印本論文,他們發(fā)現(xiàn)Chat-GPT能夠完成經(jīng)典ToM(TheoryofMind,ToM)任務(wù),并針對這一情況推測ChatGPT能讀心。ToM是一種能將心理狀態(tài)歸因于自己或他人,并據(jù)此來預(yù)測和解釋人類行為的能力。該團(tuán)隊(duì)通過Smarties(意外內(nèi)容)任務(wù)和Sally-Anne(意外遷移)任務(wù)來訓(xùn)練ChatGPT的多個(gè)版本后得出結(jié)論:隨著ChatGPT版本的不斷更新,其完成任務(wù)的能力越強(qiáng),ChatGPT-4甚至可以解決 100 % 的Sally-Anne任務(wù)和 90 % 的Smarties任務(wù),在心智理論方面甚至可以和9歲的兒童比肩。事實(shí)上,這種心智理論問題在2018年DeepMind的計(jì)算神經(jīng)學(xué)家尼爾·拉賓諾維茨(NeilRabinowit)那里就初次顯現(xiàn)了,尼爾和同事設(shè)計(jì)了神經(jīng)網(wǎng)絡(luò)模型ToM-net,使其成功通過了一個(gè)類似“Sally-Anne\"的測試,認(rèn)為通過深度學(xué)習(xí)的方法可能足以讓AI具有心理能力。德國埃爾福特國際應(yīng)用科技大學(xué)的克里斯·蒂娜(KristinaSchaaff)等人就“共情能力\"對ChatGPT做出測試,結(jié)果表明在 9 1 . 7 % 的情況下,ChatGPT能夠正確識別情緒并產(chǎn)生適當(dāng)?shù)拇鸢浮T趯υ捴校珻hatGPT在 7 0 . 7 % 的情況下會產(chǎn)生類似的情緒反應(yīng)。4這意味著ChatGPT模型已經(jīng)達(dá)到了相應(yīng)的條件,符合“讀心”能力的部分要求。
通過上述模型的實(shí)驗(yàn)結(jié)果可以看出,ChatGPT已經(jīng)在很大程度上將計(jì)算機(jī)語言轉(zhuǎn)換為人能理解的自然語言,甚至是能夠作為實(shí)現(xiàn)人與人工智能高效交互的橋梁的心理語言。當(dāng)ChatGPT能夠生成類似于人的心理語言時(shí),就能認(rèn)為該模型擁有了“讀心”的本領(lǐng),但當(dāng)進(jìn)一步深究其內(nèi)在的運(yùn)行機(jī)制后,又引發(fā)了新推測,即ChatGPT不能讀心。
(二)ChatGPT不能讀心
ChatGPT在某些實(shí)驗(yàn)結(jié)果中顯得可以完成部分與心理有關(guān)的任務(wù),但究其根本,在進(jìn)行更深入的實(shí)驗(yàn)和分析后,認(rèn)為這種模型只是在\"Trans-former\"這一架構(gòu)的基礎(chǔ)上,形成一種\"大數(shù)據(jù) + 大模型\"的大規(guī)模生成型預(yù)訓(xùn)練范式轉(zhuǎn)變[5],目的在于通過AI\"深度學(xué)習(xí)\"后,生成人類可理解的自然語言。但這種生成是計(jì)算生成而不是智能生成,不能做到真正意義上的讀心。
本德爾(Bender,E.M)等人指出,像ChatGPT這類的生成式AI,就像是隨機(jī)鸚鵡,它們只是在不理解任何東西的情況下,依賴LLM模型來重復(fù)文本。ChatGPT只是基于自身的Transformer架構(gòu)來深度學(xué)習(xí),憑借其自注意力機(jī)制來進(jìn)行機(jī)械的重復(fù),實(shí)際上并不理解內(nèi)容及其意義。通過編碼器(Encoders)解碼器(Decoders)、前饋網(wǎng)絡(luò)(FNN)和自注意力機(jī)制(SA)四個(gè)部分來構(gòu)成預(yù)訓(xùn)練模型,在運(yùn)行過程中,首先要接受大量的自然語言文本數(shù)據(jù),采用一組預(yù)訓(xùn)練的參數(shù)來學(xué)習(xí)文本數(shù)據(jù)的統(tǒng)計(jì)分布;其次再從這些數(shù)據(jù)中學(xué)習(xí)語言的結(jié)構(gòu)和規(guī)則;最后根據(jù)已學(xué)到的知識和概率來對識別到的輸入語言生成響應(yīng)。該語言模型最大的特點(diǎn)是對詞語序列的概率相關(guān)性進(jìn)行建模,即根據(jù)輸入的語句來預(yù)測接下來不同語句出現(xiàn)的概率分布,塞爾(Searle,J.R)提出“中文屋(Chineseroom)\"的思想實(shí)驗(yàn),即假設(shè)不懂中文的塞爾被關(guān)在一間房子里,房間內(nèi)有一本可以解決中文問題的英語書,當(dāng)塞爾接收從門外遞進(jìn)來的中文紙條后,他能夠利用那本英語書來向門外遞出中文答案。經(jīng)過長期訓(xùn)練,門外的人很難從塞爾的答案中看出他不懂中文。但塞爾認(rèn)為這個(gè)類似于計(jì)算程序的“塞爾”并不具備真正的智能,因?yàn)椤皼]有一個(gè)程序憑借自身而對于意向性來說是充分的\"8],人類智能的本質(zhì)在于頭腦中的意向性,通俗來講就是理解現(xiàn)實(shí)世界的能力,而程序只是根據(jù)在純形式句法上進(jìn)行的計(jì)算操作來定義的,就算Chat-GPT等AI能夠完成一些智能任務(wù),也只是從計(jì)算主義的角度來簡單重復(fù)學(xué)習(xí)的結(jié)果,并不是從意向性出發(fā)來表達(dá)認(rèn)知,“讀心”也就更無從談起。
哈佛大學(xué)心理學(xué)系教授托默·厄爾曼(TomerUllman)等人就科辛斯基在ToM上的發(fā)現(xiàn)提出質(zhì)疑,認(rèn)為ChatGPT等LLM模型并不滿足ToM。厄爾曼在不違反心智理論基本原則的前提下,以GPT-3.5的ToM結(jié)果為閾值,向該大語言模型提出相對復(fù)雜的變體問題,利用經(jīng)過修改的ToM任務(wù)來測試GPT-3.5,找出了“物體可見性陳述”、“放置在物體上的無信息標(biāo)簽\"或“是由可信的人給出的信息\"等在測試中失敗的微妙條件②。厄爾曼指出,當(dāng)這些微妙條件不能被合理參考時(shí),GPT-3.5在分層或信息整合方面就存在疏忽或不連貫的問題。正如他陳述的那樣:“雖然像GPT-3.5這樣的LLM現(xiàn)在會對基本的ToM小插曲作出合理的反應(yīng),但保持ToM原理不變的簡單擾動會顛覆它們的答案。”③比較心理學(xué)奠基人勞埃德·摩根(C.LloydMorgan)對動物心理進(jìn)程的理解也可以為這種觀點(diǎn)提供一些新的思路。他認(rèn)為,如果一種動物的行為可以通過低級別的心理進(jìn)程來解釋,那么就不應(yīng)該將其解釋為更高級別的心理進(jìn)程。0]動物完成“心智理論\"實(shí)驗(yàn)其實(shí)是一種通過機(jī)械的條件反射過程,而非推斷其他客體的內(nèi)心狀態(tài);且動物或許是根據(jù)研發(fā)人員的非語言信號進(jìn)行推斷,而非使用了“讀心術(shù)”。同理,面對ToM任務(wù)的實(shí)驗(yàn)結(jié)果,我們?nèi)匀粺o法斷定究竟是ChatGPT深度學(xué)習(xí)了“真實(shí)存在的規(guī)則\"才正確回答了問題,還是真的能“了解他人的想法”。而佐哈等人也提出,考慮到ChatGPT在與患者直接對話的背景下的相關(guān)性,盡管我們的研究結(jié)果表明,ChatGPT可以“理解\"對方的情緒狀態(tài),但尚不清楚人類患者是否會因其答案而感到\"被理解”,以及知道他們正在與AI聊天機(jī)器人而不是人類治療師交談是否會影響患者的可理解感。3但無論如何,目前ChatGPT也只能完成相對簡單的ToM任務(wù),而不能和人類一樣,擁有解決多元復(fù)雜問題的心智能力。
山西大學(xué)尤洋教授認(rèn)為,ChatGPT是將因果性識別為相關(guān)性,再對人類的因果推理能力進(jìn)行模擬,這種模擬只是在計(jì)算語言的生成中實(shí)現(xiàn)了與人類智能相關(guān)的表現(xiàn),并非在因果上擁有智能。這種相關(guān)性的表現(xiàn),從計(jì)算主義進(jìn)路來看,ChatGPT把心理狀態(tài)、活動和過程進(jìn)行符號式處理后形成計(jì)算機(jī)語言與數(shù)據(jù),通過計(jì)算來得到“認(rèn)知”;從聯(lián)結(jié)主義進(jìn)路來看,“實(shí)現(xiàn)機(jī)器智能的最快途徑是解決大腦的工作原理\"2,ChatGPT通過建模的方式,將算法、算力抽象為神經(jīng)元,通過構(gòu)建神經(jīng)元網(wǎng)絡(luò)結(jié)構(gòu)來展現(xiàn)智能。但無論是哪種方式,都只能說明相關(guān)性的架構(gòu)僅僅提供了一種邏輯上的工具,而不能解決丹尼特所說的人類智能生成的難題。人工智能在實(shí)際應(yīng)用中可能遇到的難題是“框架問題”,一個(gè)系統(tǒng)為了達(dá)到其目的,必須考慮與之相關(guān)的無數(shù)個(gè)可能的因素,但人類是為了達(dá)成目的而采取行動,并不是為了解決相關(guān)性的“框架問題”。也就是說,盡管在ChatGPT那里,計(jì)算主義和聯(lián)結(jié)主義作為邁向強(qiáng)人工智能的必要路徑,已經(jīng)為該模型提供了相關(guān)的內(nèi)容,但二者仍沒有制造出“懂因果推理”的智能體,甚至這種相關(guān)性因素還會使得ChatGPT有時(shí)會提供虛幻的反應(yīng),在基于知識的交互中更容易識別不正確的答案,而情感感知的反應(yīng)本質(zhì)上是主觀的,因此確定其正確性具有挑戰(zhàn)性,因此,ChatGPT仍無法擁有和人相同的讀心能力。
可見,隨著探究的深人,Transformer架構(gòu)、變體ToM任務(wù)、因果性等又為“ChatGPT不能讀心”這一假設(shè)提供了例證和推斷。但考慮到LLM自身的進(jìn)展速度,這些模型在未來的迭代中很可能會通過更多的心智理論模型的測試。這一令人不安的趨勢促使我們不斷地去驗(yàn)證其本質(zhì)上是否擁有讀心能力,因?yàn)檫@種AI所展現(xiàn)出的種種類似人類的感知與思維功能,反過來也能提供一種幫助人類認(rèn)識自我的可能性。
二、ChatGPT讀心的可證實(shí)性
從可證實(shí)性原則出發(fā),倘若“ChatGPT能讀心\"這一假設(shè)能夠經(jīng)得起經(jīng)驗(yàn)證實(shí)、實(shí)驗(yàn)檢驗(yàn)和或然性推論等方式的驗(yàn)證,即該假設(shè)被提出后,能夠允許被實(shí)際數(shù)據(jù)或?qū)嶒?yàn)結(jié)果支持,那么就能夠說明該假設(shè)成立。
(一)ChatGPT讀心的經(jīng)驗(yàn)證實(shí)
相較于其他的大規(guī)模語言模型,ChatGPT使用了多輪對話數(shù)據(jù)來進(jìn)行指令微調(diào),這使其擁有了建模對話的能力,能持續(xù)和用戶交互,輸出更符合人類預(yù)期的結(jié)果。這種通過大量指令激發(fā)的泛化能力在零樣本和少樣本場景下具有顯著優(yōu)勢,在未見過的任務(wù)上也可以有所表現(xiàn)。但正如石里克所言:“一個(gè)命題的意義,就是證實(shí)它的方法。\"[13]400一個(gè)命題或理論只有在經(jīng)驗(yàn)中找到根據(jù),才能稱作是有意義的、科學(xué)的命題。這意味著,只有ChatGPT能夠符合人們在經(jīng)驗(yàn)中認(rèn)為可以“讀心\"的條件,才能說明該模型能讀心的命題經(jīng)過經(jīng)驗(yàn)證實(shí)后具有科學(xué)意義。
在科辛斯基及其團(tuán)隊(duì)的ToM任務(wù)中,隨著ChatGPT版本的不斷更新,該模型在經(jīng)典的Sally-Anne任務(wù)和Smarties任務(wù)中的完成率越來越高,在心智理論方面顯示出來的能力和9歲兒童相近,甚至可以完成各種高難度變體的ToM任務(wù)而實(shí)現(xiàn)\"偽裝\"14]。團(tuán)隊(duì)選擇ToM來作為測試的方法,是因?yàn)樵摾碚撛诮?jīng)驗(yàn)中被視作一個(gè)人擁有自我意識和道德,在社會中與他人互動溝通、共情的核心,這種能力將心理狀態(tài)歸因于自己或他人,并據(jù)此來預(yù)測和解釋人類行為,符合人類通過環(huán)境和語境來推測他人的心理狀態(tài)和思維信念的經(jīng)驗(yàn)。因此,ToM實(shí)驗(yàn)的結(jié)論認(rèn)為該任務(wù)可以間接地幫助我們判斷某機(jī)制能否理解并預(yù)測他人目標(biāo)和行為,即可判斷該模型是否擁有讀心的能力。
這種間接證實(shí)的方法,使命題先得到一時(shí)的、不完全的證實(shí),通過不斷提高其“驗(yàn)證度\"來對其證實(shí)。只要GPT-4能夠解決 9 5 % 的Smarties任務(wù)和Sally-Anne任務(wù),我們就有理由認(rèn)為目前的ChatGPT在某方面上是擁有讀心能力的,只要不斷地進(jìn)行相關(guān)測試,就可以得到更進(jìn)一步的答案。此時(shí)不必探究與這種事實(shí)有關(guān)的因果,只需要檢驗(yàn)在各種變體條件下ChatGPT是不是在實(shí)驗(yàn)中都取得了越來越高的正確率,就可以推斷“ChatGPT能讀心”是個(gè)不斷得到證實(shí)的命題。在ToM任務(wù)上對其進(jìn)行概率上的假設(shè),一旦ChatGPT在該任務(wù)上的正確率越來越高時(shí),就會越來越符合人們經(jīng)驗(yàn)中對“可讀心\"的認(rèn)識,在概率上不斷地增加對“ChatGPT可讀心”的支持度。
(二)ChatCPT讀心的實(shí)驗(yàn)檢驗(yàn)
在驗(yàn)證“ChatGPT能讀心”這一命題時(shí),采用近代經(jīng)驗(yàn)科學(xué)的方法一一實(shí)驗(yàn)檢驗(yàn)。通過大量實(shí)驗(yàn)來對該命題進(jìn)行驗(yàn)證,試圖讓ChatGPT及其背后的大語言模型機(jī)制達(dá)到“讀心”條件,并展示出類似于人類的“心智”特征。
ChatGPT在無創(chuàng)解碼器的人工智能系統(tǒng)實(shí)驗(yàn)中,扮演了高效模擬人類讀心過程和簡化預(yù)測工作的角色。為了研究語言是如何在整個(gè)大腦中表現(xiàn)出來的,需要以大量的單詞序列為載體,將編碼模型和人腦的實(shí)際情況進(jìn)行對比。該編碼模型要預(yù)測受試者的大腦對自然語言中的短語的反應(yīng),但絕大多數(shù)的單詞序列不像自然語言那樣連貫流暢,使用ChatGPT這種生成式神經(jīng)網(wǎng)絡(luò)語言模型可以預(yù)測接下來可能出現(xiàn)的單詞,使整個(gè)故事更加豐富立體。實(shí)驗(yàn)結(jié)果顯示,當(dāng)被試聽了16個(gè)小時(shí)的自然口語敘事故事后所產(chǎn)生的數(shù)據(jù)與經(jīng)過預(yù)訓(xùn)練的ChatGPT二者之間的相似度雖然達(dá)不到100 % ,但ChatGPT已經(jīng)能夠讀出被試大腦中的故事大意,說明該模型在很大程度上能夠還原被試的心理過程。
人類在擁有讀心能力后可以將自己或他人的內(nèi)心活動記錄下來,根據(jù)綜合環(huán)境來推測他人的情感,并不斷地調(diào)整自己的反應(yīng)。對于ChatGPT而言,目前它已經(jīng)可以通過數(shù)據(jù)成功地將一個(gè)人在聽故事或默默想象講述故事時(shí)的大腦活動翻譯成連續(xù)的文本流,只要在后續(xù)實(shí)驗(yàn)中,我們能夠不斷地提高該模型與人類的fMRI數(shù)據(jù)的匹配度,或是找到更確切的讀心表現(xiàn),都能夠從某些方面證明ChatGPT的實(shí)驗(yàn)結(jié)果,能被服從于我們語法規(guī)則的語句描述出來而體現(xiàn)出一種在邏輯上的讀心的可能性。
(三)ChatGPT讀心的或然性推論
“ChatGPT能讀心”這一命題也可以從或然性推論這里進(jìn)行證實(shí)。每個(gè)證實(shí)的實(shí)驗(yàn)結(jié)果都是一個(gè)確定的真前提,但最終“ChatGPT能讀心”只是作為一種可能的結(jié)論而存在,并不一定為真。或然性結(jié)論作為概率假定,是通過歸納各種實(shí)驗(yàn)結(jié)果,來得到一種“預(yù)言性的陳述”。
這種能讀心的假定通過實(shí)驗(yàn)結(jié)果的概率來顯現(xiàn),一個(gè)事件的概率度愈高,那么它成為真的可能性就愈大。無論是在所有LEAS表上的得分、ToM任務(wù)的完成度,還是在“共情能力”的測試中,ChatGPT都在不斷提高其正確率,這種“能讀心”的概率也隨之增加。這種概率還能體現(xiàn)“Chat-GPT能讀心\"這個(gè)假定的價(jià)值,即在\"ChatGPT能讀心”和\"ChatGPT不能讀心\"的爭論之間,通過歸納相關(guān)實(shí)驗(yàn),我們更傾向于選擇前者,因?yàn)榍罢叱蔀檎娴目赡苄愿蟆.?dāng)我們不斷地提高解碼器的靈敏度、將情緒進(jìn)行多元化綜合解讀、找到更貼合人類心理狀態(tài)的模型理論時(shí),此時(shí)“ChatGPT能讀心”未必真,但我們再觀察下一個(gè)實(shí)驗(yàn)結(jié)果,能讀心的可能性就比不能讀心的可能性大。這種或然性的結(jié)論可以使得我們對該命題進(jìn)行思考和聯(lián)想,在進(jìn)一步引發(fā)各種可能的過程中,通過不斷地積累實(shí)驗(yàn)信息來基本把握命題的發(fā)展趨勢,更接近最終的正確答案。
或然性歸納只要求我們觀察所有的實(shí)驗(yàn)結(jié)果,將其壓縮到最小的標(biāo)準(zhǔn)量,如腦信號復(fù)現(xiàn)程度、概率大小等,并和人類智能的表征相比較即可。當(dāng)這個(gè)最小標(biāo)準(zhǔn)量可以體現(xiàn)出人類智能時(shí),就可以把這些經(jīng)驗(yàn)的事實(shí)歸納為一個(gè)或然性結(jié)論,即“ChatGPT能讀心\"可能為真。
三、ChatGPT讀心的可證偽性
作為驗(yàn)證“ChatGPT能讀心”的第二條路徑,可證偽性原則要求該假設(shè)能夠被經(jīng)驗(yàn)或?qū)嶒?yàn)設(shè)計(jì)所反駁,也就是說,“ChatGPT能否讀心”不是通過證明某種理論永遠(yuǎn)正確來驗(yàn)證,而是通過反復(fù)檢驗(yàn)和尋找證據(jù),從理論證偽、演繹推理和概率生成等方式來發(fā)現(xiàn)其潛在的錯(cuò)誤。
(一)ChatGPT讀心的理論證偽
ChatGPT也許在實(shí)驗(yàn)中擁有了一些類人的表征,但經(jīng)驗(yàn)的數(shù)次驗(yàn)證都始終無法徹底說明Chat-GPT這一模型已經(jīng)能完全模擬人類的心理過程,也就無法證實(shí)它已經(jīng)全然掌握了讀心的本領(lǐng)。在面對實(shí)驗(yàn)結(jié)果時(shí),如何從理論上就模型本身對語料的偽裝進(jìn)行突破,真正識別人類的讀心內(nèi)核,仍是努力的方向。
波普爾曾舉了“凡是天鵝都是白的”這一命題作為例子來說明理論證偽的重要性,我們無法找到所有天鵝來驗(yàn)證,可證實(shí)性就不能作為一種判斷依據(jù);相反,可證偽性才是科學(xué)命題的判據(jù),因?yàn)橐坏┪覀儼l(fā)現(xiàn)一只黑天鵝的存在,就可以否證它。同理,無論復(fù)刻腦信號、ToM任務(wù)、情緒識別等實(shí)驗(yàn)如何顯示ChatGPT的表現(xiàn)與人類似,我們始終不能窮盡所有實(shí)驗(yàn)來證實(shí)命題。但是我們卻找到了諸多能夠否證\"ChatGPT能讀心”的論據(jù),如厄爾曼對ToM任務(wù)進(jìn)行微妙改動后,在添加了關(guān)于交際意圖存在的線索、詢問了關(guān)于角色意圖的特定問題、涉及物體可見性等物理屬性或更復(fù)雜推論的項(xiàng)目上,ChatGPT在面對16個(gè)變式問題時(shí),它僅僅答對了其中一個(gè)。這表明,或許ChatGPT在經(jīng)典的Smarties任務(wù)和Sally-Anne任務(wù)中可以展現(xiàn)出類似心智理論的語言能力,但當(dāng)它面對其他變體任務(wù)時(shí),似乎又不具備這種語言能力。
目前的實(shí)驗(yàn)讓我們無法確定“ChatGPT能讀心\"這一命題的真假,因?yàn)槿祟愋闹鞘且粋€(gè)涵蓋內(nèi)容極多、普遍性極強(qiáng)的理論,隨著信息量的增加,“讀心能力”所表述的經(jīng)驗(yàn)內(nèi)容越是普遍和精確,其可證偽度就越高,否證的論據(jù)就越多,ChatGPT能讀心的可證偽性就越大。事實(shí)上,該模型只是憑借其自身的Transformer架構(gòu),恰好能夠解碼某種包含在我們語言中的心智理論編碼模式,只是通過預(yù)先設(shè)計(jì)好的算法來對于人類語言知識進(jìn)行模擬而已,并不是真正的能讀心。就連科辛斯基也指出:“ChatGPT可能不是在理解心智理論的情況下解決了該任務(wù),而只是發(fā)現(xiàn)和利用了一些未知的語言模式。”①
(二)ChatGPT讀心的演繹推理
“ChatGPT能讀心\"這一命題可以通過演繹推理來證明。這種演繹推理所采用的根本方法為試錯(cuò)法,波普爾將其整理為科學(xué)的發(fā)展模式,即P1-TT-EE-P2。在ChatGPT的證偽實(shí)驗(yàn)中,能否讀心開始于第一個(gè)問題,即該模型生成的結(jié)果為什么能復(fù)現(xiàn)腦信號、分析情緒暗號、完成ToM任務(wù)?為了解決這個(gè)問題,我們繼而提出試探性理論,即“ChatGPT是否因具有人類智能而擁有讀心的本領(lǐng)\"這一假設(shè)與猜想,進(jìn)而通過演繹分析其內(nèi)在機(jī)制與運(yùn)行原理,在邏輯上指出這種Transformer架構(gòu)的計(jì)算結(jié)果并不是人類智能生成,不符合“讀心\"的經(jīng)驗(yàn)事實(shí),排除了該模型可以讀心的這一錯(cuò)誤。但隨之而來的思考是,為什么Transformer的架構(gòu)可以模擬人的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)?算法及算力如何才能更具可解釋性?人類智能的終極定義和理論究竟是什么?這些新的問題作為新問題而出現(xiàn),使得波普爾的科學(xué)發(fā)展的動態(tài)模式重新運(yùn)行并周而復(fù)始,“ChatGPT能否讀心”這一爭論及其相關(guān)的知識將在這個(gè)永無止境的循環(huán)中逐步增長。
通過演繹的方法,在推理ChatGPT及其實(shí)驗(yàn)結(jié)果的全過程后發(fā)現(xiàn),根據(jù)Transformer架構(gòu)來建模的ChatGPT,只是將海量數(shù)據(jù)編碼為大語言模型可深度學(xué)習(xí)的計(jì)算機(jī)語言,通過自注意力機(jī)制來預(yù)訓(xùn)練模型,當(dāng)ChatGPT識別到輸入的語言后會立馬根據(jù)已學(xué)到的知識和概率來生成響應(yīng)。而其生成結(jié)果之所以顯得與人類似,只是計(jì)算的結(jié)果的呈現(xiàn),這種呈現(xiàn)在當(dāng)下并不能直接說明Chat-GPT具備讀心能力,相反,我們能從呈現(xiàn)的結(jié)果中找到諸多反面例證,說明ChatGPT不能讀心。
(三)ChatGPT讀心的概率生成
ChatGPT的運(yùn)行機(jī)制揭示,ChatGPT根據(jù)預(yù)訓(xùn)練數(shù)據(jù)來進(jìn)行深度學(xué)習(xí),所生成的結(jié)果事實(shí)上只是一種概率大小的問題,即這種計(jì)算“生成\"非人類的智能生成,看似能讀心的結(jié)論只是一種數(shù)理邏輯上概率的大小,并非真正擁有讀心能力。這種概率生成體現(xiàn)在以下三個(gè)方面。
其一,就其生成概率的因果效應(yīng)而言,可以從概率改變的角度來定義因果關(guān)系。15如果事件B先于事件A發(fā)生,B發(fā)生的概率大于0,并且B的發(fā)生提高了A發(fā)生的概率,那么就可以初步認(rèn)定B是A的原因。正如本德爾所言,我們應(yīng)該注意到,ChatGPT就像隨機(jī)鸚鵡,所有能“讀心\"的實(shí)驗(yàn)證據(jù)只能作為一種被我們觀察到的現(xiàn)象,這種派生的結(jié)果表明,模型本身什么也不懂,其生成的原因本質(zhì)是它自身的運(yùn)行機(jī)制與原理。在Trans-former這種自注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)下,ChatGPT只是根據(jù)算法和算力來進(jìn)行概率上的統(tǒng)計(jì)。這種不是人類智能的概率生成作為“因”,不能得出該模型已具備人類心智的“果”。
其二,就其預(yù)訓(xùn)練的規(guī)模而言,可以從概率推導(dǎo)出的結(jié)論來分析生成原因。科辛斯基教授和厄爾曼用于測試ChatGPT的Smarties任務(wù)和 Sally-Anne任務(wù)的結(jié)果不同,原因可能在于前者所采用的測試都是取自經(jīng)典的實(shí)驗(yàn),ChatGPT作為一個(gè)深度學(xué)習(xí)海量數(shù)據(jù)的大語言模型,在訓(xùn)練的過程中已經(jīng)多次閱讀過相關(guān)論文和實(shí)驗(yàn),并將其結(jié)果全部納入自身獨(dú)特的編碼語言模型中,再轉(zhuǎn)化為相應(yīng)的知識儲備。一旦對其進(jìn)行改動,要求Chat-GPT去回應(yīng)沒有接受預(yù)訓(xùn)練的知識時(shí),它就不能完成任務(wù)。觀察從同一理論衍生出的兩種不同的實(shí)驗(yàn)結(jié)果時(shí),我們必須把握概率在深度學(xué)習(xí)機(jī)制中的作用,才能正確看待ChatGPT的生成結(jié)果。
其三,就理論的真實(shí)度而言,可以從概率之間的數(shù)量關(guān)系來驗(yàn)證推理過程。根據(jù)波普爾的觀點(diǎn),只能通過不斷地猜測來逼近真理。“我們的目標(biāo)是通過批判以找到愈來愈接近真理的理論\"[16]231。理論一旦被經(jīng)驗(yàn)證實(shí)過,其內(nèi)容就具有真實(shí)性;但理論是一種猜測,具有虛假性。一個(gè)理論的逼真度(VS)等于其真實(shí)性內(nèi)容的量(ST)與虛假性內(nèi)容的量(SF)之差。也就是說,“ChatGPT能讀心”這一理論的逼真度,取決于證明能讀心的實(shí)驗(yàn)結(jié)果與證明不能讀心的實(shí)驗(yàn)結(jié)果,并且當(dāng)二者在量上的差異足夠大時(shí),才能在數(shù)學(xué)概率上說明這一理論是無限逼近真理,即該模型能讀心這一命題的發(fā)展過程就是不斷提高逼真度與概率的過程。
ChatGPT的生成結(jié)果看似具備“讀心”的能力,但深究其自身的因果效應(yīng)、預(yù)訓(xùn)練的規(guī)模和理論的真實(shí)度后發(fā)現(xiàn),概率在其中扮演著計(jì)算傾向的角色,無法說明該模型已經(jīng)擁有“讀心”的本質(zhì)屬性。
四、ChatGPT讀心的證實(shí)與證偽
無論采取實(shí)證主義的“或然性”歸納證實(shí),還是證偽主義的“概率性\"演繹證偽的方法,都無法徹底驗(yàn)證“ChatGPT能否讀心”這一假設(shè),也就無法回應(yīng)與之相關(guān)的爭論,因?yàn)槎叨即嬖谧陨淼娜毕莺筒蛔悖荒茏鳛榭煽康穆窂健?/p>
(一)或然性的間接證實(shí)是不可靠的
“ChatGPT能讀心”是一個(gè)待證實(shí)的命題,“ToM任務(wù)可以表達(dá)一定的讀心能力”是關(guān)于心智理論的定理,而“ChatGPT能完成ToM任務(wù)”是可以用實(shí)驗(yàn)來直接驗(yàn)證的事實(shí),因此用間接證實(shí)的方法得出“ChatGPT能讀心”這一命題。但卡爾納普指出,這種間接證實(shí)是或然性的,也就是說,“ChatGPT能讀心”一旦被證實(shí),就是一個(gè)普遍性理論,“ToM任務(wù)的完成”只能表達(dá)讀心能力的某一方面,而讀心能力的屬性是無限的、全面的。因此,這種或然性歸納方法在兩個(gè)方面看來都是不可靠的。
一方面,或然性不是必然性,無法得出與本質(zhì)屬性有關(guān)的結(jié)論。在必然性推理中,前提的意義包含了結(jié)論的意義,當(dāng)前提真時(shí)則結(jié)論一定為真;
而或然推理結(jié)論的意義有超出前提的意義的部分,即使前提真,結(jié)論也有可能是假的。相較于過往基于小數(shù)據(jù)的AI而言,ChatGPT是被大數(shù)據(jù)所預(yù)訓(xùn)練的語言模型,得出的結(jié)論比以往更具正確性。相關(guān)的實(shí)驗(yàn)數(shù)據(jù)作為這種歸納前提的證據(jù),都是由有限數(shù)目的單稱陳述組成的,只能說經(jīng)驗(yàn)證據(jù)每增加一個(gè),對結(jié)論中的科學(xué)定律和理論原理的支持程度就有所提高。但作為或然性的結(jié)論,“ChatGPT能讀心”這一全稱陳述,它是無限數(shù)據(jù)斷定的研究對象,也就是說,數(shù)據(jù)只能增加自身的概率,而與命題本身的性質(zhì)無關(guān)。各數(shù)據(jù)對結(jié)論的支撐作用是等價(jià)的,但其支持程度并不是等價(jià)的,大數(shù)據(jù)能在一定程度上降低結(jié)論的或然性,提高相關(guān)因素之間的緊密聯(lián)系,在過程中越來越具有必然的傾向,但始終不是因果必然性,在其本質(zhì)上仍然只是一種不可靠的或然結(jié)論。
另一方面,或然性是相關(guān)性推理而不是因果性推理,不能作為可靠的證實(shí)方法。相關(guān)性是事件A和事件B相互影響的程度,二者間沒有先后順序,而因果性有明確的先后順序,是事件A的發(fā)生導(dǎo)致事件B的發(fā)生。歸納法使得人們更關(guān)注現(xiàn)象間的相關(guān)性,如在ToM任務(wù)中,我們只需要知道ChatGPT是如何展現(xiàn)出心智理論的,而不需要深究是什么原因?qū)е缕淠軌蛲瓿尚闹抢碚摰娜蝿?wù)。但模型能夠讀心的屬性是事物本質(zhì)性的因果意向存在,通過歸納實(shí)驗(yàn)結(jié)果而得到的或然性結(jié)論不是構(gòu)成意義上的因果性結(jié)論,這種僅僅將知識的獲取建立在觀察的堆砌之上的方法,是無法獲知ChatGPT究竟能否讀心。這意味著這種或然性歸納,只能對“ChatGPT能讀心\"這一命題進(jìn)行不斷地關(guān)聯(lián)確證,而不能在因果上徹底證實(shí)。
正是因?yàn)榛蛉恍耘c必然性不同,無法在因果層面上得出事物的本質(zhì)屬性,所以它才不能作為科學(xué)命題的證實(shí)方法。顯然,或然性結(jié)論不能得到可靠的科學(xué)理論,其局限性使得它只能作為一種可能的路徑而存在,并不能證實(shí)\"ChatGPT能讀心”。
(二)概率性的演繹推理也是不可靠的
在與“ChatGPT能讀心\"有關(guān)的實(shí)驗(yàn)中,通過對該模型生成概率的論證,我們發(fā)現(xiàn)Transformer架構(gòu)、因果性原理等更本質(zhì)的因素,可以在讀心能力上對其進(jìn)行證偽。但就ChatGPT而言,作為一種大數(shù)據(jù)預(yù)訓(xùn)練模型,這種概率性演繹無法避免機(jī)器學(xué)習(xí)所帶來的不足、誤導(dǎo)甚至偏見。因此,該模型仍在以下兩個(gè)維度中存在局限性,同樣是不可靠的。
其一,這種概率生成的演繹推理忽略了觀察本身的可錯(cuò)性和實(shí)際檢驗(yàn)情況的復(fù)雜性。理論證偽本質(zhì)上與經(jīng)驗(yàn)證實(shí)一樣,都是從單稱陳述的真實(shí)性過渡到全稱陳述的真實(shí)性。當(dāng)觀察和實(shí)驗(yàn)所提供的單一命題證據(jù)與某個(gè)理論的陳述相沖突時(shí),證偽過程便開始了,在這個(gè)過程中我們常用單一命題的真實(shí)性去反駁某理論的陳述。如厄爾曼的實(shí)驗(yàn)中,當(dāng)GPT-3.5無法高效完成變體任務(wù)時(shí),就認(rèn)為該模型不具備心智理論,而忽略了之前的所有實(shí)驗(yàn)結(jié)果。但縱觀整個(gè)科學(xué)發(fā)展史,有時(shí)理論的陳述是正確的,錯(cuò)誤的是我們用之證偽的那個(gè)觀察或?qū)嶒?yàn)。也就是說,ToM任務(wù)本身不能作為具有讀心能力的理論,既不能用它來證實(shí),也不能用它來證偽,即使可以用該任務(wù)來證偽,這種在概率上僅僅依靠否證的單稱陳述的積累,同樣是一種簡單化和零碎化的方法,無法徹底說明Chat-GPT就一定不能讀心。
其二,過度強(qiáng)調(diào)理論的確證度和逼真的有限性。就確證度而言,在波普爾那里,理論受經(jīng)驗(yàn)的檢驗(yàn)而被確認(rèn)的程度,這種可確認(rèn)性同它的邏輯概率成反比,因?yàn)殡S著理論的可確證性程度的增加,該理論為真理的概率就越低。過分強(qiáng)調(diào)的確認(rèn)度不僅要求“ChatGPT能讀心\"這一理論要具有一定的可反駁性,還要能通過外部經(jīng)驗(yàn)的嚴(yán)格檢驗(yàn),只有在這兩種前提下,才能稱這一命題是科學(xué)的。也就是說,滿足二者的實(shí)驗(yàn)越是提高了Chat-GPT能讀心的確證度,它被反駁的方法越多,在邏輯上為真的概率就越低,越不能成立。就逼真性而言,波普爾認(rèn)為逼真性原則就是把理論的真理性和理論所包含的內(nèi)容結(jié)合起來,理論一直處于不斷接近真理的循序漸進(jìn)的過程中,但最大限度的逼真度只能通過一種不僅是真而且還是絕對全面真的理論才能達(dá)到。這種有限的逼真度就意味著只能通過實(shí)驗(yàn)結(jié)果的概率來選擇逼真度更高的理論,“ChatGPT能讀心\"這一理論永遠(yuǎn)處于不斷被否證的過程中,無法形成定論。
無論是忽略了觀察本身的可錯(cuò)性和實(shí)際檢驗(yàn)情況的復(fù)雜性,還是過度強(qiáng)調(diào)理論的確證度和逼真的有限性,都說明這種概率性的演繹推理只能是暫時(shí)的,而不是一勞永逸地確定理論的科學(xué)性。盡管科學(xué)知識始終處于一個(gè)動態(tài)發(fā)展的過程,這種概率性否證可以在一定程度上為“ChatGPT能讀心”提供暫時(shí)的否證證據(jù),但這種否證不是推動該命題發(fā)展的根本動力,不能直接證明ChatGPT不能讀心,仍是有缺陷的。
結(jié)語
目前就“ChatGPT能否讀心\"這一爭論的實(shí)驗(yàn)和研究結(jié)果呈現(xiàn)多元化和復(fù)雜化的傾向,尚無某個(gè)理論能夠被普遍接受,也沒有任何研究能夠明確證實(shí)或證偽ChatGPT能讀心。因此對這一假設(shè)的驗(yàn)證是一個(gè)漫長的過程,面對部分實(shí)驗(yàn)產(chǎn)生的“ChatGPT能部分讀心”的結(jié)果,我們?nèi)孕柚?jǐn)慎對待。或許目前的ChatGPT還做不到真正意義上的與人比肩,但真正的危險(xiǎn)在于,我們的語言讓我們認(rèn)為人工智能逐步向智能體邁進(jìn),但其本身一無所知,生成式AI的“花言巧語”會逐漸模糊人一機(jī)之間的主體地位和我們的辨別能力。面對強(qiáng)人工智能通過消解主體的自主權(quán)、加強(qiáng)人對物的依賴與構(gòu)建虛假需求,從而瓦解了主體的否定與超越的維度,最終導(dǎo)致順從機(jī)制的生成的現(xiàn)象,我們必須抱有審視的態(tài)度,才能更全面地認(rèn)識以Chat-GPT為代表的人工智能,為AI與人類的發(fā)展奠定堅(jiān)實(shí)的基礎(chǔ)。
注釋:
① 此處引用Kosinski M.所發(fā)表的預(yù)印版論文:TheoryofMind May Have Spontaneously EmergedinLarge Language Models.arXiv preprint arXiv:230202083.2023.
② 此處引用ERICB,NATHAN V,PAULR.所發(fā)表的預(yù)印版論文:Canaconversational agent passtheory-of-mindtasks?A casestudyofChatGPTwith the Hinting,F(xiàn)alseBeliefs,andStrange Storiesparadigms.2023.hal-039915302v.
③ 此處引用ULLMANT.所發(fā)表的預(yù)印版論文:Large Language ModelsFailon TrivialAlterations to Theory-of-Mind Tasks. arXiv:2302.08399v5[cs.AI]14 Mar 2023.
④ 此處引用Dahlkemper,M.N.,Lahme,S.Z.,and Klein,P.所發(fā)表的預(yù)印版論文:(2023).How do physics students evaluate ChatGPTresponses oncomprehensionquestions?Astudyontheperceived scientificaccuracyand linguisticquality.arXiv. Epub aheadof preprint.1-20.Availableat:https://doi.org/10.48550/arXiv.2304.05906.
參考文獻(xiàn):
[1]TangJ,LebelAJainS,etal.emanticreconstructionofontiuouslanguagefromnoninvasivebainrecordingsJ]ture neuroscience,2023,26(5): 858-866.
[2]理查德·道金斯.自私的基因[M].盧允中,等,譯.北京:中信出版社,2012.
[3]ElyosephZ,Hadar-ShovalDAsrafK,etal.ChatGPoutperformshumansinmotionalawarenesevaluations[J].Emotion Science Psychol.2023,14.https://Dol:10.3389/fpsyg.2023.1199058.
[4]KristinaS,arolineR,TmS.ExploringChatGPT'sEmpathicAbilities[C].11thInterationalConferenceonAectiveComputing and Intelligent Interaction (ACII),2023.
[5]趙朝陽,朱貴波,王金橋.ChatGPT給語言大模型帶來的啟示和多模態(tài)大模型新的發(fā)展思路[J].數(shù)據(jù)分析與知識發(fā) 現(xiàn),2023,7(3):26-35.
[6]BenderEM,GebruT,McMilln-MajorA,etal.Onthdangersofstochasticparots:Canlanguagemodelsbetoobig?Proceedings of the2021ACConferenceonFaess,ccountability,ndTransparency[J]1:1-10.https:/oiorg/10.1145/3488. 3445922.
[7]VaswaniAShazerN.ParmarN,etal.AentionisallyouneedAdvancesinNeural InformationProcessingSystemsJ/OL]. https://proceedings.neurips.cc/paper/2017/hash/ab2bfae8f722f8b7f052963edec0d3f-Abstract.html.
[8]Searle JR.Minds,Brains,and Programs[J].Behavioral and Brain Sciences,198O,3(3):417-424.
[9] 黃夢瑤,頓新國.人工智能中計(jì)算主義的當(dāng)前難題及轉(zhuǎn)進(jìn)策略[J].自然辯證法研究,2023,39(11):55-61.
[10]康韋·勞埃德·摩根.動物的生命和智慧[M].羅奔,譯.天津:天津科學(xué)技術(shù)出版社,2018.
[11]尤洋,郭宇.ChatGPT與因果性[J].科學(xué)學(xué)研究,2023,41(12):2122-2130.
[12]VyshedskiyA.HawkinsJ.AThousandBrains:ANewTheoryofInteligenceJ].EvolutionaryStudiesinImaginativeCulture, 2022,6(1): 111-114.
[13]洪謙.邏輯經(jīng)驗(yàn)主義:上卷[M].北京:商務(wù)印書館,1982.
[14]CorbettBA,SchwartzmanJM,LibsackEJ,etal.CamouflaginginAutism:ExaminingSex-BasedandCompensatorydels in Social Cognition and Communication[J].Autism research ∵ official journal of the International Society for Autism Research,2020,14(1):127-142.
[15]歐祥威,董春雨.從大數(shù)據(jù)揭示因果機(jī)制的可能性[J].系統(tǒng)科學(xué)學(xué)報(bào),2022,30(4):26-31.
[16]卡爾·波普爾.猜想與反駁[M].上海:上海譯文出版社,2005.
【責(zé)任編輯:王露】