顏士剛 王麗蕊 周紫婷
論情感教育視角下人工智能機器人的德育困難
顏士剛1王麗蕊1周紫婷2
(1.天津師范大學(xué) 教育學(xué)部,天津 300387;2.海南中學(xué),海南海口 570100)
當(dāng)下,人工智能雖然取得了非凡成績,但由于其仍然處于弱人工智能階段,屬于專用人工智能的范疇,因此并不能全面應(yīng)用于教育領(lǐng)域。針對這一特性,結(jié)合德育對情感因素的特殊要求,文章通過分析模擬情感與人類情感的區(qū)別,對人工智能機器人開展德育時的困難進(jìn)行了深入分析和系統(tǒng)考察。研究發(fā)現(xiàn),德育的基礎(chǔ)和前提是人類的情感,而由于缺乏情感產(chǎn)生的生物性基礎(chǔ)和社會實踐經(jīng)歷,只能模擬人類情感的人工智能機器人在德育過程中會遭遇的“情感主體身份缺失”“情感互動受阻”“情感的代際傳承受限”三個難以逾越的困難。由此可見,教學(xué)者應(yīng)當(dāng)慎重選擇人工智能的教育應(yīng)用,尤其是在情感教育領(lǐng)域,只有恰當(dāng)?shù)倪x擇,并結(jié)合有針對性的設(shè)計和實踐,才能有效發(fā)揮人工智能的優(yōu)勢,促進(jìn)人工智能技術(shù)更好地服務(wù)當(dāng)下教育的發(fā)展。
人工智能;德育;情感;困難

近年來,隨著大數(shù)據(jù)和深度學(xué)習(xí)算法在技術(shù)上的突破,人工智能獲得快速發(fā)展。阿爾法狗打敗李世石、利用機器人進(jìn)行高考測試、人臉識別輔助抓逃犯等事件的發(fā)生,燃起了人們對人工智能技術(shù)的熱切期盼。一時之間,似乎人工智能技術(shù)已經(jīng)無所不能,其在各個領(lǐng)域的應(yīng)用如火如荼、遍地開花——在教育領(lǐng)域亦是如此。例如,有學(xué)者提出了人工智能教師的十大角色[1],暢想了未來人工智能教育應(yīng)用的愿景。然而一個不容忽視的事實是,當(dāng)前的人工智能技術(shù)雖然在某些領(lǐng)域成果豐碩,為人類社會的進(jìn)步與發(fā)展貢獻(xiàn)良多,但由于其匱乏主體意識、情感思維等關(guān)鍵要素而處于弱人工智能階段,因此不可能與真正的人類相比擬。沒有人類的生物基礎(chǔ)、生活閱歷,沒有人類所特有的情感、道德、價值等屬性,它似乎僅能模仿,而不能創(chuàng)生。這就帶來了人工智能在德育這一情感教育領(lǐng)域的不可預(yù)知性[2],原本依賴情感引領(lǐng)、言傳身教才可實現(xiàn)的品德塑造、價值觀建立等德育活動,在當(dāng)下人工智能技術(shù)的輔助下,必然會弱化德育活動中的人文關(guān)懷,也容易使德育活動目標(biāo)落空[3]。為此,本研究擬以德育這個重要的情感教育領(lǐng)域為切入點,通過探究情感的本質(zhì)來分析德育的重要基礎(chǔ),來探討人工智能在德育領(lǐng)域存在困難的原因及表現(xiàn),期望能夠為其在德育領(lǐng)域的應(yīng)用提供借鑒。
在闡釋人工智能機器人的德育困境之前,我們需要了解情感的本質(zhì)以及情感因素對德育效果的影響。從情感的本質(zhì)來看,新詹姆斯主義強調(diào)情感的生物性基礎(chǔ),將情感的產(chǎn)生具象化為自發(fā)性神經(jīng)系統(tǒng)的模式化改變,是由身體反饋回意識的過程[4];而認(rèn)知主義情感理論以意向性思維為本,將情感內(nèi)容視為對具有意向內(nèi)容的某物的價值判斷(Evaluative Judgment)或評判性信念(Appraisable Belief),情感的發(fā)生即接受和確認(rèn)了有某種命題內(nèi)容的信念或判斷,或者做出了相應(yīng)的決定或選擇[5]。綜合上述觀點,本研究認(rèn)為情感的本質(zhì)是具有生物性身體結(jié)構(gòu)的情感主體與意向性客體相互作用之后產(chǎn)生的身體與心理上的反應(yīng)。具體到德育過程,情感的主客體實際上指向教師與學(xué)生,兩者皆為情感主體。因此,德育活動的發(fā)生需要滿足兩方面條件:①德育過程中教育者與受教育者均具備情感主體身份,而由于教師在教育過程中的主動性更強,因此其情感對德育的影響更大;②在情感主體雙方間發(fā)生情感互動,要求教師具有一定的情感素質(zhì),并能夠引導(dǎo)學(xué)生產(chǎn)生積極的情感體驗,從而實現(xiàn)德育活動的情感互動。在這樣的理念支持下,德育的理論建設(shè)和實踐探索均特別強調(diào)情感的重要意義。
具體來說,德育與客觀科學(xué)知識的教學(xué)不同,它所傳授的不僅僅是相對穩(wěn)定的客觀知識,還包括充滿主觀性、內(nèi)在性和主體選擇性的觀念體系,這主要依靠教師的道德影響力和情感化的人格熏陶。所謂“以德育德”,是指通過道德影響和情感熏陶,吸引學(xué)生自愿、自覺地認(rèn)同和趨近。也就是說,教師對學(xué)生不僅需要從認(rèn)知和行為上進(jìn)行指導(dǎo)、糾正,還需要心與心的真實接觸和交流。
與以知識傳授為主的教學(xué)活動不同,德育活動除了關(guān)注相關(guān)知識的傳授,更需要關(guān)注學(xué)生思想意識、情感和價值觀的養(yǎng)成。如果說知識教育主要培養(yǎng)學(xué)生的理性、邏輯思維,那么道德教育則主要傾向于情感因素的培養(yǎng)和熏陶。在德育方面,主體與他人之間的關(guān)系不再是“物—我”關(guān)系,而是“人—我”關(guān)系。“物—我”關(guān)系的解決依賴于認(rèn)知,“人—我”關(guān)系的解決則依賴于情感。從這個意義上說,可以將德育理解為學(xué)會如何理解他人情感的教育,既包括學(xué)生本身的道德生活經(jīng)歷和體驗,也包括教師內(nèi)心真實存在的道德價值觀,兩者可以相互傳遞、相互助長。因此,教師的內(nèi)在情感及其表達(dá)對德育意義重大。
情感性原則強調(diào)兩個方面:①教師本身擁有優(yōu)秀的情感素質(zhì);②教師能使學(xué)生產(chǎn)生積極的情感體驗。一方面,我們講“感人心者,莫先乎情”,又說“親其師,信其道”,再述“動之以情”,這些都是情感的教育力量。德國著名教育家第斯多惠曾說:“誰要是自己還沒有發(fā)展和培養(yǎng)自己的情感,他就不能發(fā)展和培養(yǎng)別人的情感。”[6]也就是說,自己是一團(tuán)火,才能燃燒別人;自己是一盞燈,才能照亮別人。情感雖然無形,卻是德育活動中不可缺少并極具價值的一部分。因此,教師本身豐富、積極的情感是從事德育工作的基本前提和必需的人格資質(zhì),如果教師本身缺少甚至不具有情感經(jīng)驗的積累,就無法應(yīng)對課堂中具有不同生活經(jīng)驗的學(xué)生,也就無法形成便于師生交往的“情感場”。
另一方面,德育的特殊性質(zhì)要求其活動過程必須引起學(xué)生的內(nèi)在情感運動,教師需把德育活動作為人的情感交往過程和導(dǎo)向情感的過程,將人與人之間的情感交往作為進(jìn)行德育活動的基本方式,并在德育活動中融入自身情感,使學(xué)生產(chǎn)生積極的情感體驗,并收獲超越固有知識以外的恒溫的東西[7]。因此,在德育活動中,教師的資格和教育成效絕不在于其關(guān)乎道德的知識有多少,而在于其是否有支撐道德觀念的摯愛真情。教師情感表達(dá)越真實,其課堂就越具有撼動人心的力量;教學(xué)情境中融合越多的感情色彩、越具體生動,善惡的觀念就越容易直擊學(xué)生的心靈,使其在外界感情的影響下產(chǎn)生類似的情感體驗[8]。
由此可見,教師自身的情感養(yǎng)成及其在教學(xué)過程中營造的情感場,是德育活動不可或缺的構(gòu)成,甚至是德育活動成效的關(guān)鍵。從這個意義上來說,情感尤其是教師的情感投入對德育的重要意義怎么強調(diào)都不過分。
當(dāng)下,人工智能機器人的情感能否具備與人類教師一樣的情感?這是本研究必須回答的問題。在電影《終結(jié)者2》中,施瓦辛格飾演的賽博格(Cyborg)T-800一直困惑為什么人類會哭泣,歷經(jīng)許多坎坷與艱辛后,它終于在電影的結(jié)尾意識到了人類表達(dá)歡樂與悲傷、愛與恨等情感的意義,因此它為自己無法模擬人類的這種“奇特”行為而深感遺憾。由此場景,我們似乎可以意會人類與人工智能機器人之間的區(qū)別。
有學(xué)者在研究人類社會行為產(chǎn)生的生物基礎(chǔ)時,通過建立仿人類大腦機制模型,發(fā)現(xiàn)人類情感是在大腦皮層的主導(dǎo)作用下,皮層和皮層以下神經(jīng)協(xié)同活動的結(jié)果,這說明情感活動需要復(fù)雜的生理學(xué)基礎(chǔ)[9]。人類情感源于社會活動過程中大腦皮層受到各種刺激(主觀的或客觀的刺激)而產(chǎn)生的復(fù)雜反應(yīng),是人腦的機能,可以將其理解為生命有機過程的一種生物學(xué)特征。受機制所限,當(dāng)前的電子計算機系統(tǒng)根本無法模擬這種生物特性。此外,人類情感的產(chǎn)生與表達(dá),不僅是人類的整體性生物活動,更是人類價值觀、人生觀的綜合體現(xiàn),是人類在成長過程中與他人、社會、自然相互作用而形成的一種內(nèi)在認(rèn)識,整個過程是復(fù)雜且難以預(yù)測的。而當(dāng)前人工智能技術(shù)只能將情感發(fā)生、發(fā)展的過程看作“黑盒子”,避開內(nèi)在過程,僅關(guān)注外在行為表現(xiàn),這是人工智能機器人情感的本質(zhì)。因而,我們必須進(jìn)一步明確“人造”情感與人類情感存在的本質(zhì)區(qū)別。人工智能機器人實質(zhì)上是模擬人類智能的機器,馮天瑾等[10]對此進(jìn)行了深入研究,他們首先給出了“模擬”的定義:“模擬”是在與原型B不同的物質(zhì)系統(tǒng)中構(gòu)建M(異化),使M與B的某種屬性或行為趨于相同(趨同);繼而,他們將“人工智能”界定為:“人工智能”是在研究自然智能的基礎(chǔ)上實現(xiàn)的模擬智能,它使機器去做那些原本靠自然(尤其是人類)智能才能做好的事情。有學(xué)者在梳理人工智能的定義時,通過溯源Minsky等科學(xué)家在達(dá)特茅斯學(xué)院開會時首次提出的“人工智能”概念,從而將人工智能界定為模擬、延伸和擴(kuò)展人類智能的機器[11]。由此可見,當(dāng)前的人工智能主要是通過模擬人類智能的外在表現(xiàn)來實現(xiàn)智能模擬的機器智能。在這一概念的指引下,一個情感型人工智能機器人需要對人類的行為和言語做出一種看似正常人的反饋,也就是模擬人類的外在情感表達(dá)。這不可避免地引發(fā)了人們對機器智能的質(zhì)疑:它僅僅像智能而非真智能。人們承認(rèn)模擬外在行為表現(xiàn)是可行的,但否認(rèn)模擬中有包含人類情感的真內(nèi)容。人們認(rèn)為雖然人工智能機器人能夠做出如人類一般的外在行為表現(xiàn),但這并不能證明人工智能機器人具備情感,機器人只是實現(xiàn)了情感的外在行為“表達(dá)”,使其看起來像有情感,實質(zhì)上只是形式主義。就像計算機模擬下雪這一自然現(xiàn)象時可以通過程序讓雪花形狀的晶體飄落,讓觀者覺得寒冷,但這只是形象模擬,產(chǎn)生雪的自然機理和飄落的動力學(xué)規(guī)律并沒有被完美實現(xiàn)。同理,模擬情感的人工智能機器人所表現(xiàn)出來的只是像情感,而非真情感。明斯基指出:“情感是先于理智存在的,人工智能只有智力,沒有情感,不是真正的智能。”[12]在這一觀點中,即使人工智能借助情感計算能夠精準(zhǔn)識別人類情感和動作意圖,并為人類個體提供個性化反饋,但情感計算的應(yīng)用歸根結(jié)底仍然是基于數(shù)據(jù)庫的條件執(zhí)行語句。因此,人造情感與人類情感存在本質(zhì)區(qū)別,前者只是展現(xiàn)出看似合理的外在行為反饋,或者說是一種“虛情假意”,而后者才是發(fā)自內(nèi)心的真情實感。
當(dāng)然,許多人工智能機器人在模擬人類情感的外在行為表現(xiàn)方面做得很逼真,如人工智能在識別、理解人的情感之后通過情感語音合成、面部表情合成和肢體語言合成等進(jìn)行的情感反饋。肢體語言主要包括手勢、身體、五官等部位的姿態(tài),而人體關(guān)節(jié)自由度較高,運動控制比較困難,因此為了豐富虛擬人運動合成細(xì)節(jié),一些研究利用高層語義參數(shù)進(jìn)行運動合成控制,通過運用各種控制技術(shù)實現(xiàn)合成運動的情感表達(dá)……我們必須認(rèn)可人工智能在趨同方面所做的努力和取得的成果,但不可否認(rèn)的是,在人工智能體系內(nèi)情感產(chǎn)生時的大腦皮層認(rèn)知和智力活動之間有一道難以跨越的鴻溝,另外,人類語氣、表情、內(nèi)在情感和外部行為表露之間的差異存在許多微妙之處,因此人工智能機器人對人類的情感難以識別,也很難模仿。
概括來說,人工智能機器人只是在識別和模擬人類情感的表達(dá),雖然能夠做得越來越精準(zhǔn),但僅是模擬而已,本身并不具備情感。它缺少情感產(chǎn)生所必需的人生閱歷及內(nèi)在機制,這決定了它的情感是祛魅的,僅是通過大數(shù)據(jù)總結(jié)出來的“一般情況”,具有“類”的特征,而不具有獨特個體的附魅特征。恰恰是這一點的缺失,造成了人工智能機器人在情感教育方面的困難。
前文提到,情感的本質(zhì)是具有生物性身體結(jié)構(gòu)的情感主體與意向性客體相互作用之后產(chǎn)生的身體、心理上的反應(yīng)。這一本質(zhì)強調(diào)了三個方面內(nèi)容:①情感產(chǎn)生的前提與基礎(chǔ),真正意義上的情感主體必須具備生物性身體結(jié)構(gòu);②情感互動方面,情感互動需以意向性對象與情感主體的相互作用為觸發(fā)點;③情感影響的維持方面,情感主體對不同對象的價值判斷會影響情感產(chǎn)生的類別與深刻程度。具體到德育活動,德育的實現(xiàn)首先需要教育活動的雙方是具備生物性身體結(jié)構(gòu)的主體,然后要實現(xiàn)主體間情感的良性互動,最后具備生物性身體結(jié)構(gòu)的主體需對互動過程中的價值進(jìn)行判斷與維持,如此才能促成德育的發(fā)生。由于不具備生物性基礎(chǔ),只能模擬情感的人工人工智能機器人在開展德育活動的過程中會遭遇以下難以逾越的困難:
現(xiàn)代情感生理學(xué)的大量研究已經(jīng)證明,大腦皮層、內(nèi)分泌系統(tǒng)、自主神經(jīng)系統(tǒng)和中樞神經(jīng)系統(tǒng)直接參與情感活動,機體、內(nèi)臟活動、微量元素的變化也與之相關(guān)[13]。新詹姆斯主義認(rèn)為,情感是動物性的,一個能產(chǎn)生情感的主體首先應(yīng)具備生物性的身體結(jié)構(gòu),如果沒有情感所必需的身體結(jié)構(gòu),就不可能產(chǎn)生情感[14]。因此,動物和嬰兒都有情感能力,因為其具備情感產(chǎn)生所需的生物性基礎(chǔ)。相較于動物和嬰兒,人工智能機器人的身體結(jié)構(gòu)由多種工業(yè)材料拼接而成,這與生物身體結(jié)構(gòu)有著本質(zhì)區(qū)別。因此,人工智能機器人不具備成為情感主體的生物性基礎(chǔ)。
另外,僅從生理層面看待情感也是片面的,任何身體反應(yīng)只有在社會情境與文化過程之中才會被定義、被理解乃至被管理[15]。因此,接受外在社會文化與環(huán)境的渲染是成為情感主體的條件之一,這對情感的形成和展開具有重要作用。我們知道,人類區(qū)別于動物的關(guān)鍵在于人類的社會性,人類情感也是如此。如果人體的生理結(jié)構(gòu)是情感的前提和基礎(chǔ),那么社會性則是情感的關(guān)鍵意義之所在。人類作為情感主體,能夠通過學(xué)習(xí)和適應(yīng)社會文化建構(gòu)自身情感。情感的情境理論特別強調(diào)“情感由外在環(huán)境及社會文化鑄就,情感本身傳遞著諸多社會信號,是社會關(guān)系內(nèi)化重配的結(jié)果”[16],這個觀點為人的社會性是成為情感主體的關(guān)鍵提供了支持。因此,即便人工智能未來能最大化地實現(xiàn)模擬神經(jīng)網(wǎng)絡(luò)的運作過程,但人類在社會閱歷、生活經(jīng)驗、文化氛圍中,在與環(huán)境、外物的互動中,所體驗到的世間百態(tài)、所收獲的豐富且復(fù)雜的情感,是人工智能機器人通過算法訓(xùn)練所難以識別且無法實現(xiàn)的。
由此可見,人工智能機器人既缺少成為情感主體的生物性基礎(chǔ),也不具備情感主體接受社會文化環(huán)境渲染的條件,因此本研究認(rèn)為人工智能機器人不具有情感主體身份。而情感又是道德教育的基礎(chǔ)與關(guān)鍵,是人類的社會存在和道德的真正本質(zhì),構(gòu)成了道德的基礎(chǔ)和重要部分[17]。德育過程中情感的交流過程應(yīng)是對象化的,是兩個或多個有情感的生命體之間真摯情感的相互作用。換句話說,德育過程是教師與學(xué)生之間的情感交流,并通過此途徑幫助學(xué)生塑造正確的價值觀與道德品質(zhì)。一旦“教師”不具備情感主體身份,那么情感交流的前提和基礎(chǔ)就沒有了,也就無法開展正常的德育活動。
情感交互的目的是以德育德,也就是通過真實的情感交互過程拉近師生距離,在師生之間搭設(shè)心靈溝通的橋梁。這能使教師有機會讀懂學(xué)生的內(nèi)心世界,了解其情感狀態(tài);同時,也能使學(xué)生真切感受到教師的德行和品質(zhì),讓學(xué)生對教師產(chǎn)生足夠的信任與崇敬。如此,這樣的師生才能夠成為各自的意向性對象。基于此,教師通過有針對性的引導(dǎo),促進(jìn)有意義的情感交互產(chǎn)生,使學(xué)生養(yǎng)成正確的道德品質(zhì),把德育內(nèi)化于學(xué)生的心靈、外化為學(xué)生的行為[18],從而實現(xiàn)以德育德。但是,模擬情感在這個過程中的困難是顯而易見的:
一方面,“教師”身份不被認(rèn)可,必然導(dǎo)致情感交互受阻。將人工智能機器人當(dāng)作真正的教師,當(dāng)前還不符合一般社會大眾的認(rèn)知,身處教學(xué)活動關(guān)鍵一方的學(xué)生更是如此。當(dāng)前,在教學(xué)活動中偶爾出現(xiàn)的所謂機器人教師,也僅僅是教學(xué)活動中比較少見的“插曲”,或為某些教學(xué)環(huán)節(jié)的輔助,學(xué)生會覺得“有趣”“新奇”甚至“好玩”,短時間內(nèi)能夠接受其教師身份,配合其教學(xué)活動;但從長遠(yuǎn)來看,將其看作與其他人類教師一樣的教師顯然并不現(xiàn)實,甚至根本不可能被接受,這種情況在情感教育領(lǐng)域更是如此。因此,即便人工智能機器人可以在外觀和行為上無限接近人類,并在與學(xué)生的“交往”過程中發(fā)出情感交互的信號(或刺激),學(xué)生也能夠接受到這類信號,但只要學(xué)生不認(rèn)可它的“教師”身份,就不會產(chǎn)生應(yīng)有的反應(yīng),更無法進(jìn)行預(yù)期的學(xué)習(xí)活動。身份不被認(rèn)同,人工智能機器人就不會成為學(xué)生情感的意向性對象——學(xué)生與“它”的“交互”根本不會入心,更不可能交心,從而使情感交互“有來無回”,導(dǎo)致情感交互受阻。
另一方面,即便是在將來,隨著人工智能應(yīng)用的廣泛普及,人們可能逐步接受了人工智能機器人,甚至能夠認(rèn)可它的“教師”身份,那么它就能順利地與學(xué)生實現(xiàn)情感交互嗎?答案是否定的!人工智能機器人模擬的情感反饋僅具有“類”的特征,是大數(shù)據(jù)歸納總結(jié)的“一般情況”,沒有針對性,缺少附魅的真實,這必然影響情感交互的順利進(jìn)行。即使學(xué)生在觀念和行為上認(rèn)可人工智能機器人的身份,能夠接收它發(fā)出的信號并產(chǎn)生相應(yīng)的情感,甚至通過身體表現(xiàn)或行為將情感表達(dá)出來,但智能機器人卻很可能無法正確分析學(xué)生所表現(xiàn)出的行為所蘊含的情感狀態(tài),因而無法給出恰當(dāng)、合理的反饋,使情感交互“有去無回”,或者反饋的情感由于缺少針對性,而讓學(xué)生感覺“被忽視”“不真誠”或“不被理解”,從而使情感交互受阻。
綜合以上兩個方面分析,人工智能機器人無法與學(xué)生進(jìn)行真正意義上的情感互動,更無法使情感互動形成良性循環(huán),因而也就達(dá)不到通過情感交互實現(xiàn)以德育德的目的。需要特別強調(diào)的是,情感互動受阻的根源在于模擬情感是祛魅的,無法全面適應(yīng)個體的差異性。人工智能技術(shù)所實現(xiàn)的模擬過程,實質(zhì)上就是將多種多樣的現(xiàn)實情況通過大數(shù)據(jù)進(jìn)行規(guī)律化處理[19],這個規(guī)律化處理的過程與一般意義上的歸納、總結(jié)類似(只是它處理的數(shù)據(jù)量更大),最終都是將各種現(xiàn)實情況劃分為有限的類別,然后按照類別的不同特征,制定相應(yīng)的應(yīng)對方案,分而治之。因此,從這個意義上來說,模擬情感及其給出的可能反應(yīng)(信號、刺激)均是祛魅的,僅有類別意義,沒有個性特征。
然而,真正的德育過程是附魅的,每個人都有自己獨特的個性特征,這體現(xiàn)在行為舉止、思維習(xí)慣、情感表達(dá)等多個方面。另外,每個學(xué)生的思想道德發(fā)展情況與趨勢也都是獨一無二的,教師必須根據(jù)學(xué)生的個人特征和具體情況制定有針對性的策略,才能有效幫助學(xué)生塑造正確的價值觀。“循規(guī)蹈矩”的智能機器人不能準(zhǔn)確把握學(xué)生思想道德發(fā)展的歷史,它僅僅能夠關(guān)注現(xiàn)實表現(xiàn),盡量給出相對恰當(dāng)?shù)姆磻?yīng),并不能有效針對學(xué)生的具體情況,尤其不能結(jié)合個體情感發(fā)展過程做出合理判斷,更不具備人類教師的實踐智慧,創(chuàng)造性地給出具體的、有針對性的對策。因此,可以說祛魅性質(zhì)明顯的模擬情感無法有效應(yīng)對附魅特征顯著的情感交互過程。
“十年樹木,百年樹人”是《管子·權(quán)修》篇的名言,揭示了教育工作的長期性。這種長期性既表明教育工作過程的艱難,更指向情感和價值觀教育的復(fù)雜性,德育工作尤其如此。
德育工作的長期性主要表現(xiàn)在兩個方面:一方面,教師與學(xué)生需要經(jīng)過長期的情感互動,才會建立相互理解、支持和信賴的關(guān)系。也就是說,師生雙方成為各自的意向性對象并非一朝一夕之事。每個人的情感經(jīng)歷都是具體的,有其特殊性,即都具有附魅特征——教師的情感經(jīng)歷如此,學(xué)生亦是如此。在師生情感互動的過程中,教師是主動的一方,需要用自身情感經(jīng)歷所積累的認(rèn)識和個人的情感體驗去體會學(xué)生的情感經(jīng)歷,用感同身受的方式去感染和引導(dǎo)學(xué)生,以促進(jìn)學(xué)生情感的良性發(fā)展,這樣的情感經(jīng)歷才會影響學(xué)生的一生[20]。這個過程不是簡單的幾次談話就能實現(xiàn)的,而是需要師生共同經(jīng)歷情感事件,且教師在處理事件的過程中用行動驗證自己的認(rèn)識和觀點,讓學(xué)生從中感受教師的言傳身教,從而產(chǎn)生情感共鳴,只有這樣,教師才能成為學(xué)生情感交互過程中的意向性對象,也才能真正實現(xiàn)以德育德。就這個過程來說,針對同一個學(xué)生,不同教師的處理方式一般會有所差別,效果也會差異巨大,根本原因除了經(jīng)驗和方式的差異,還在于教師個人的情感經(jīng)歷——如果教師不具備個體的深刻情感過程,未必能夠感同身受地引導(dǎo)學(xué)生[21]。就這一點來說,模擬情感每次都是按照不同類別應(yīng)對學(xué)生,很難形成長期的、持續(xù)深入的情感交流,且無法感受學(xué)生情感成長的過程,也就把握不了學(xué)生情感成長的附魅特性;即便能夠通過學(xué)生模型“記憶”這種變化,也無法有效分析產(chǎn)生這種變化的原因,進(jìn)而改變策略,有針對性地影響學(xué)生。因此,模擬情感無法實現(xiàn)以德育德的長期性。
另一方面,德育的長期性還表現(xiàn)在代際傳承上。中華民族的傳統(tǒng)美德是中華兒女一代一代傳承下來的,期間涌現(xiàn)了無數(shù)模范人物,如古代有包拯、海瑞等清官的典范,現(xiàn)代有王進(jìn)喜等工人的模范、雷鋒等軍人的榜樣等,可以說從古至今數(shù)不勝數(shù)。教育領(lǐng)域同樣如此,古代有至圣先師孔子,他既是思想家,又是教育家,弟子三千,賢者七十二;現(xiàn)代有云南華坪女校張桂梅校長,她扎根深山辦學(xué)的事跡感動了億萬國人,受到了全國人民的敬仰和擁戴。這些優(yōu)秀的中華兒女是整個民族情感傳承的意向性對象,會在代際傳承中發(fā)揮重大作用。但是,德育的代際傳承僅有前述民族典范的榜樣作用是不夠的,還要看實踐中千千萬萬的一線教育者。代際傳承除了表現(xiàn)為學(xué)生理解、認(rèn)同教師的道德知識和理念,更重要的是教師在德育過程中身體力行的榜樣作用。這種意向性對象所產(chǎn)生的榜樣作用,能直接激勵并促進(jìn)學(xué)生將來成為教師以后開展的德育工作。教師的教學(xué)方法、教學(xué)策略甚至教學(xué)效果,都會在未來教師的教學(xué)實踐中得到有效傳承。“我的老師曾經(jīng)說過”“我的老師就這樣做的,我要向他學(xué)習(xí)”等類似的話語或者理念,正是代際傳承和教師所起榜樣作用的明證。這樣的代際傳承、這樣的榜樣作用,不會隨著老教師的退休乃至身體隕滅而消失。榜樣的身體消失了,有墓園;墓園消失了,榜樣也會一直活在人們心中、活在民族的血液里。但是,這種代際傳承是模擬情感所無法實現(xiàn)的。人工智能機器人升級換代以后,一般會被直接銷毀,或者被拆解另做他用,這兩種處理方式本身就決定了它無法承擔(dān)榜樣的作用。就目前社會大眾的認(rèn)知而言,不會有人將一個機器人作為心中的道德榜樣來效仿,它也根本不會像至圣先師那樣永遠(yuǎn)活在人們心中。
我們知道,德育屬于情感教育范疇。道德知識(認(rèn)知領(lǐng)域)是德育的重要基礎(chǔ)和前提[22],但它并非德育的全部,德育的關(guān)鍵是師生作為情感主體的雙方意向性對象的建立,以及在此基礎(chǔ)之上的以德育德。雖然人工智能機器人在德育過程中會遭遇三個難以逾越的困難,但其在道德知識的傳授方面仍有“用武”之地——當(dāng)然,這需要進(jìn)行恰當(dāng)?shù)脑O(shè)計與實踐。具體來說,當(dāng)前人工智能技術(shù)的教育應(yīng)用應(yīng)該緊緊抓住弱人工智能的根本特性,把大數(shù)據(jù)、歸類、模擬等關(guān)鍵詞作為分析教育應(yīng)用的重中之重,審慎考察某個應(yīng)用領(lǐng)域或者教學(xué)環(huán)節(jié)是否符合弱人工智能的特征,是否有大數(shù)據(jù)做支撐,是否滿足人工智能所必需的數(shù)據(jù)建模、模型訓(xùn)練等關(guān)鍵要素。只有這些條件全部符合,人工智能才能在相應(yīng)領(lǐng)域或環(huán)節(jié)真正發(fā)揮作用。我們不能盲目樂觀地將人工智能技術(shù)應(yīng)用于教育的所有領(lǐng)域,如此既不利于教育的發(fā)展,也不能有效發(fā)揮人工智能的優(yōu)勢。即便將來有一天人工智能跨入通用階段、人工智能機器人的智能可與真正的人類相比擬,它的社會性和主體身份仍然是存疑的,我們還是不能用它替代人類教師開展教育活動,因為這有違“人道”這個教育的基本倫理——這是教育的底線,必須堅守。
從本質(zhì)上來講,人工智能機器人的德育困難是現(xiàn)代技術(shù)教育應(yīng)用引發(fā)倫理危機的一種具體表現(xiàn)。關(guān)于這個話題的深入討論不是本研究的目的,這里就不展開了。但需要明確的是,面對這個倫理危機,未來研究不能像很多既有的研究那樣僅僅歸咎于技術(shù)本身,并且對技術(shù)進(jìn)行單方面的調(diào)整治標(biāo)不治本,否則,這一波危機消解了,下一波危機馬上又會到來。這是因為,技術(shù)與倫理自產(chǎn)生以來就是雙向互動、協(xié)同發(fā)展的,危機的解除也就需要針對兩者的關(guān)系及其發(fā)展規(guī)律進(jìn)行綜合考慮、協(xié)同處理,這是后續(xù)研究需要繼續(xù)深入探討的主題。
[1]余勝泉.人工智能教師的未來角色[J].開放教育研究,2018,(1):16-28.
[2]蔡曙山,薛小迪.人工智能與人類智能——從認(rèn)知科學(xué)五個層級的理論看人機大戰(zhàn)[J].北京大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2016,(4):145-154.
[3]董天歌,趙艷波.人工智能時代思想政治教育面臨的挑戰(zhàn)及其對策[J].中國政治教育參考.2021,(32):46-48.
[4][5][14][16][21]唐海軍,何向東.身體、判斷和情境——論情感研究的幾個維度[J].自然辯證法研究,2018,(3):83-88.
[6]李靜欣.情感教育激活大學(xué)英語課堂[J].教育與職業(yè),2014,(12):157-158.
[7][8]朱小蔓.情感德育論[M].北京:人民教育出版社,2005:54-59、66.
[9]肖鳳秋,鄭志偉,陳英和.親社會行為產(chǎn)生機制的理論演進(jìn)[J].心理科學(xué),2014,(5):1263-1270.
[10]馮天瑾,楊寧,馬琳濤.回答對人工智能的質(zhì)疑[J].中國海洋大學(xué)學(xué)報(自然科學(xué)版),2015,(8):113-120、132.
[11]程承坪.人工智能:工具或主體?——兼論人工智能奇點[J].上海師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2021,(6):5-12.
[12](美)馬文·明斯基著.王文革,程玉婷,李小剛譯.情感機器[M].浙江:浙江人民出版社,2016:21-24.
[13]楊嵐.人類情感論[M].天津:百花文藝出版社,2002:59.
[15]紀(jì)莉,董薇.從情感研究的起點出發(fā):去情緒化的情感與媒介效果研究[J].南京社會科學(xué),2018,(5):110-120.
[17](英)休謨著.關(guān)文運譯.人性論[M].北京:商務(wù)印書館,1996:511-513.
[18]項久雨.利益·情感·精神:個體第一需要與德育認(rèn)同的三重邏輯[J].南京師大學(xué)報(社會科學(xué)版),2021,(4):5-12.
[19]周紫婷,顏士剛.人工智能作詩的本質(zhì)及其內(nèi)在機制研究[J].南京工程學(xué)院學(xué)報(社會科學(xué)版),2020,(2):61-66.
[20]朱小蔓,王平.從情感教育視角看教師如何育人——對落實《中小學(xué)德育工作指南》的思考[J].中國教育學(xué)刊,2018,(3):83-88.
[22]馮友梅,顏士剛,李藝.從知識到素養(yǎng):聚焦知識的整體人培養(yǎng)何以可能[J].電化教育研究,2021,(2):5-10、24.
On the Moral Education Difficulties of Artificial Intelligence Robot from the Perspective of Emotion Education
YAN Shi-gang1WANG Li-rui1ZHOU Zi-ting2
At present, although artificial intelligence has made remarkable achievements, it cannot be comprehensively applied to all fields of education because it is still in the stage of weak artificial intelligence and belongs to the category of specialized artificial intelligence. Focusing on this characteristic, combined with the special requirements of moral education on emotional factors, this paper deeply analyzed and systematically investigated the difficulties of the artificial intelligence robot in moral education by analyzing the difference between simulated emotion and human emotion. It was found that the basis and prerequisite of moral education was human emotion. Due to the lack of biological basis and social practice experience generated by emotions, the artificial intelligence robot encountered three insurmountable difficulties in the process of moral education, namely “l(fā)ack of emotional subject identity”, “blocked emotional interaction” and “l(fā)imited intergenerational inheritance of emotion”. It can be seen that the educational application of artificial intelligence, especially in the field of emotional education, should be carefully selected. Only the appropriate selection, combined with target-specific design and practice, could effectively exert the advantage of artificial intelligence and promote artificial intelligence technology to better serve the development of current education.
artificial intelligence; moral education; emotion; difficulty
G40-057
A
1009—8097(2022)04—0005—08
10.3969/j.issn.1009-8097.2022.04.001
顏士剛,教授,博士,研究方向為教育技術(shù)哲學(xué)、信息技術(shù)課程與教學(xué),郵箱為yansget@163.com。
2021年12月21日
編輯:小時