999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

多面孔情緒變異性的自動(dòng)加工:來(lái)自視覺(jué)失匹配成分的證據(jù)

2025-09-28 00:00:00陳子龍季碌妍
心理學(xué)報(bào) 2025年9期

1引言

面孔是我們生活中重要的社會(huì)線索,而多張面孔更是能提供豐富的社會(huì)信息。比如在兩場(chǎng)面試中,多位面試官對(duì)我們總體評(píng)價(jià)是一樣的,但如果一場(chǎng)中每位面試官都表現(xiàn)出一致的態(tài)度,而另一場(chǎng)中面試官之間態(tài)度差別很大,我們可能還是會(huì)感受到兩者之間的差別,從而影響對(duì)自已面試表現(xiàn)的評(píng)價(jià)。這種將個(gè)體特征或信息整合在一起而獲得的表征被稱為統(tǒng)計(jì)概要表征(summary statistical representation),也被稱為整體知覺(jué)(ensembleperception)(何蔚祺等,2021;勵(lì)奇添,陳文鋒,2022;仝可等,2015;Alvarez,2011;Whitneyamp;YamanashiLeib,2018)。無(wú)論是多個(gè)低水平刺激特征,如線條朝向、圓圈大小、顏色等,還是高水平復(fù)雜物體,如情緒面孔,個(gè)體都能對(duì)其進(jìn)行統(tǒng)計(jì)概要加工(Chetverikovetal.,2017;Chong amp; Treisman, 2003;Haberman et al.,2015;Yangetal.,2018),提取其平均值(Ariely,2001)或變異性信息(deGardelleamp;Summerfield,2011)。本研究主要關(guān)注多面孔情緒的變異性表征。前人研究已經(jīng)證明,只需短暫的呈現(xiàn)時(shí)間,人們就可以分辨多張面孔的情緒變異性(Habermanetal.,2015)。此外,神經(jīng)影像研究還發(fā)現(xiàn)了專門處理集合變異性和異常值信息的腦區(qū)(如:右側(cè)額上回、前內(nèi)側(cè)腹側(cè)視覺(jué)皮層)(Allard et al.,2021;Cantamp;Xu,2020)。不過(guò)盡管個(gè)體可以快速準(zhǔn)確地提取集合的變異性信息(Haberman etal.,2015;Jeongamp; Chong,2021;Lauamp;Brady, 2018;Morgan et al.,2008;Tokita et al.,2016),但尚不清楚是否可以在非注意條件下對(duì)多面孔情緒變異性信息進(jìn)行自動(dòng)加工。

目前關(guān)于統(tǒng)計(jì)概要加工是否需要注意資源,研究大多集中在平均加工領(lǐng)域。一些研究支持統(tǒng)計(jì)概要加工依賴注意資源。例如,相比于沒(méi)有提示,預(yù)先提示可以提高對(duì)多個(gè)圓平均大小和顏色的識(shí)別能力,以及對(duì)多張面孔平均情緒的加工績(jī)效(Brandetal.,2012;Huang,2015)。另一項(xiàng)研究采用雙任務(wù)范式,要求被試同時(shí)注意面孔朝向和情緒,結(jié)果發(fā)現(xiàn)當(dāng)朝向任務(wù)占據(jù)注意資源時(shí),個(gè)體無(wú)法完成多面孔平均情緒的加工(Eliasetal.,2018)。此外,研究者還采用注意瞬脫范式,要求被試在對(duì)快速呈現(xiàn)的一張面孔判斷性別后,評(píng)估4張面孔的平均情緒。當(dāng)兩項(xiàng)任務(wù)間隔時(shí)間變短時(shí),被試會(huì)在多面孔平均情緒判斷中出現(xiàn)注意瞬脫(McNairetal.,2017)。這些研究結(jié)果均表明個(gè)體對(duì)多個(gè)刺激特征的平均加工并不是自動(dòng)的,而是會(huì)受制于有限的注意資源。

但是,也有研究表明平均加工僅需很少的注意資源,甚至還能自動(dòng)加工。例如,在多物體追蹤任務(wù)中,注意資源減少只影響對(duì)單個(gè)物體位置的識(shí)別但并不影響加工多個(gè)物體的平均位置或背景朝向信息(Alvarezamp;Oliva,2008,2009)。類似的,在非注意下也能對(duì)多面孔的平均情緒進(jìn)行加工。一項(xiàng)研究采用空間線索提示范式,結(jié)果發(fā)現(xiàn)即使在線索無(wú)效(即空間注意被轉(zhuǎn)移到其他位置時(shí)),被試對(duì)目標(biāo)位置的多面孔平均情緒的判斷依然高于機(jī)會(huì)水平,且與線索有效條件沒(méi)有顯著差異(Jietal.,2018)。近期研究還指出,即使在同時(shí)進(jìn)行其他任務(wù)的情況下,多面孔平均情緒加工的能力并未受損,并且不受到其他任務(wù)注意負(fù)荷的影響(Liuamp;Ji,2024)。

僅有少量研究聚焦變異性加工與注意的關(guān)系。一項(xiàng)雙任務(wù)的研究表明變異性信息也可以如同平均值一樣,在有限的注意下得到加工(Khvostovamp;Utochkin,2019)。在這項(xiàng)研究中,被試需要單獨(dú)對(duì)集合中的平均值或者變異性進(jìn)行加工(單任務(wù)),或者同時(shí)加工(雙任務(wù)),結(jié)果發(fā)現(xiàn)雙任務(wù)和單任務(wù)下變異性加工的精確度基本一致(Khvostovamp;Utochkin,2019)。在腦損傷病人的研究中也發(fā)現(xiàn),患者即使視覺(jué)通路中只有V1完好,而V2到V4有一定程度的受損,也能對(duì)多個(gè)刺激的朝向變異性有較好的感知,這表明視覺(jué)系統(tǒng)在早期已經(jīng)可以編碼變異性信息(Norman etal.,2015)。

然而,上述研究中統(tǒng)計(jì)概要加工多是與任務(wù)相關(guān)的。盡管分心任務(wù)會(huì)占據(jù)一定的注意資源,或是注意被其他線索分散,但個(gè)體可能仍能利用剩余的注意來(lái)感知或提取統(tǒng)計(jì)概要信息。此外,當(dāng)兩個(gè)任務(wù)都處理相同的刺激,并且都專注于統(tǒng)計(jì)概要加工時(shí),對(duì)注意水平的操縱可能不夠嚴(yán)格(Khvostovamp;Utochkin,2019)。因而,在本研究中,多面孔情緒變異性加工始終保持與任務(wù)無(wú)關(guān),同時(shí)被試需要完成的任務(wù)也與統(tǒng)計(jì)概要加工無(wú)關(guān),這旨在進(jìn)一步減少對(duì)無(wú)關(guān)面孔刺激的注意分配。為此,本研究以視覺(jué)失匹配負(fù)波(visualmismatchnegativity,vMMN),這一事件相關(guān)電位(ERPs)成分作為指標(biāo),考察個(gè)體在加工不同情緒變異性面孔集合時(shí)大腦活動(dòng)的差異。視覺(jué)失匹配負(fù)波是在oddball范式中,偶然出現(xiàn)的刺激(即:偏差刺激)與經(jīng)常出現(xiàn)的刺激(即:標(biāo)準(zhǔn)刺激)在大腦枕顳葉區(qū)誘發(fā)的ERP差異波,通常偏差刺激誘發(fā)的波幅比標(biāo)準(zhǔn)刺激更負(fù)(Czigler,2007;Pazo-Alvarezetal.,2003;Winkleramp;Czigler,2012)。在這一范式中,刺激序列呈現(xiàn),能夠模擬現(xiàn)實(shí)世界中紛繁復(fù)雜的信息流,同時(shí)可以控制不同刺激或特征的概率,考察我們是否能夠以及如何加工這些信息流中蘊(yùn)含的相關(guān)事件的潛在分布。

為了避免物理屬性不同的影響,研究者們通常會(huì)采用反向oddball范式。它是指在一個(gè)刺激序列中,標(biāo)準(zhǔn)刺激為A,偏差刺激為B,那么在另一個(gè)刺激序列中標(biāo)準(zhǔn)刺激為B,偏差刺激則為A。同樣的物理刺激,通過(guò)對(duì)比作為標(biāo)準(zhǔn)和作為偏差誘發(fā)的波幅差異,考察vMMN是否存在。vMMN有早期到晚期的時(shí)間窗 (70-520ms) (Kovarski etal.,2017;Stefanics etal.,2012;Xiongetal.,2022)。作為視覺(jué)系統(tǒng)中自動(dòng)檢測(cè)刺激規(guī)律變化的腦電指標(biāo),它可以被簡(jiǎn)單的視覺(jué)刺激(如:線條朝向、空間頻率、顏色等)和包含復(fù)雜社會(huì)信息的刺激(性別、情緒、年齡等)所誘發(fā),因此被廣泛用于自動(dòng)加工的研究(Csizmadia etal.,202l;Czigleramp; Sulykos,2010;Kecskés-Kovacs et al., 2013;Kovarski et al.,2017;Stefanics et al.,2012; Sulykos amp; Czigler, 2011)。不過(guò),也有一些vMMN研究發(fā)現(xiàn)了正向的視覺(jué)失匹配成分(visual mismatch positivity, vMMP) (Chen et al.2020; Ji et al.,2024; Sel et al., 2016; Sulykos amp; Czigler,2011),這同樣可以被認(rèn)為反映了大腦對(duì)刺激的自動(dòng)加工。

大量研究以vMMN/vMMP為指標(biāo)揭示了個(gè)體可以自動(dòng)加工多張相同或不同的情緒面孔(Chenetal.,2020;Ji et al.,2024;Stefanics et al.,2012; Zeng et al.,2022),甚至可以自動(dòng)檢測(cè)視野中央面孔與外周非注意面孔的情緒一致性(Xiongetal.,2022),但是尚未清楚個(gè)體是否可以自動(dòng)加工多面孔情緒的變異性信息。在現(xiàn)實(shí)中,我們看到多張面孔的情緒強(qiáng)度往往是不一致的,因此本研究采用的每張面孔情緒平位均不怕間。

綜上,本研究采用反向oddball范式,以vMMN為指標(biāo)探討多面孔情緒變異性自動(dòng)加工的神經(jīng)機(jī)制。研究中,高情緒變異性面孔組合和低情緒變異性面孔組合系列呈現(xiàn),互為標(biāo)準(zhǔn)刺激和偏差刺激,面孔呈現(xiàn)在外周視野且保持與任務(wù)無(wú)關(guān)。被試需要完成vMMN研究中常用的中央注視點(diǎn)辨別任務(wù)(Stefanics et al., 2012; Tse et al., 2021; Winkler et al.,2005),從而使得注意資源被占據(jù)。如果觀察到vMMN,則說(shuō)明人們可以自動(dòng)檢測(cè)位于外周視野的多面孔情緒變異性的變化,從而提示非注意條件下對(duì)情緒變異性的自動(dòng)加工。研究包含三個(gè)腦電實(shí)驗(yàn)。實(shí)驗(yàn)1首先考察個(gè)體究竟是否可以自動(dòng)加工多面孔情緒的變異性信息,以及對(duì)于高、低情緒變異性的敏感程度是否存在差別。已有研究發(fā)現(xiàn),對(duì)多個(gè)高變異的光柵刺激進(jìn)行整體知覺(jué)會(huì)引起更強(qiáng)的大腦活動(dòng)(Allardetal.,2021),可能說(shuō)明大腦對(duì)高變異性信息更敏感。據(jù)此,我們預(yù)期高、低情緒變異性面孔集合均可誘發(fā)vMMN,但與低情緒變異性面孔集合誘發(fā)的vMMN相比,高情緒變異性誘發(fā)的vMMN波幅更大。實(shí)驗(yàn)2進(jìn)一步區(qū)分憤怒和高興兩種情緒面孔集合,考察情緒類型對(duì)多面孔情緒變異性自動(dòng)加工的影響。以往研究揭示多面孔加工存在負(fù)性偏向(Mihalache etal.,2021;Stefanics et al.,2012;Zengetal.,2022)。因此在實(shí)驗(yàn)2中,我們除了預(yù)期重復(fù)實(shí)驗(yàn)1的結(jié)果,還進(jìn)一步預(yù)期無(wú)論在何種情緒變異性條件下,憤怒面孔集合誘發(fā)的VMMN 波幅比高興面孔更大。實(shí)驗(yàn)3中控制了高、低情緒變異性集合的全距和分布形式,旨在排除這兩個(gè)因素對(duì)結(jié)果的影響,預(yù)期再次驗(yàn)證前面實(shí)驗(yàn)的結(jié)果。此外,我們還采用了機(jī)器學(xué)習(xí)的方法,對(duì)腦電活動(dòng)進(jìn)行多變量模式分析(multivariate patternanalysis,MVPA),旨在充分利用全腦所有通道和時(shí)間點(diǎn),考察大腦加工不同刺激時(shí)神經(jīng)反應(yīng)模式的差異(Carlsonetal.,2020)。與vMMN分析邏輯相似,同樣的情緒變異性面孔集合,如果大腦可以解碼其作為標(biāo)準(zhǔn)刺激還是偏差刺激,則說(shuō)明對(duì)這兩類刺激的反應(yīng)模式存在差異,暗示對(duì)情緒變異性的自動(dòng)加工。這將對(duì)vMMN結(jié)果進(jìn)行重要補(bǔ)充,從不同角度探究變異性自動(dòng)加工的神經(jīng)機(jī)制。本研究有助于加深我們對(duì)概要統(tǒng)計(jì)表征,尤其是變異性表征加工機(jī)制的理解,并從預(yù)測(cè)編碼的角度為多面孔情緒自動(dòng)

加工提供新的證據(jù)。

2 實(shí)驗(yàn)1:多面孔情緒變異性的自動(dòng)加工

2.1 方法

2.1.1 被試

實(shí)驗(yàn)1共招募28名被試,其中4名被試因?yàn)閭污E或 波過(guò)多而被剔除。最終納入分析被試24名(女性12名),年齡為 19.05±2.04 歲,所有被試均為右利手,視力或矯正視力正常。在實(shí)驗(yàn)之前所有被試均簽署知情同意書(shū)并知曉實(shí)驗(yàn)內(nèi)容,實(shí)驗(yàn)結(jié)束后他們可以獲得每小時(shí)30元或一個(gè)學(xué)分的報(bào)酬。根據(jù)vMMN已有研究效應(yīng)量(汪海玲等,2023,刺激類型與面孔條件的交互作用 ηp2= 0.351 ,通過(guò)MorePower軟件(Campbellamp;Thompson,2012)計(jì)算出最少被試量為18名( ,power =0.8 ,因此本研究樣本量符合要求。

2.1.2 實(shí)驗(yàn)材料

從清華大學(xué)情緒面孔庫(kù)(Yangetal.,2020)中選取兩張男性和兩張女性面孔,分別呈現(xiàn)憤怒、高興和中性的閉口表情。使用FantaMorph軟件,對(duì)每張身份面孔進(jìn)行變形(morph),由其最高強(qiáng)度的憤怒面孔(情緒單位1)變形到中性面孔(情緒單位50),再由中性面孔變形到最高強(qiáng)度的高興面孔(情緒單位99),各情緒最高強(qiáng)度為面孔庫(kù)中該面孔的原始表情。相鄰兩張面孔之間相差一個(gè)情緒單位,共生成396張情緒面孔圖片(99張 ×4 個(gè)身份)。所有面孔圖片僅保留面部,頭發(fā)、耳朵、脖子等非面孔區(qū)域被截去,使用平均值法進(jìn)行灰度處理。此外,計(jì)算所有圖片平均RMS (Rootmeansquare,均方根)對(duì)比度,再將該數(shù)值賦予每張面孔,達(dá)到控制對(duì)比度的目的(Bexamp;Makous,2002)。每張面孔視角為4.82°×6.83° 。4張面孔同時(shí)呈現(xiàn),構(gòu)成一個(gè)面孔集合,其中心圍成的視角為 10.05°×13.12°

面孔集合分為兩種,分別為高情緒變異性組和低情緒變異性組,每種集合均由兩張憤怒和兩張高興面孔組成,集合內(nèi)4張面孔身份一致。實(shí)驗(yàn)前招募了8名被試,均未參加正式實(shí)驗(yàn),通過(guò)恒定刺激法,讓被試判斷集合中的面孔情緒是完全一樣的,還是彼此之間存在差異。實(shí)驗(yàn)分為高興與憤怒兩種情緒類型,4張面孔的標(biāo)準(zhǔn)差有2、3、4、5、6、7共6種水平,平均情緒為中等高興或憤怒。結(jié)果表明無(wú)論在何種情緒類型下,僅有1名被試絕對(duì)閾限大于7,還有1名被試絕對(duì)閾限小于2。其余被試在高興條件的絕對(duì)閾限范圍是2.19到6.75;在憤怒條件的絕對(duì)閾限范圍是2.52到5.74。根據(jù)該結(jié)果,選擇超過(guò)變異性感知絕對(duì)閾限的數(shù)值作為低情緒變異性面孔集合的標(biāo)準(zhǔn)差,而高情緒變異性的標(biāo)準(zhǔn)差設(shè)定為低情緒變異性的三倍。具體而言,在低情緒變異性面孔集合中,4張面孔情緒的標(biāo)準(zhǔn)差為12.08,各面孔情緒單位分別為34、44、56、66。在高情緒變異性面孔集合中,4張面孔情緒的標(biāo)準(zhǔn)差為36.24,各面孔情緒單位分別為6、25、72、97(圖1)。面孔集合的平均情緒均為中性(平均效價(jià)為50)。

屏幕中央始終呈現(xiàn)紅色注視點(diǎn),視角為 0.51°× 0.55° 。在實(shí)驗(yàn)過(guò)程中,注視點(diǎn)會(huì)隨機(jī)將豎杠或橫杠變長(zhǎng),視角分別為 0.51°×1.03° 和 0.97o×0.55o 。注視點(diǎn)變化隨機(jī)分布在標(biāo)準(zhǔn)刺激和偏差刺激中,每個(gè)block中變化比例占block總試次的 10% 。

2.1.3 實(shí)驗(yàn)程序

實(shí)驗(yàn)在隔音、弱光、電磁屏蔽的腦電實(shí)驗(yàn)室中進(jìn)行。本研究采用Psychopy2022.1.3編制實(shí)驗(yàn)程序,并使用可視面積為 345mm×275mm 的CRT顯示器呈現(xiàn)實(shí)驗(yàn)刺激,顯示器刷新率為 60Hz. ,分辨率為1024×768pix 。被試距離屏幕約 60cm 0

每個(gè)試次中,4張面孔同時(shí)呈現(xiàn) 300ms ,接著是 400~700ms 的ISI,被試需要在面孔刺激呈現(xiàn)時(shí)探測(cè)中央注視點(diǎn)的變化,如果橫杠變長(zhǎng)按下“J\"鍵,豎杠變長(zhǎng)則按下“F\"鍵。注視點(diǎn)不變化時(shí)被試無(wú)需做出反應(yīng)(圖2)。

實(shí)驗(yàn)采用反向oddbal1范式,低情緒變異性面孔集合和高情緒變異性面孔集合互為標(biāo)準(zhǔn)刺激(80%) 和偏差刺激 (20%) 。實(shí)驗(yàn)一共有768個(gè)標(biāo)準(zhǔn)刺激和192個(gè)偏差刺激,總共960個(gè)試次。為了減少

"

被試疲勞,將實(shí)驗(yàn)分成12個(gè)組塊,其中6個(gè)組塊采用低情緒變異的面孔集合作為標(biāo)準(zhǔn)刺激,高情緒變異的面孔集合作為偏差刺激;而另外6個(gè)組塊則相反。各組塊隨機(jī)順序呈現(xiàn)。同一組塊內(nèi)面孔為同一性別,各條件下男性和女性面孔集合各半。相同性別的面孔身份在試次間隨機(jī)變化,并保證在標(biāo)準(zhǔn)試次和偏差試次中,每種面孔身份出現(xiàn)的次數(shù)相同。另外,集合中的4張情緒面孔被隨機(jī)分配到4個(gè)預(yù)先設(shè)定的位置。每個(gè)組塊有64個(gè)標(biāo)準(zhǔn)刺激和16個(gè)偏差刺激,注視點(diǎn)在每個(gè)組塊內(nèi)隨機(jī)變化8次。每個(gè)組塊結(jié)束后,有至少一分鐘的強(qiáng)制閉眼休息時(shí)間。實(shí)驗(yàn)開(kāi)始前,有80個(gè)練習(xí)試次,練習(xí)數(shù)據(jù)不納入分析,正式實(shí)驗(yàn)約45分鐘。

2.1.4腦電信號(hào)記錄與預(yù)處理

腦電數(shù)據(jù)(EEG)由 64導(dǎo) Ag/AgCI 電極腦電系統(tǒng)(NeuroScan,Texas,USA)采集。所有電極的頭皮電阻均小于 5kΩ ,采樣率為 500Hz 于距離左側(cè)眼晴上下 1.5cm 的位置放置電極記錄垂直眼電(VEOG),于距離雙眼外側(cè) 1.5cm 的位置放置電極記錄水平眼電(HEOG),位于鼻尖的電極作為參考電極。

在MatlabR2022a中使用EEGLABv2022.0和ERPLAB v9.10 對(duì)數(shù)據(jù)進(jìn)行預(yù)處理。首先進(jìn)行0.05~30Hz 的帶通濾波和 50Hz 的凹陷濾波。接著檢查并插值壞導(dǎo),并以面孔刺激出現(xiàn)前 100ms (作為基線)到面孔刺激出現(xiàn)后的 600ms 對(duì)腦電進(jìn)行分段。在數(shù)據(jù)分段后使用獨(dú)立成分分析(ICA)和IClabe1插件識(shí)別并矯正與眨眼、心電和肌電相關(guān)的成分。最后剔除超過(guò) ±75μV 幅值范圍的偽跡,并使用階躍函數(shù)(step-likeartifacts, 400ms 的移動(dòng)窗口,每步 10ms ,幅值范圍為 剔除含有水平眼動(dòng)的試次。根據(jù)實(shí)驗(yàn)需要,本研究只選取被試不按鍵的試次進(jìn)行疊加平均,并剔除以下試次:1每個(gè)組塊的前5個(gè)試次,因?yàn)榭紤]到每個(gè)組塊剛開(kāi)始時(shí),被試尚未習(xí)得偏差刺激和標(biāo)準(zhǔn)刺激呈現(xiàn)概率的規(guī)律;2實(shí)驗(yàn)中被試按鍵反應(yīng)后的下一個(gè)試次,旨在避免按鍵產(chǎn)生的動(dòng)作電位對(duì)后續(xù)試次的干擾。最終,低情緒變異性面孔集合為標(biāo)準(zhǔn)刺激或偏差刺激的試次數(shù)量分別為 280.92±33.85,64.21±8.08 ,高情緒變異性面孔集合為標(biāo)準(zhǔn)刺激或偏差刺激的試次數(shù)量分別為 263.50±31.86 、 76.46±9.99 。

2.1.5 行為數(shù)據(jù)分析

在以高情緒變異性和低情緒變異性為標(biāo)準(zhǔn)刺激的兩種條件下,分別計(jì)算注視點(diǎn)辨別的擊中率和

反應(yīng)時(shí),以此來(lái)評(píng)估被試的注意是否主要集中在中央注視點(diǎn)上。分析兩種條件下?lián)糁新屎头磻?yīng)時(shí)的差異,評(píng)估被試在各條件注意投入是否一致。

2.1.6 腦電信號(hào)分析

根據(jù)本實(shí)驗(yàn)?zāi)X電地形圖(圖3B)和前人情緒失匹配負(fù)波相關(guān)研究(Jietal.,2024;Liuetal.,2016;Stefanicsetal.,2012),選取110~140ms和320~420 ms這兩個(gè)時(shí)間窗,并選取枕顳葉電極P7/P8和PO7/PO8(Astikainen et al., 2013; Chen et al., 2020; Ding et al.,2022;Kovarskietal.,2017;Zhaoamp;Li,2006),對(duì)vMMN進(jìn)行分析。

首先,分別將左半球(P7,PO7)和右半球(P8,PO8)在高、低情緒變異性條件下偏差刺激誘發(fā)的ERP減去標(biāo)準(zhǔn)刺激誘發(fā)的ERP,得到各條件下的差異波。通過(guò)單樣本 t 檢驗(yàn),將兩個(gè)時(shí)間窗中各條件差異波的平均波幅與0進(jìn)行比較,判斷哪些條件誘發(fā)了vMMN(Chenetal.,2020)。其次,為了比較不同情緒變異程度和左右半球誘發(fā)的vMMN是否存在差異,對(duì)差異波進(jìn)行2(情緒變異性:高情緒變異、低情緒變異) ×2 (半球:左半球、右半球)兩因素重復(fù)測(cè)量方差分析。當(dāng)交互作用顯著時(shí),進(jìn)一步進(jìn)行簡(jiǎn)單效應(yīng)分析。

此外,我們使用基于Matlab的解碼工具CosmoMVPA(Oosterhofetal.,2016),對(duì)標(biāo)準(zhǔn)刺激和偏差刺激誘發(fā)的ERP進(jìn)行解碼分析。具體而言,采用支持向量機(jī)(supportvectormachine,SVM)作為分類器,對(duì)所有被試經(jīng)過(guò)預(yù)處理后的數(shù)據(jù),在高、低情緒變異性條件下,分別進(jìn)行“標(biāo)準(zhǔn)刺激\"和“偏差刺激\"的分類預(yù)測(cè)輸出。為了提高解碼分析中的信噪比,首先隨機(jī)選擇相同數(shù)量的標(biāo)準(zhǔn)試次和偏差試次,并對(duì)每個(gè)條件選擇 25% 原始試次在時(shí)域上疊加平均,合成新的ERP,該過(guò)程進(jìn)行500 次(Grootswagers etal.,2017;Proklova et al.,2019)。接著,將經(jīng)過(guò)合成后的ERP在62個(gè)有效電極(排除了M1、M2、水平眼電和垂直眼電)上進(jìn)行四折(four-fold)交叉驗(yàn)證解碼。在每次解碼過(guò)程中,數(shù)據(jù)將隨機(jī)分成4個(gè)獨(dú)立的組塊,分類器在其中3個(gè)組塊上進(jìn)行訓(xùn)練,并在第四個(gè)組塊上進(jìn)行測(cè)試。分類器的訓(xùn)練每 10ms 進(jìn)行一次(降采樣至 100Hz ,并進(jìn)行了4次迭代。為了避免分類誤差,訓(xùn)練集和測(cè)試集的試次數(shù)量保持一致。最后,對(duì)所有數(shù)據(jù)進(jìn)行平滑處理,并進(jìn)行二分預(yù)測(cè)(判斷數(shù)據(jù)屬于標(biāo)準(zhǔn)刺激還是偏差刺激) (Proklovaetal.,2019),得到解碼正確率,即正確分類次數(shù)除以所有樣例數(shù)。

我們用單樣本 t 檢驗(yàn)(單尾)將每個(gè)時(shí)間點(diǎn)的解碼正確率與機(jī)會(huì)水平(0.5)進(jìn)行比較,并采用非參數(shù)聚類的蒙特卡羅方法進(jìn)行10000次置換檢驗(yàn),以控制多重比較問(wèn)題(Marisamp;Oostenveld,2007),聚類閾限為0.05,顯著性水平 a=0.05 。由此獲得每對(duì)條件解碼正確率高于隨機(jī)水平的時(shí)間進(jìn)程,這反映了條件之間神經(jīng)模式的差異(Carlsonetal.,2020)。此外,參考Li等人(2022)中bootstrap 統(tǒng)計(jì)方法,檢驗(yàn)高、低面孔情緒變異性的最早解碼時(shí)間是否存在顯著差異。具體而言,我們對(duì)兩個(gè)情緒變異性條件的解碼正確率分別進(jìn)行了1000次bootstrap重采樣,并將每次重采樣結(jié)果中每個(gè)時(shí)間點(diǎn)的解碼正確率與機(jī)會(huì)水平(0.5)進(jìn)行比較,采用非參數(shù)聚類的蒙特卡羅方法進(jìn)行10000次置換檢驗(yàn),以此得到兩條件各自最早解碼時(shí)間的經(jīng)驗(yàn)分布。然后,進(jìn)行1000次置換檢驗(yàn)(雙尾檢驗(yàn)),檢驗(yàn)兩條件最早解碼時(shí)間是否存在顯著差異。計(jì)算出大于或小于觀測(cè)值的樣本數(shù),再除以置換檢驗(yàn)的總樣本數(shù),得到 p 值。

2.2 結(jié)果與討論

2.2.1 行為數(shù)據(jù)結(jié)果

以低情緒變異性和高情緒變異性作為標(biāo)準(zhǔn)刺激時(shí),被試對(duì)相應(yīng)的中央注視點(diǎn)變化辨別的擊中率分別為0.86 和0.86 SD=0.09 ,對(duì)目標(biāo)正確辨別的反應(yīng)時(shí)分別為593.01ms( ?SD=61.86? 和590.02ms 1 (SD=54.36) 。注視點(diǎn)辨別的成績(jī)較高,表明被試的注意能夠集中在中央注視點(diǎn)上。此外,分別對(duì)兩個(gè)條件的擊中率和反應(yīng)時(shí)進(jìn)行配對(duì)樣本 t 檢驗(yàn),結(jié)果發(fā)現(xiàn)擊中率和反應(yīng)時(shí)均無(wú)顯著差異, psgt; 0.484。這表明被試在各個(gè)條件的注意投入是相似的。

2.2.2 腦電數(shù)據(jù)結(jié)果

圖3A展示了左右側(cè)枕顳葉在高、低情緒變異性條件下的腦電波形圖。時(shí)間窗為 110~140ms 的結(jié)果顯示,高情緒變異性條件下右半球的差異波顯著小于0, t(23)=-3.10 , p= 0.005 ,Cohen's d= -0.63,95%CI=[-1.44,-0.29] 。其他條件差異波均與0無(wú)顯著差異,ts (23)gt;-1.27 , psgt;0.217 Cohen's dgt;-0.26 。對(duì)差異波進(jìn)行情緒變異性與半球的兩因素重復(fù)測(cè)量方差分析,結(jié)果表明情緒變異性與半球主效應(yīng)均不顯著, psgt;0.117 。情緒變異性與半球交互作用顯著, F(1,23)=4.59 p=0.043 , ηp2= 0.17。進(jìn)一步簡(jiǎn)單效應(yīng)分析發(fā)現(xiàn)在左半球,低情緒變異性 (M=-0.05 , SD=1.51 與高情緒變異性 (M= -0.33 , SD=1.27, 誘發(fā)的失匹配負(fù)波波幅無(wú)顯著差異, p=0.457 , Cohen's d=0.16 , 95% ΔCI=[-0.48 0

1.03];而在右半球,高情緒變異性 (M=-0.87 , SD= 1.37)誘發(fā)的失匹配負(fù)波比低情緒變異性 (M=0.02 0SD=1.40Ω )波幅更負(fù), p=0.038 ,Cohen's d=0.45 595%CI=[0.05,1.71 1(圖3C)。以上結(jié)果表明,高情緒變異性面孔集合能夠在早期誘發(fā)vMMN,進(jìn)行自動(dòng)加工,且存在右半球優(yōu)勢(shì)。

時(shí)間窗為 320~420ms 的結(jié)果顯示,高情緒變異性條件下右半球的差異波 (M=-1.00 , SD=1.99 )顯著小于0, t(23)=-2.45 , p= 0.022 , Cohen's d= -0.50,95%CI=[-1.84,-0.16]? 其他條件差異波(高情緒變異左半球: M=-0.57 SD=1.69 ;低情緒變異左半球: M=-0.01 , SD=1.83 ;低情緒變異右半球: M= -0.28 SD=2.24) 均與0無(wú)顯著差異,ts (23)gt;-1.66 psgt;0.111 ,Cohen's dgt;-0.34 。該結(jié)果說(shuō)明高情緒變異性面孔集合在晚期右半球也能誘發(fā)vMMN。不過(guò),兩因素重復(fù)測(cè)量方差分析結(jié)果表明情緒變異性與半球的主效應(yīng)和交互作用均不顯著, psgt;0.178 。

腦電解碼的結(jié)果發(fā)現(xiàn),兩種情緒變異性條件的解碼正確率在刺激呈現(xiàn)約 80ms 內(nèi)與隨機(jī)水平?jīng)]有差異。從 80ms 左右開(kāi)始,低情緒變異性條件解碼正確率顯著高于隨機(jī)水平,而高情緒變異性條件解碼正確率則在 90ms 左右開(kāi)始高于隨機(jī)水平(圖3D)但兩者最早解碼的時(shí)間無(wú)顯著差異 (p=0.827 ,雙側(cè)檢驗(yàn))。這表明兩個(gè)情緒變異性條件的標(biāo)準(zhǔn)和偏差刺激均能在早期被成功解碼。

總之,實(shí)驗(yàn)1結(jié)果發(fā)現(xiàn),低情緒變異性面孔集合無(wú)論在早期還是晚期均沒(méi)有誘發(fā)vMMN,而高情緒變異性面孔集合則誘發(fā)了早期 (110-140ms) 和晚期 320~420ms) 的vMMN。盡管在單變量分析上,低情緒變異性在所有時(shí)間窗上均為陰性結(jié)果,但這可能僅反應(yīng)了特定時(shí)間窗和電極點(diǎn)的結(jié)果。所以,我們還結(jié)合了多變量模式分析(MVPA),利用所有時(shí)間點(diǎn)和多通道數(shù)據(jù),進(jìn)一步探究大腦自動(dòng)加工情緒變異性信息時(shí)的神經(jīng)模式。MVPA的結(jié)果表明,在高、低情緒變異性條件下,全腦均能在 90ms 前解碼出標(biāo)準(zhǔn)和偏差兩類刺激類型,這反映了不論情緒變異性水平高還是低,大腦對(duì)標(biāo)準(zhǔn)與偏差刺激加工均有著不同的神經(jīng)響應(yīng)模式。以上結(jié)果說(shuō)明個(gè)體可以自動(dòng)加工多張面孔的情緒變異性信息。

3 實(shí)驗(yàn)2:情緒類型對(duì)多面孔情緒變異性自動(dòng)加工的影響

實(shí)驗(yàn)1揭示了當(dāng)平均情緒為中性時(shí),多面孔情緒變異性信息可以得到自動(dòng)加工。實(shí)驗(yàn)2將區(qū)分高

"

興和憤怒兩種平均情緒,進(jìn)一步考察不同情緒類型對(duì)情緒變異性自動(dòng)加工的影響。

3.1 方法

3.1.1 被試

實(shí)驗(yàn)2共招募32名被試,其中1名被試因設(shè)備故障問(wèn)題被剔除,其余4名被試因?yàn)閭污E或 a 波過(guò)多而被剔除。最終納入分析被試27名(女性16名),年齡為 21.34±1.97 歲,所有被試均為右利手,視力或矯正視力正常。在實(shí)驗(yàn)之前所有被試均簽署知情同意書(shū)并知曉實(shí)驗(yàn)內(nèi)容,實(shí)驗(yàn)結(jié)束后他們可以獲得每小時(shí)30元或一個(gè)學(xué)分的報(bào)酬。與實(shí)驗(yàn)1相同,實(shí)驗(yàn)2繼續(xù)沿用vMMN已有研究的效應(yīng)量(汪海玲等,2023),計(jì)算出最少被試量為18名,因此實(shí)驗(yàn)2最終樣本量符合要求。

3.1.2 實(shí)驗(yàn)材料

面孔材料與實(shí)驗(yàn)1類似,同樣有兩種面孔集合,分別為高情緒變異性組和低情緒變異性組。不同的是,面孔集合中的4張面孔均為憤怒或高興,且平均情緒不再是中性,而是分為中等憤怒(平均情緒效價(jià)為 25)和中等高興(平均情緒效價(jià)為 75)。低情緒變異性同樣超過(guò)情緒變異性感知的絕對(duì)閾限。由于區(qū)分兩種情緒類型,變異性可選范圍減少,因此高情緒變異性條件設(shè)定為,集合中任意兩個(gè)面孔情緒能互相區(qū)分(超過(guò)6個(gè)情緒單位這一分辨閥限)的最大標(biāo)準(zhǔn)差組合。具體而言,如圖4所示,在低情緒變異性面孔條件中,各面孔情緒單位分別為14、24、30、32(憤怒面孔集合)或64、74、80、82(高興面孔集合),4張面孔情緒的標(biāo)準(zhǔn)差均為7。在高情緒變異性面孔條件中,各面孔情緒單位分別為1、9、41、49(憤怒)或51、59、91、99(高興),4張面孔情緒的標(biāo)準(zhǔn)差均為20.39。集合內(nèi)4張面孔的情緒類型一致。

3.1.3 實(shí)驗(yàn)程序

實(shí)驗(yàn)2同樣采用反向oddbal1范式,同一種情緒類型下,低情緒變異性面孔集合和高情緒變異性面孔集合互為標(biāo)準(zhǔn)刺激( 80% 和偏差刺激 (20%) 。實(shí)驗(yàn)中憤怒面孔條件和高興面孔條件為block設(shè)計(jì),順序在被試間平衡。每種情緒類型各有768個(gè)標(biāo)準(zhǔn)刺激和192個(gè)偏差刺激,總共有1920個(gè)試次。為了減少被試疲勞,與實(shí)驗(yàn)1類似,每種情緒類型分成12個(gè)組塊隨機(jī)呈現(xiàn),其中6個(gè)組塊以低情緒變異性的面孔集合作為標(biāo)準(zhǔn)刺激,另外6個(gè)組塊以高情緒變異性的面孔集合作為標(biāo)準(zhǔn)刺激。實(shí)驗(yàn)任務(wù)同樣是判斷中央注視點(diǎn)的變化。每個(gè)組塊間有至少一分鐘的強(qiáng)制閉眼休息時(shí)間,正式實(shí)驗(yàn)約90分鐘,在正式實(shí)驗(yàn)中同時(shí)采集腦電信號(hào)。

3.1.4 數(shù)據(jù)分析

行為數(shù)據(jù)分析以及腦電數(shù)據(jù)預(yù)處理分析同實(shí)驗(yàn)1。其中,在高興條件下,低情緒變異性面孔集合為標(biāo)準(zhǔn)刺激或偏差刺激的試次數(shù)量分別為 272.74± 19.67,63.63±4.92 ,高情緒變異性面孔集合為標(biāo)準(zhǔn)刺激或偏差刺激的試次數(shù)量分別為 272.48±16.55 、68.52±4.52 。在憤怒條件下,低情緒變異性面孔集合為標(biāo)準(zhǔn)刺激或偏差刺激的試次數(shù)量分別為289.26±13.71 、 67.30±4.72 ,高情緒變異性面孔集合為標(biāo)準(zhǔn)刺激或偏差刺激的試次數(shù)量分別為289.52±13.66 、 69.19±1.75 。在腦電數(shù)據(jù)分析中,結(jié)合本實(shí)驗(yàn)?zāi)X電地形圖(圖5B),選取 320~420ms 時(shí)間窗,枕聶葉電極P7/P8和PO7/PO8,對(duì)vMMN進(jìn)行分析。從波形圖和地形圖看,實(shí)驗(yàn)2并沒(méi)有如實(shí)驗(yàn)1的早期失匹配成分 (110-140ms) ,但為了方便對(duì)照,也對(duì)該時(shí)間窗進(jìn)行了統(tǒng)計(jì)檢驗(yàn)。

圖4實(shí)驗(yàn)2面孔材料示例。A)為低情緒變異性面孔組合,B)為高情緒變異性面孔組合。在憤怒面孔集合的高、低情緒變異性條件中,平均情緒均為中等憤怒(25);在高興面孔集合的高、低情緒變異性條件中,平均情緒均為中等高興(75)。

首先將各條件下偏差刺激誘發(fā)的ERP減去標(biāo)準(zhǔn)刺激誘發(fā)的ERP,得到差異波。通過(guò)單樣本 t 檢驗(yàn),將各條件差異波的平均波幅與0進(jìn)行比較,判斷哪些條件誘發(fā)了vMMN(Chenetal.,2020)。接著,對(duì)差異波進(jìn)行2(情緒變異性:高情緒變異、低情緒變異) ×2 (情緒類型:高興、憤怒) ×2 (半球:左半球、右半球)的三因素重復(fù)測(cè)量方差分析。

與實(shí)驗(yàn)1相似,實(shí)驗(yàn)2也采用支持向量機(jī)作為分類器,分別在高興高情緒變異、高興低情緒變異、憤怒高情緒變異和憤怒低情緒變異條件下對(duì)標(biāo)準(zhǔn)刺激和偏差刺激誘發(fā)的ERP進(jìn)行解碼分析。對(duì)每個(gè)條件,通過(guò)單樣本 t 檢驗(yàn)(單尾)將每個(gè)時(shí)間點(diǎn)的解碼正確率與機(jī)會(huì)水平(0.5)進(jìn)行比較,并采用非參數(shù)聚類的蒙特卡羅方法進(jìn)行10000次置換檢驗(yàn),以控制多重比較問(wèn)題(Marisamp;Oostenveld,2007),聚類閥限為0.05,顯著性水平 a=0.05 。由此獲得每個(gè)條件解碼正確率高于機(jī)會(huì)水平的時(shí)間進(jìn)程,這反映了條件之間神經(jīng)模式的差異(Carlsonetal.,2020)。此外,采用bootstrap統(tǒng)計(jì)方法,分別檢驗(yàn)不同情緒類型時(shí),高、低面孔情緒變異性條件對(duì)標(biāo)準(zhǔn)和偏差刺激類型的最早解碼時(shí)間是否存在顯著差異,以及憤怒與高興情緒下對(duì)兩種刺激類型的最早解碼時(shí)間的先后關(guān)系。

3.2 結(jié)果與討論

3.2.1 行為數(shù)據(jù)結(jié)果

高興低情緒變異性、高興高情緒變異性、憤怒低情緒變異性和憤怒高情緒變異性條件下中央注視點(diǎn)變化辨別的擊中率分別為0.91 ?SD= 0.09? !0.90 ΔSD=0.07Ω. 、0.93 SD=0.07 )、0.92 ?SD=0.11 )正確分辨目標(biāo)的反應(yīng)時(shí)分別為 573.43ms 限 (SD= 50.83)、569.01ms( SD=48.87, )、567.72ms( 59.40)、570.24ms ?SD=59.36? 。注視點(diǎn)辨別的成績(jī)較高,表明在所有情緒變異性條件,被試的注意均能夠集中在中央注視點(diǎn)。此外,對(duì)擊中率和反應(yīng)時(shí)分別進(jìn)行2(情緒變異性:高情緒變異、低情緒變異) × 2(情緒類型:高興、憤怒)的重復(fù)測(cè)量方差分析,擊中率和反應(yīng)時(shí)的主效應(yīng)與交互作用均不顯著, psgt;α 0.243。這表明被試在各個(gè)條件的注意投入一致。

3.2.2 腦電數(shù)據(jù)結(jié)果

圖5A展示了高興、憤怒兩種情緒類型下,高、低情緒變異性條件在左右側(cè)枕顳葉的腦電波形圖。早期時(shí)間窗 110-140ms 并未在任何條件發(fā)現(xiàn)差異波波幅與0有顯著差異,ts (26)gt;-0.93 psgt;0.310 Cohen's dgt;-0.18 ,因而不再進(jìn)行進(jìn)一步方差分析比較各條件之間的差異波。

時(shí)間窗為 320~420ms 的結(jié)果顯示,當(dāng)面孔平均情緒為高興時(shí),無(wú)論低情緒變異性還是高情緒變異性條件,左右半球的差異波均與0沒(méi)有顯著差異,ts (26)gt;-1.73 0 psgt;0.095 ,Cohen's dgt;-0.33 。當(dāng)面孔平均情緒為憤怒時(shí),低情緒變異性條件下,左右半球的差異波均顯著小于0,誘發(fā)了失匹配負(fù)波t(26)=-2.18,p=0.038, Cohen's d=-0.42 2 95%CI= [-1.06,-0.03] t(26)=-2.52 , p=0.018 , Cohen's d= -0.48 ,95%CI=[-1.14,-0.12] 。高情緒變異性條件下,左半球的差異波(邊緣)顯著大于0,誘發(fā)了失匹配正波, t(26)=2.03,p=0.053 ,Cohen's d=0.39 95%CI=[-0.70%,1.08] ;而右半球的差異波與0沒(méi)有顯著差異, t(26)=1.64 , p= 0.113 , Cohen's d= 0.32,95%CI=[-0.12,1.02] 。這些結(jié)果表明當(dāng)面孔整體情緒為憤怒時(shí),個(gè)體可以自動(dòng)加工面孔情緒變異性信息。

對(duì) 320~420ms 時(shí)間窗的差異波進(jìn)行情緒變異性、情緒類型與半球三因素重復(fù)測(cè)量方差分析,結(jié)果表明情緒變異性和情緒類型交互作用顯著, F (1,26)=5.83 5 , ηp2=0.18 。進(jìn)一步簡(jiǎn)單效應(yīng)分析發(fā)現(xiàn),在低情緒變異性條件下,高興面孔 M= -0.27 , SD=1.57 與憤怒面孔 (M=-0.59 , SD=1.23 )誘發(fā)的差異波無(wú)顯著差異, p=0.390 ;在高情緒變異性條件下,高興面孔 (M=-0.58 , SD=1.80) 誘發(fā)的差異波比憤怒面孔 (M=0.50 SD=1.36 更負(fù), p= 0.016(圖6A)。其余主效應(yīng)和交互作用均不顯著, psgt; 0.167。

腦電解碼的結(jié)果發(fā)現(xiàn),所有情緒變異性條件的解碼正確率在刺激呈現(xiàn)后大約 70ms 內(nèi)與機(jī)會(huì)水平?jīng)]有差異。當(dāng)平均情緒為高興時(shí),低情緒變異性的解碼正確率在 100ms 左右開(kāi)始顯著高于隨機(jī)水平,而高情緒變異性則在 70ms 左右開(kāi)始高于隨機(jī)水平大約比低情緒變異性早 30ms 1 (plt;0.001 ,雙側(cè)檢驗(yàn))。當(dāng)平均情緒為憤怒時(shí),低情緒變異性的解碼正確率在 80ms 左右開(kāi)始高于隨機(jī)水平,而高情緒變異性則在 70ms 左右開(kāi)始高于隨機(jī)水平,大約比低情緒變異性早 10ms 1 (plt;0.001 ,雙側(cè)檢驗(yàn))(圖6B)。也就是說(shuō),無(wú)論在何種情緒類型下,相較低情緒變異性面孔集合,大腦對(duì)高情緒變異性面孔集合作為標(biāo)準(zhǔn)和偏差刺激的解碼進(jìn)程更早。此外,憤怒條件下,對(duì)標(biāo)準(zhǔn)和偏差刺激類型的解碼最早顯著時(shí)間也早于高興條件 ,雙側(cè)檢驗(yàn)),在一定程度上支持了負(fù)性偏向。

"
"

總之,實(shí)驗(yàn)2并未發(fā)現(xiàn)實(shí)驗(yàn)1中的早期失匹配負(fù)波 110-140ms) 。而在 320~420ms 時(shí)間窗的結(jié)果發(fā)現(xiàn),當(dāng)面孔整體情緒為高興時(shí),高、低情緒變異性面孔集合并未誘發(fā)顯著的vMMN。當(dāng)面孔整體情緒為憤怒時(shí),高、低情緒變異性面孔集合均在呈現(xiàn)后320~420ms 誘發(fā)了視覺(jué)失匹配成分。具體而言,在低情緒變異性條件下,發(fā)現(xiàn)了視覺(jué)失匹配負(fù)波(vMMN);而當(dāng)其為高情緒變異性時(shí),偏差刺激比標(biāo)準(zhǔn)刺激引起的波幅更正,即出現(xiàn)了正向的視覺(jué)失匹配成分(vMMP)。雖然這里憤怒的高、低情緒變異性面孔誘發(fā)的失匹配成分極性相反,但均表明大腦對(duì)情緒變異性信息進(jìn)行了自動(dòng)加工。MVPA結(jié)果發(fā)現(xiàn),所有情緒變異性條件下,標(biāo)準(zhǔn)和偏差刺激均能在早期就被成功解碼,但低情緒變異性面孔時(shí)間相對(duì)更晚。以上結(jié)果說(shuō)明個(gè)體可以自動(dòng)加工多張面孔的情緒變異性信息,且情緒類型可能對(duì)變異性自動(dòng)加工產(chǎn)生影響。

4實(shí)驗(yàn)3:排除全距和分布對(duì)多面 孔情緒變異性自動(dòng)加工的解釋

實(shí)驗(yàn)1和實(shí)驗(yàn)2表明個(gè)體可以自動(dòng)加工多面孔情緒變異性信息。然而,在這兩個(gè)實(shí)驗(yàn)中,變異性增大的同時(shí)也帶來(lái)全距增大,個(gè)體有可能通過(guò)極端值對(duì)集合進(jìn)行估計(jì)(Solomonetal.,2011)。相比于低情緒變異性面孔集合,高情緒變異面孔集合包含了情緒更強(qiáng)的面孔。這可能使結(jié)果反映的是個(gè)體對(duì)某張情緒面孔的自動(dòng)加工,而不是多張面孔情緒變異性的自動(dòng)加工。此外,兩個(gè)實(shí)驗(yàn)的高、低情緒變異性面孔分布形式并不一致。根據(jù)Kim和Chong(2020)的研究,個(gè)體可以感知集合的分布形式。因而,實(shí)驗(yàn)3將控制高、低情緒變異性條件的全距,兩者均包含相同的最強(qiáng)情緒面孔,另外兩者均為對(duì)稱分布,進(jìn)一步檢驗(yàn)是否能重復(fù)之前實(shí)驗(yàn)的發(fā)現(xiàn),從而排除全距和分布形式對(duì)結(jié)果的影響。

4.1 方法

4.1.1 被試

實(shí)驗(yàn)3共招募30名被試。由于高、低情緒變異性條件的全距相同,兩者標(biāo)準(zhǔn)差之間的差別更小因而在實(shí)驗(yàn)后我們測(cè)試了被試是否能夠正確區(qū)分變異性程度。結(jié)果發(fā)現(xiàn)6名被試成績(jī)?cè)陔S機(jī)水平,因而將其剔除。最終納入分析被試24名(女性15名),年齡為 19.58±1.98 歲,所有被試均為右利手,視力或矯正視力正常。在實(shí)驗(yàn)之前所有被試均簽署知情同意書(shū)并知曉實(shí)驗(yàn)內(nèi)容,實(shí)驗(yàn)結(jié)束后他們可以獲得每小時(shí)30元或一個(gè)學(xué)分的報(bào)酬。與實(shí)驗(yàn)1、2相同,實(shí)驗(yàn)3繼續(xù)沿用vMMN已有研究的效應(yīng)量(汪海玲等,2023),計(jì)算出最少被試量為18名,因此實(shí)驗(yàn)3最終樣本量符合要求。

4.1.2 實(shí)驗(yàn)材料

面孔材料與實(shí)驗(yàn)1類似,同樣有兩種面孔集合,分別為高情緒變異性組和低情緒變異性組。不同的是,出于控制全距的需要,兩種面孔組合中均包含最強(qiáng)的憤怒(1)和最強(qiáng)的高興情緒(99)面孔。因而,實(shí)驗(yàn)3中兩種面孔組合的情緒變異性都較大,只是高情緒變異性相對(duì)而言變異性更大。具體而言,低情緒變異性的標(biāo)準(zhǔn)差與實(shí)驗(yàn)1的高情緒變異性接近而高情緒變異性則為各面孔情緒能互相區(qū)分的最大標(biāo)準(zhǔn)差組合。如圖7所示,高、低情緒變異性中各情緒值都是對(duì)稱分布。在低情緒變異性面孔條件中,各面孔情緒單位分別為1、38、62、99,四張面孔情緒的標(biāo)準(zhǔn)差為35.67。在高情緒變異性面孔條件中,各面孔情緒單位分別為1、13、87、99,四張面孔情緒的標(biāo)準(zhǔn)差為43.42。

圖7實(shí)驗(yàn)3面孔材料示例。A)為低情緒變異性面孔組合,B)為高情緒變異性面孔組合。在高、低情緒變異性條件中,平均情緒均為中性(50)。

4.1.3 實(shí)驗(yàn)程序

與實(shí)驗(yàn)1一致。

4.1.4 數(shù)據(jù)分析

行為數(shù)據(jù)分析以及腦電數(shù)據(jù)預(yù)處理分析同實(shí)驗(yàn)1。低情緒變異性面孔集合為標(biāo)準(zhǔn)刺激或偏差刺激的試次數(shù)量分別為 282.58±3.72 、 77.46±3.09 0高情緒變異性面孔集合為標(biāo)準(zhǔn)刺激或偏差刺激的試次數(shù)量分別為 282.33±5.29 、 76.21±4.73 。在腦電數(shù)據(jù)分析中,與實(shí)驗(yàn)1一致,選取 110~140ms 和320~420ms 這兩個(gè)時(shí)間窗,并選取枕顳葉電極P7/P8和PO7/PO8,對(duì)vMMN進(jìn)行分析。

腦電分析方法與實(shí)驗(yàn)1相同。計(jì)算各條件差異波,單樣本 t 檢驗(yàn)與0進(jìn)行比較,并對(duì)差異波進(jìn)行2(情緒變異性:高情緒變異、低情緒變異) ×2 (半球:左半球、右半球)的兩因素重復(fù)測(cè)量方差分析。此外,實(shí)驗(yàn)3同樣采用支持向量機(jī)作為分類器,對(duì)標(biāo)準(zhǔn)刺激和偏差刺激誘發(fā)的ERP進(jìn)行解碼分析,并用bootstrap統(tǒng)計(jì)方法,檢驗(yàn)高、低面孔情緒變異性條件之間最早解碼時(shí)間是否存在顯著差異。

4.2 結(jié)果與討論

4.2.1 行為數(shù)據(jù)結(jié)果

以低情緒變異性和高情緒變異性作為標(biāo)準(zhǔn)刺激時(shí),被試對(duì)相應(yīng)的中央注視點(diǎn)變化辨別的擊中率分別為0.88 ?SD=0.09, 和0.86 (SD=0.12) ,對(duì)目標(biāo)正確辨別的反應(yīng)時(shí)分別為 560.42ms 1 ?SD=49.01 和562.08ms 0 ?SD=39.34? 。注視點(diǎn)辨別成績(jī)較高,表明被試的注意能夠集中在中央注視點(diǎn)上。此外,分別對(duì)兩個(gè)條件的擊中率和反應(yīng)時(shí)進(jìn)行配對(duì)樣本 t 檢驗(yàn),結(jié)果發(fā)現(xiàn)擊中率和反應(yīng)時(shí)均無(wú)顯著差異, psgt; 0.342。這表明被試在各個(gè)條件的注意投人一致。

4.2.2 腦電數(shù)據(jù)結(jié)果

圖8A展示了左右側(cè)枕顳葉在高、低情緒變異性條件下的腦電波形圖,圖8B展示了兩個(gè)時(shí)間窗的差異波地形圖。早期時(shí)間窗 (110-140ms) 并未在任何條件發(fā)現(xiàn)差異波與0有顯著差異,ts (23)gt;0.31 psgt;0.180 ,Cohen's dgt;0.06 。時(shí)間窗為 320~420ms 的結(jié)果顯示,低情緒變異性條件下,左、右半球的差異波(左半球: M=0.01 , SD=2.02 ;右半球: M= -0.12 , SD=1.69, 均與0無(wú)顯著差異,ts (23)gt;-0.34 psgt;0.735 ,Cohen's dgt;-0.07 。高情緒變異性條件下,左、右半球差異波(左半球: M=0.66 SD=1.05 右半球: M=0.78 , SD=1.14) 均顯著大于0, t(23)= 3.08, p=0.005 ,Cohen's d=0.63 , 95% ( CI=[0.22 01.10]; t(23)=3.33 p=0.003 ,Cohen's d=0.68 95% CI=[0.30,1.26] (圖8C)。結(jié)果表明高情緒變異性面孔集合在 320~420ms 時(shí)間窗能誘發(fā)視覺(jué)失匹配成分。不過(guò),兩因素重復(fù)測(cè)量方差分析發(fā)現(xiàn),情緒變異性與半球的主效應(yīng)和交互作用均不顯著, psgt;0.129 。

腦電解碼的結(jié)果發(fā)現(xiàn),兩種情緒變異性條件的解碼正確率在刺激呈現(xiàn)約 70ms 內(nèi)與隨機(jī)水平?jīng)]有差異。從 70ms 左右開(kāi)始,高、低情緒變異性條件解碼正確率均顯著高于隨機(jī)水平(圖8D),最早解碼時(shí)間不存在顯著差異 (p=0.683 ,雙側(cè)檢驗(yàn))。這表明各情緒變異性條件的標(biāo)準(zhǔn)和偏差刺激均能在早期就被成功解碼。

總之,實(shí)驗(yàn)3也未發(fā)現(xiàn)實(shí)驗(yàn)1中的早期失匹配負(fù)波。不過(guò),在 320~420ms 這一時(shí)間窗,低情緒變異性面孔集合沒(méi)有誘發(fā)視覺(jué)失匹配成分,而高情緒變異性面孔集合則誘發(fā)了視覺(jué)失匹配正波(vMMP),這表明大腦對(duì)高情緒變異性信息進(jìn)行了自動(dòng)加工。MVPA結(jié)果發(fā)現(xiàn),在高、低情緒變異性條件下,全腦均能在 70ms 解碼出標(biāo)準(zhǔn)和偏差刺激的差異,這反映了大腦對(duì)標(biāo)準(zhǔn)刺激與偏差刺激有著不同的神經(jīng)響應(yīng)模式。以上結(jié)果說(shuō)明個(gè)體可以自動(dòng)加工多張面孔的情緒變異性信息,且這一結(jié)果不能僅由全距或分布不同來(lái)解釋。

圖8A)實(shí)驗(yàn)3中的ERP波形圖。差異波指由偏差刺激誘發(fā)的ERP減去標(biāo)準(zhǔn)刺激誘發(fā)的ERP,陰影部分是感興趣的時(shí)間窗( 110~140ms 和 320~420ms) 。B)實(shí)驗(yàn)3中差異波的地形圖。地形圖上所標(biāo)記電極點(diǎn)的平均波幅用于繪制該腦區(qū)的ERP波形圖以及統(tǒng)計(jì)分析 實(shí)驗(yàn)3中高、低情緒變異性條件在 320~420ms 左右側(cè)分析電極的vMMN(偏差刺激波幅減標(biāo)準(zhǔn)刺激波幅)平均波幅,每個(gè)點(diǎn)代表被試在該條件下的平均波幅,黑色菱形和誤差棒代表每個(gè)條件平均值及 95% 置信區(qū)間。D)實(shí)驗(yàn)3中ERP的解碼結(jié)果。靠近 軸的橫線為解碼正確率大于機(jī)會(huì)水平的時(shí)間窗 (plt;0.05) 。

5 總討論

本研究首次通過(guò)反向oddball范式和vMMN(Pazo-Alvarez et al., 2003; Winkler amp; Czigler, 2012)考察多面孔情緒變異信息自動(dòng)加工的神經(jīng)機(jī)制。研究中多面孔情緒變異性加工是與任務(wù)無(wú)關(guān)的,并且人們的注意主要被中央注視點(diǎn)變化檢測(cè)任務(wù)所占據(jù)(Ding et al., 2022;Liu etal.,2016;Stefanics et al.,2012;Zeng etal.,2022)。實(shí)驗(yàn)1采用兩張憤怒和兩張高興面孔組成面孔集合,平均情緒為中性,考察高、低情緒變異性面孔誘發(fā)的vMMN。單變量分析結(jié)果發(fā)現(xiàn),僅有高情緒變異性面孔在刺激出現(xiàn)后110~140ms 和 320~420ms 誘發(fā)了vMMN。多變量模式分析(MVPA)結(jié)果發(fā)現(xiàn)高、低情緒變異性條件均能在早期解碼出標(biāo)準(zhǔn)和偏差兩種刺激類型。實(shí)驗(yàn)2中面孔集合包含相同情緒效價(jià)的4張面孔,平均情緒為中等程度的憤怒或高興,進(jìn)一步考察情緒類型對(duì)多面孔情緒變異性自動(dòng)加工的影響。單變量分析結(jié)果發(fā)現(xiàn),當(dāng)整體情緒為憤怒時(shí),高、低情緒變異性面孔集合在刺激出現(xiàn)后 320~420ms 均能誘發(fā)視覺(jué)失匹配成分;而當(dāng)整體情緒為高興時(shí),高、低情緒變異性面孔集合在呈現(xiàn)后 320~420ms 并未誘發(fā)顯著的vMMN。MVPA結(jié)果則發(fā)現(xiàn),在所有情緒變異性條件下,全腦均能在早期開(kāi)始解碼出標(biāo)準(zhǔn)和偏差刺激,且高情緒變異性的解碼時(shí)程相對(duì)更早。與實(shí)驗(yàn)1類似,實(shí)驗(yàn)3中平均情緒為中性,并且控制了不同情緒變異性條件的全距與分布形式。結(jié)果發(fā)現(xiàn)僅有高情緒變異性面孔在刺激出現(xiàn)后320~420ms 誘發(fā)了視覺(jué)失匹配成分。MVPA結(jié)果發(fā)現(xiàn),在高、低情緒變異性條件下,全腦也能在早期開(kāi)始解碼出標(biāo)準(zhǔn)和偏差刺激,這在一定程度上重復(fù)了前兩個(gè)實(shí)驗(yàn)的結(jié)果。這些研究結(jié)果表明,人們可以在注意資源非常有限的條件下,自動(dòng)探測(cè)多張面孔情緒變異性的變化,且相對(duì)更高的情緒變異性更具加工優(yōu)勢(shì),負(fù)性情緒也在一定程度上有利于情緒變異性的加工。

5.1 多面孔情緒變異性自動(dòng)加工受相對(duì)情緒變異程度影響

已有許多研究表明個(gè)體可以自動(dòng)加工多張面孔的情緒信息。當(dāng)在外周視野呈現(xiàn)的多張面孔情緒類型發(fā)生變化,或是外周與中央面孔的情緒一致性發(fā)生變化時(shí),大腦可以對(duì)其進(jìn)行自動(dòng)檢測(cè)和加工(Stefanics et al., 2012; Xiong et al., 2022; Zeng et al.,2022)。但是這些研究中,同時(shí)呈現(xiàn)的多張面孔身份或情緒類型往往是相同的。當(dāng)集合中包含多個(gè)不同身份或情緒面孔時(shí),個(gè)體也能自動(dòng)加工其身份和情緒的平均信息(Jietal.,2024;Robertsetal.,2019)。

與平均加工類似,視覺(jué)系統(tǒng)可以快速且準(zhǔn)確地對(duì)多張不同面孔形成變異性表征。例如,在短暫的呈現(xiàn)時(shí)間下(1s)分辨16張面孔的情緒變異性水平(Habermanetal.,2015)。在本研究中,集合包含的每張面孔的情緒強(qiáng)度都是不同的,且無(wú)論是偏差還是標(biāo)準(zhǔn)刺激,它們的平均情緒都一致,唯一變化的是面孔集合的變異性。因此,研究中發(fā)現(xiàn)的視覺(jué)失匹配成分反映了非注意條件下,個(gè)體能夠自動(dòng)加工外周多張面孔的情緒變異性信息。這種能力使得個(gè)體可以感知到一系列面孔集合中情緒變異性水平的規(guī)律,而當(dāng)與規(guī)律不符的偏差刺激出現(xiàn)時(shí),大腦會(huì)產(chǎn)生預(yù)測(cè)誤差(Jietal.,2024;Lacroixetal.,2022;Stefanics et al.,2014,2019;Winkleramp; Czigler,2012)。

需要注意的是,雖然在實(shí)驗(yàn)2中憤怒的高情緒變異性面孔與實(shí)驗(yàn)3的高情緒變異性面孔也誘發(fā)了視覺(jué)失匹配成分,但此時(shí)結(jié)果是標(biāo)準(zhǔn)刺激比偏差刺激誘發(fā)的平均波幅更負(fù),即誘發(fā)視覺(jué)失匹配正波(vMMP)。以往在低水平刺激(如:光柵)和高水平刺激(如:面孔)上,均有發(fā)現(xiàn)這種\"正向失匹配\"成分(Chen et al.,2020;Ji et al., 2024;Sel et al.,2016;Sulykosamp;Czigler,2011)。與經(jīng)典的vMMN成分相比,vMMP出現(xiàn)了相反的極性,這可能反映了不同情緒類型的視覺(jué)失匹配神經(jīng)響應(yīng)來(lái)源于不同腦區(qū)(Chenetal.,2020)。盡管我們對(duì)于vMMP的形成尚缺少深入的理論解釋,但它仍然可以被認(rèn)為大腦區(qū)分了標(biāo)準(zhǔn)刺激與偏差刺激之間的差異(Sulykosamp;Czigler,2011)。因此,與vMMN類似,vMMP在一定程度上也能反映大腦對(duì)刺激的自動(dòng)加工。

與高情緒變異性面孔集合不同,除了實(shí)驗(yàn)2的憤怒條件,實(shí)驗(yàn)1、實(shí)驗(yàn)2的高興條件,以及實(shí)驗(yàn)3中,低情緒變異性面孔集合并沒(méi)有誘發(fā)顯著的視覺(jué)失匹配成分。對(duì)這一結(jié)果可能的解釋是,人們雖然可以自動(dòng)識(shí)別多面孔情緒變異性信息的變化,但在低情緒變異性面孔序列中,情緒變化較小,而高情緒變異性面孔更為顯著,從而更容易自動(dòng)識(shí)別,反過(guò)來(lái)卻相對(duì)困難。這種不對(duì)稱性在以往研究中也有所發(fā)現(xiàn)。例如,多個(gè)光柵朝向完全隨機(jī)的集合(高變異)與多個(gè)光柵朝向很相近的集合(低變異)系列呈現(xiàn),互為標(biāo)準(zhǔn)刺激和偏差刺激。結(jié)果發(fā)現(xiàn),只有對(duì)高變異的集合,才發(fā)現(xiàn)偏差和標(biāo)準(zhǔn)誘發(fā)的腦電波幅差異,即誘發(fā)了vMMN;對(duì)低變異集合,則沒(méi)有發(fā)現(xiàn)顯著的vMMN(Durant etal.,2017)。研究者從預(yù)測(cè)編碼(Stefanicsetal.,2014)的角度對(duì)其解釋,可能當(dāng)高變異集合作為標(biāo)準(zhǔn)刺激重復(fù)呈現(xiàn)時(shí),雖然集合標(biāo)準(zhǔn)差不變,但集合之間每個(gè)個(gè)體差異較大,難以建立預(yù)期,因而對(duì)偶爾呈現(xiàn)的低變異集合偏差刺激也不再有預(yù)測(cè)誤差。

此外,低情緒變異性面孔加工的相對(duì)劣勢(shì)與其相對(duì)變異性水平有關(guān),而非變異性的絕對(duì)值。例如,實(shí)驗(yàn)3中低情緒變異性條件(35.67)與實(shí)驗(yàn)1中高情緒變異性條件(36.24)的標(biāo)準(zhǔn)差相似,但是實(shí)驗(yàn)3中低情緒變異性面孔無(wú)法誘發(fā)vMMN,而實(shí)驗(yàn)1中高情緒變異性集合卻誘發(fā)了視覺(jué)失匹配成分。值得注意的是,雖然各實(shí)驗(yàn)中大部分低情緒變異性條件沒(méi)有發(fā)現(xiàn)顯著的vMMN,但是MVPA結(jié)果卻發(fā)現(xiàn)大腦也能解碼出低情緒變異性條件下標(biāo)準(zhǔn)和偏差兩類刺激,說(shuō)明對(duì)這兩類刺激的神經(jīng)反應(yīng)模式存在差別,這在一定程度上反映個(gè)體能夠?qū)Φ颓榫w變異性信息進(jìn)行自動(dòng)加工。不同結(jié)果之間存在差異的原因可能在于,MVPA利用所有通道的大腦反應(yīng)模式,相較于分析某些特定電極上的平均活動(dòng),具有更高的靈敏度(Fahrenfortetal.,2017),有助于揭示傳統(tǒng)ERPs分析中較難識(shí)別的條件之間的差異(Epsteinamp;Emmanouil, 2021)。

另一個(gè)有趣的發(fā)現(xiàn)是,在實(shí)驗(yàn)1的高情緒變異性條件出現(xiàn)了早期的視覺(jué)失匹配成分 (110-140ms) 這與P1成分時(shí)間窗有所重疊。一些與面孔情緒加工相關(guān)的研究也發(fā)現(xiàn),視覺(jué)失匹配成分出現(xiàn)在P1的時(shí)間窗(Liu etal.,2015,2016;Stefanicsetal.,2012)。本研究采用反向oddball范式(Stefanicsetal.,2012),在高情緒變異偏差刺激和高情緒變異標(biāo)準(zhǔn)刺激之間進(jìn)行比較,或者在低情緒變異偏差刺激和低情緒變異標(biāo)準(zhǔn)刺激之間比較,相比較的刺激僅在呈現(xiàn)頻率上不同,因而早期的視覺(jué)失匹配成分不能完全歸因于物理刺激的影響。此外,不同于以往研究只采用單一身份(Gayleetal.,2012;Zhaoamp;Li,2006或相同情緒強(qiáng)度的面孔(Chen etal.,2020;Stefanicsetal.,2012;Zeng etal.,2022),本研究面孔選用了兩名男性和兩名女性共4個(gè)身份,并且4張面孔情緒強(qiáng)度均不一致,面孔的位置也是隨機(jī)的避免簡(jiǎn)單的適應(yīng)效應(yīng)。本研究發(fā)現(xiàn)的早期視覺(jué)失匹配成分可能與情緒的相對(duì)變異性程度有關(guān)。在實(shí)驗(yàn)1中,高情緒變異性面孔集合的標(biāo)準(zhǔn)差(36.24)與低情緒變異性標(biāo)準(zhǔn)差(12.08)的差距更大,而實(shí)驗(yàn)2中(20.39vs.7與實(shí)驗(yàn)3中高、低情緒變異性標(biāo)準(zhǔn)差(43.42vs.35.67)的差距更小。結(jié)果發(fā)現(xiàn),僅有實(shí)驗(yàn)1中的高情緒變異性面孔集合誘發(fā)了早期的vMMN。一項(xiàng)腦成像研究指出,相較于低變異性的光柵朝向,個(gè)體加工高變異性的光柵朝向會(huì)引起左側(cè)額中回和右側(cè)額上回更大的激活程度,這表明存在對(duì)高變異性信息的加工優(yōu)勢(shì)(Allardetal.,2021)。本研究結(jié)果也表明,當(dāng)面孔集合情緒相對(duì)變異性程度更大時(shí),個(gè)體對(duì)其自動(dòng)加工的程度也相應(yīng)增強(qiáng)。

不過(guò)當(dāng)方差分析直接對(duì)比高、低情緒變異性下的差異波幅時(shí),除了實(shí)驗(yàn)1的早期時(shí)間窗發(fā)現(xiàn)高情緒變異性誘發(fā)的vMMN波幅大于低情緒變異性,其余實(shí)驗(yàn)結(jié)果均沒(méi)有發(fā)現(xiàn)兩者之間的顯著差異。這可能表明高、低情緒變異性需要較大的區(qū)別,才能觀察到其誘發(fā)的vMMN差異。后續(xù)研究可以考慮采用更多的面孔數(shù)量,進(jìn)一步擴(kuò)大高、低情緒變異性之間的距離,以驗(yàn)證相對(duì)情緒變異性的自動(dòng)加工機(jī)制。

5.2 情緒類型對(duì)多面孔情緒變異性自動(dòng)加工的影響

實(shí)驗(yàn)2中發(fā)現(xiàn)在 320~420ms ,低情緒變異性面孔集合僅有在整體情緒為負(fù)性時(shí),才誘發(fā)視覺(jué)失匹配負(fù)波。MVPA也揭示,憤怒條件下對(duì)標(biāo)準(zhǔn)和偏差刺激的最早解碼時(shí)間早于高興條件。這在一定程度支持了大腦在自動(dòng)加工多張憤怒面孔時(shí)可能出現(xiàn)了負(fù)性偏向。類似的,無(wú)論在加工的早期(Stefanicsetal.,2012;Zenget al.,2022)、中期(Chen etal.,2020)、或是晚期階段(Liuetal.,2016),許多研究發(fā)現(xiàn)了對(duì)負(fù)性情緒面孔自動(dòng)加工的優(yōu)勢(shì)。

Chen等人(2020)采用視覺(jué)掩蔽范式,考察無(wú)意識(shí)狀態(tài)下個(gè)體能否對(duì)情緒面孔自動(dòng)加工,結(jié)果發(fā)現(xiàn)負(fù)性情緒比正性情緒更容易在較低的意識(shí)水平下自動(dòng)加工。另一項(xiàng)研究采用連續(xù)閃爍抑制范式,發(fā)現(xiàn)負(fù)性面孔情緒更容易突破無(wú)意識(shí)到意識(shí)的知覺(jué)閾限(Jiangetal.,2018)。當(dāng)個(gè)體加工多面孔的平均情緒時(shí),也會(huì)出現(xiàn)負(fù)性偏向。一項(xiàng)研究采用二擇一的迫選任務(wù),要求被試將呈現(xiàn)的單張或多張面孔的情緒判斷為憤怒或者高興,其中每種情緒類型的強(qiáng)度范圍從 20% 到 100% 。結(jié)果發(fā)現(xiàn)負(fù)性偏向是面孔數(shù)量與面孔感知的不確定性共同作用的結(jié)果。多張面孔引起的負(fù)性偏向比單張面孔更大,并在面孔數(shù)量4張時(shí)達(dá)到峰值。此外,當(dāng)情緒強(qiáng)度低時(shí),會(huì)導(dǎo)致面孔感知的不確定性,進(jìn)而加大了負(fù)性偏向(Mihalacheetal.,2021)。在我們的研究中,采用了4張面孔作為刺激材料,且在外周視野快速呈現(xiàn),同樣也會(huì)造成感知的不確定性。因此,大腦出于自我保護(hù)的需要,可能會(huì)更容易對(duì)憤怒面孔這種具有潛在威脅的刺激進(jìn)行自動(dòng)加工。此外,無(wú)論在高興還是憤怒條件下,相較低情緒變異性面孔集合,大腦對(duì)高情緒變異性面孔集合的解碼進(jìn)程更早。而當(dāng)整體情緒為中性時(shí),并未在高、低情緒變異性之間發(fā)現(xiàn)解碼進(jìn)程的差異。這說(shuō)明情緒類型會(huì)對(duì)多面孔情緒變異性自動(dòng)加工產(chǎn)生影響。

值得注意的是,實(shí)驗(yàn)2結(jié)果發(fā)現(xiàn),在高情緒變異性條件下,高興面孔誘發(fā)的差異波比憤怒面孔更負(fù)。但是,這并非由于高興面孔誘發(fā)更大程度的視覺(jué)失匹配負(fù)波,而是因?yàn)閮烧哒T發(fā)的差異波方向不同,前者為負(fù)值而后者為正值,兩者絕對(duì)值沒(méi)有顯著差異。總之,我們的結(jié)果部分支持了憤怒情緒在一定程度上有利于情緒變異性的自動(dòng)加工,但仍需在更嚴(yán)格控制不同效價(jià)的情緒強(qiáng)度的基礎(chǔ)上進(jìn)一步驗(yàn)證這一結(jié)果。

此外,實(shí)驗(yàn)2還發(fā)現(xiàn),在憤怒情緒下,低情緒變異性面孔誘發(fā)了vMMN,而高情緒變異性面孔誘發(fā)了vMMP。在以往研究中,也發(fā)現(xiàn)在不同的情緒條件下,面孔情緒的自動(dòng)加工誘發(fā)了相反極性的視覺(jué)失匹配成分。例如,憤怒情緒誘發(fā)vMMN,而高興情緒誘發(fā)vMMP(Chenetal.,2020;Jietal.,2024)。然而,在本研究的實(shí)驗(yàn)3中,即使平均情緒為中性,高情緒變異性條件依然誘發(fā)了vMMP。視覺(jué)失匹配成分的極性與面孔情緒效價(jià)以及情緒變異性程度的關(guān)系尚未完全明確,仍需進(jìn)一步考察。

本研究還有一些不足之處。首先,研究采用中央注視點(diǎn)辨別任務(wù)來(lái)占據(jù)注意資源,盡管該任務(wù)在vMMN研究中被廣泛使用(Liuetal.,2024;Menzelet al.,2018;Stefanics et al., 2012; Tse et al., 2021;Zengetal.,2022),并有證據(jù)表明在該任務(wù)下,人們難以分辨或識(shí)別外周視野與任務(wù)無(wú)關(guān)的面孔信息(Jietal.,2024),但該任務(wù)仍相對(duì)比較簡(jiǎn)單。未來(lái)研究可以考慮采用其他更需注意資源的任務(wù),例如移動(dòng)目標(biāo)追蹤(Csikós etal.,2024;Fileamp; Czigler,2019),以進(jìn)一步檢驗(yàn)變異性加工對(duì)注意資源依賴的程度。其次,雖然實(shí)驗(yàn)3中控制了高、低情緒變異性條件均為對(duì)稱分布,但嚴(yán)格而言兩者分布仍不完全相同,這是在控制全距操縱變異性時(shí)不可避免的。不同分布對(duì)面孔情緒變異性自動(dòng)加工的影響有待未來(lái)進(jìn)一步探究。

6 結(jié)論

綜上所述,本研究發(fā)現(xiàn)了個(gè)體可以在非注意的狀態(tài)下,自動(dòng)加工多張情緒強(qiáng)度各不相同的面孔的情緒變異性信息。當(dāng)情緒相對(duì)變異性程度更高時(shí),個(gè)體對(duì)其自動(dòng)加工程度相應(yīng)增強(qiáng)。此外,情緒類型也對(duì)多面孔情緒變異性自動(dòng)加工產(chǎn)生影響,憤怒面孔變異性的自動(dòng)加工具有一定優(yōu)勢(shì)。

參考文獻(xiàn)

Allard,R.,Ramanoél,S.,Silvestre,D.,amp; Arleo,A.(2021). Variance-dependent neural activity in an unvoluntary averaging task.Attention, Perception,amp;Psychophysics,3(3), 1094-1105. https://doi.org/10.3758/s13414-020-02223-8

Alvarez, G. A. (2011). Representing multiple objects as an ensemble enhances visual cognition. Trends in Cognitive Sciences,15(3), 122-131. https://doi.org/10.1016/j.tics. 2011.01.003

Alvarez,G.A.,amp; Oliva,A.(2oo8).The representationof simple ensemble visual features outside the focus of attention.Psychological Science,19(4),392-398.https:/ doi.org/10.1111/j.1467-9280.2008.02098.x

Alvarez, G.A.,amp; Oliva,A. (20o9).Spatial ensemble statistics are efficient codes that can be represented with reduced attention.Proceedings of the National Academy of Sciences. 106(18), 7345-7350. https://doi.org/10.1073/pnas.0808981106

Ariely,D.(2ool).Seeing sets:Representation by statistical properties. Psychological Science, 12(2),157-162. htps:// doi.org/10.1111/1467-9280.00327

Astikainen,P.,Cong,F(xiàn).,Ristaniemi,T.,amp; Hietanen,J.K. (2013).Event-related potentialsto unattended changesin facial expressions:Detection of regularity violations or encodingofemotions?FrontiersinHumanNeuroscience,7 https://doi.org/10.3389/fnhum.2013.00557

Bex,P.J.,amp; Makous,W. (2oo2). Spatial frequency, phase,and the contrast of natural images. Journal of the Optical Society of America A, 19(6),1096-1106.https://doi.org/ 10.1364/JOSAA.19.001096

Brand,J.,Oriet,C.,amp; Sykes Tottenham,L.(2012). Size and emotion averaging: Costs of dividing attention after all. Canadian Journal ofExperimental Psychology/ Revue Canadienne dePsychologie Experimentale,66(1),63-69. https://doi.org/10.1037/a0026950

Campbell, J.I.D.,amp; Thompson, V.A. (2012).MorePower 6.0 for ANOVA with relational confidence intervalsand Bayesian analysis. Behavior Research Methods,44(4), 1255-1265.https://doi.org/10.3758/s13428-012-0186-0

Cant,J. S.,amp; Xu, Y. (2020). One bad apple spoils the whole bushel: The neural basis of outlier processing. NeuroImage, 211,116629.https://doi.org/10.1016/j.neuroimage.2020.116629

Carlson, T.A., Grootswagers,T.,amp; Robinson,A.K. (2020). An introduction to time-resolved decoding analysis for M/EEG.In D. Poeppel, G.R.Mangun,amp; M. S.Gazzaniga (Eds.), The cognitive neurosciences (6th ed., pp. 679-690). TheMIT Press.https:/oi.org/10.7551/mitpress/11442.003.0075

Chen,B., Sun,P.,amp; Fu, S.(2020).Consciousness modulates the automatic change detection of masked emotional faces: Evidencefromvisualmismatchnegativity.Neuropsychologia,144, 107459. https://doi.org/10.1016/j.neuropsychologia.2020.107459

Chetverikov,A.,Campana,G.,amp; Kristjansson,A.(2017). Representing color ensembles. Psychological Science, 28(10), 1510-1517. https://doi.org/10.1177/0956797617713787

Chong, S. C., amp; Ireisman, A. (ZUu3). Kepresentation oI statistical properties. Vision research, 43(4), 393-404. https:// doi.org/10.1016/s0042-6989(02)00596-5

Csikós,N.,Petro,B., Kojouharova,P., Gaal, Z. A., amp; Czigler, I.(2024).Automatic change detection in Interwoven sequences: A visual mismatch negativity study. Journal of Cognitive Neuroscience, 36(3), 534-550. https://doi.org/ 10.1162/jocn_a_02099

Csizmadia,P.,Petro,B.,Kojouharova,P.,Gaal,Z. A., Scheiling,K.,Nagy,B.,amp;Czigler,I.(2021).Older adults automatically detect age of older adults’ photographs: A visual mismatch negativity study. Frontiers in Human Neuroscience, 15, 707702. https://doi.org/10.3389/fnhum. 2021.707702

Czigler,I. (20o7).Visual Mismatch Negativity:Violation of nonattendedenvironmentalregularities. Journalof Psychophysiology,21(3-4), 224-230. htps://doi.org/10.1027/ 0269-8803.21.34.224

Czigler, I.,amp; Sulykos,I. (2010). Visual mismatch negativity to irrelevant changes is sensitive to task-relevant changes. Neuropsychologia, 48(5), 1277-1282. htps://doi.org/10.1016/ j.neuropsychologia.2009.12.029

deGardelle,V.,amp; Summerfield, C.(2011).Robust averaging during perceptual judgment. Proceedings of the National Academy of Sciences,108(32),13341-13346. https://oi.org/ 10.1073/pnas.1104517108

Ding,X.,Chen,Y.,Liu,Y.,Zhao,J.,amp; Liu,J.(2022).The automatic detection ofunexpected emotion and neutral body postures: A visual mismatch negativity study. Neuropsychologia, 164,108108. htps://doiorg/10.1016/j.neuropsychologia.2021. 108108

Durant,S.,Sulykos,I.,amp; Czigler,I.(2017).Automatic detectionoforientation variance.NeuroscienceLetters,658, 43-47. https://doi.org/10.1016/j.neulet.2017.08.027

Elias,E., Padama,L.,amp; Sweeny, T. D. (2018). Perceptual averaging of facial expressions requires visual awareness and attention. Consciousness and Cognition,62,110-126. https://doi.org/10.1016/j.concog.2018.03.005

Epstein,M.L.,amp; Emmanouil,T. A.(2021).Ensemble statistics can be available before individual item properties: Electroencephalography evidence using the oddball paradigm. Journal of Cognitive Neuroscience,33(6),1056-1068. https://doi.org/10.1162/jocn_a_01704

Fahrenfort,J.J.,van Leeuwen,J.,Olivers,C.N.L.,amp; Hogendoorn,H. (2017).Perceptual integration without conscious access. Proceedings of the National Academy of Sciences,114(14), 3744-3749. htps://doi.org/10.1073/ pnas.1617268114

File,D.,amp; Czigler,I. (2019). Automatic detectionof violations of statistical regularities in the peripheryis affected by the focus of spatial attention:Avisual mismatch negativitystudy.EuropeanJournalofNeuroscience,49(10), 1348-1356.https://doi.org/10.1111/ejn.14306

Gayle,L. C., Gal,D.E.,amp; Kieffaber, P D. (2012). Measuring affective reactivity in individuals with autism spectrum personality traits using the visual mismatch negativity event-related brain potential. Frontiers in Human Neuroscience, 6. https://doi.org/10.3389/fnhum.2012.00334

Grootswagers,T.,Wardle,S.G.,amp; Carlson,T.A.(2017). Decoding dynamic brain patterns from evoked responses: A tutorial on multivariate pattern analysis applied to time series neuroimaging data. Journal of Cognitive Neuroscience, 29(4),677-697. htps://oi.org/10.1162/jocn_a_01068

Haberman,J., Lee,P.,amp; Whitney,D. (2015).Mixed emotions: Sensitivity to facial variance in a crowd of faces. Journal of Vision, 15(4),16. https://doi.org/10.1167/15.4.16

He,W.,Li, S.,amp; Zhao,D. (2021). Neural mechanism underlying the perception of crowd facial emotions. Advances in Psychological Science,29(5),761-772. https://doi.org/10.3724/SP.J.1042.2021.00761

[何蔚祺,李帥霞,趙東方.(2021).群體面孔情緒感知的神 經(jīng)機(jī)制.心理科學(xué)進(jìn)展,29(5),761-772.]

Huang,L. (2015). Statistical properties demand as much attention as object features. PLOS ONE,10(8), e0131191. https://doi.org/10.1371/journal.pone.0131191

Jeong,J.,amp; Chong, S.C.(2021).Perceived variability reflects thereliability of individual items.Vision Research,183, 91-105. https://doi.org/10.1016/j.:visres.2021.02.008

Ji,L.,Chen,Z.,Zeng,X.,Sun,B.,amp; Fu,S.(2024).Automatic processing of unattended mean emotion:Evidence from visual mismatch responses. Neuropsychologia,202,108963 https://doi.org/10.1016/j.neuropsychologia.2024.108963

Ji,L.,Rossi,V.,amp; Pourtois,G.(2018).Meanemotion from multiple facial expressions can be extracted with limited attention: Evidence from visual ERPs. Neuropsychologia, 111, 92-102. https://doi.org/10.1016/j.neuropsychologia.2018.01.022

Jiang,Y.,Wu,X.,Saab,R.,Xiao,Y.,amp;Gao,X.(2018).Time course of influence on the allocation of attentional resources caused by unconscious fearful faces. Neuropsychologia, 113, 104-110. https://doi.org/10.1016/j.neuropsychologia.2018.04.001

Kecskés-Kovacs,K., Sulykos,I.,amp; Czigler,I. (2013).Is it a face of a woman or a man? Visual mismatch negativity is sensitive to gender category. Frontiers in Human Neuroscience,7. https://doi.org/10.3389/fnhum.2013.00532

Khvostov,V. A.,amp; Utochkin,I. S. (2019). Independent and parallel visual processing of ensemble statistics: Evidence from dual tasks.Journal of Vision,19(9),3.https:// doi.org/10.1167/19.9.3

Kim,M.,amp; Chong, S.C. (2020). The visual system does not compute a single mean but summarizes a distribution. JournalofExperimental Psychology:Human Perception and Performance, 46(9), 1013-1028. https://doi.org/ 10.1037/xhp0000804

Kovarski,K.,Latinus,M.,Charpentier,J.,Cléry,H.,Roux,S., Houy-Durand, E.,... Gomot, M. (2017). Facial expression relatedvMMN:Disentangling emotional from neutral change detection.Frontiersin Human Neuroscience,11. https://doi.org/10.3389/fnhum.2017.00018

Lacroix,A.,Harquel,S.,Mermillod,M.,Vercueil,L., Alleysson,D.,Dutheil,F(xiàn).,Kovarski,K.,amp; Gomot,M. (2022). The predictive role of low spatial frequencies in automatic face processing:A visual mismatch negativity investigation. Frontiers in Human Neuroscience, 16, 838454.https://doi.org/10.3389/fnhum.2022.838454

Lau,J.S.-H.,amp; Brady,T. F. (2018). Ensemble statistics accessed through proxies: Range heuristic and dependence onlow-level propertiesin variability discrimination. Journal of Vision,18(9),3. https://doi.org/10.1167/18.9.3

Li,Q.,amp;Chen,W.(2022).Differencesin ensemble representation dependent on various stimulus types and attributes. Chinese Science Bulletin,67(21),2463-2472. https://doi.0rg/10.1360/TB-2021-1068

[勵(lì)奇添,陳文鋒.(2022).集群表征在不同刺激及屬性間的 差異.科學(xué)通報(bào),67(21),2463-2472.]

Li, Y., Zhang, M.,Liu, S., amp; Luo, W. (2022). EEG decoding of multidimensional information fromemotional faces. NeuroImage,258,119374.https://doi.org/10.1016/j.neuroimage. 2022.119374

Liu, J.,Liu, Y., Jiang, H., Zhao,J.,amp; Ding, X.(2024).Facial feedback manipulation influences the automatic detection of unexpected emotional body expressions. Neuropsychologia, 195,108802. https://doi.org/10.1016/j.neuropsychologia.2024. 108802

Liu,T.,Xiao,T.,Li,X.,amp; Shi,J.(2015).Fluid intelligence and automatic neural processes in facial expression perception: An event-related potential study. PLOS ONE, 10(9), e0138199. https://doi.org/10.1371/journal.pone.0138199

Liu, T.,Xiao, T.,amp; Shi, J.(2016).Automatic change detection to facial expressions in adolescents:Evidence from visual mismatch negativity responses. Frontiers in Psychology, 7, 462. htps://doi.org/10.3389/fpsyg.2016.00462

Liu,Y.,amp;Ji,L.(2024).Ensemblecodingofmultiplefacial expressions is not affected by attentional load.BMC Psychology,12(1),102. https://oi.org/10.1186/s40359-024- 01598-9

Maris,E.,amp; Oostenveld,R. (20o7).Nonparametric statistical testing of EEG- and MEG-data. Journal of Neuroscience Methods, 164(1), 177-190. https://doi.org/10.1016/ j.jneumeth.2007.03.024

McNair,N.A., Goodbourn,P.T., Shone,L.T.,amp; Harris,I.M. (2017). Summary statistics in the attentional blink.Attention, Perception,amp; Psychophysics, 79(1), 100-116. https://doi.org/ 10.3758/s13414-016-1216-2

Menzel, C., Kovacs, G., Amado, C., Hayn-Leichsenring, G U., amp;Redies,C.(2018).Visual mismatch negativityindicates automatic, task-independent detection of artistic image composition in abstract artworks. Biological Psychology, 136,76-86. htps://doi.org/10.1016/j.biopsycho.2018.05.005

Mihalache,D.,Lamer, S.A.,Allen,J.,Maher,M.,amp; Sweeny, T.D.(2021). Anger bias in the evaluation of crowds. Journal of Experimental Psychology: General, 150(9), 1870-1889. https://doi.org/10.1037/xge0001025

Morgan,M.,Chubb,C.,amp;Solomon,J.A.(20o8).A‘dipper’ function for texture discrimination based on orientation variance. Journal of Vision, 8(11), 9-9. https://doi.org/ 10.1167/8.11.9

Norman,L.J.,Heywood,C.A.,amp;Kentridge,R.W.(2015). Direct encodingof orientation variance in the visualsystem. Journal of Vision,15(4),3. https://doi.org/10.1167/15.4.3

Oosterhof, N.N.,Connolly,A.C.,amp; Haxby, J.V.(2016). CoSMoMVPA:Multi-modal multivariate patrn analysis of neuroimaging data in Matlab/GNU Octave. Frontiers in Neuroinformatics,10. https://doi.org/10.3389/fninf.2016. 00027

Pazo-Alvarez,P., Cadaveira,F(xiàn).,amp;Amenedo,E.(2oo3).MMN in the visual modality: A review. Biological Psychology, 63(3),199-236. htps://doi.org/10.1016/S0301-0511(03)00049-8

Proklova,D.,Kaiser,D.,amp; Peelen,M.V.(2019).MEG sensor patterns reflect perceptual but not categorical similarity of animateandinanimateobjects.NeuroImage,193,167-177. https://doi.org/10.1016/j.neuroimage.2019.03.028

Roberts,T.,Cant,J.S.,amp; Nestor,A. (2019).Elucidating the neural representation and the processing dynamics of face ensembles.TheJournalofNeuroscience,39(39),7737-7747. https://doi.0rg/10.1523/JNEUROSCI.0471-19.2019

Sel,A., Harding,R.,amp; Tsakiris,M. (2016). Electrophysiological correlates of self-specific prediction errors in the human brain.NeuroImage,125,13-24.https://doi.org/10.1016/ j.neuroimage.2015.09.064

Solomon, J.A.,Morgan,M.,amp; Chubb,C.(2011).Efficiencies for the statistics of size discrimination. Journal of Vision, 11(12),13-13. https://doi.org/10.1167/11.12.13

Stefanics,G.,Csukly, G., Komlósi, S., Czobor,P.,amp; Czigler,I. (2012). Processing of unattended facial emotions: A visual mismatch negativity study.NeuroImage,59(3),3042-3049. https://doi.org/10.1016/j.neuroimage.2011.10.041

Stefanics,G.,Kremlacek,J.,amp; Czigler,I.(2014).Visual mismatch negativity: A predictive coding view. Frontiers in Human Neuroscience, 8. https://doi.org/10.3389/fnhum. 2014.00666

Stefanics,G.,Stephan,K.E.,amp; Heinzle,J.(2019). Feature-specific prediction errors for visual mismatch. NeuroImage, 196,142-151. https://doi.org/10.1016/ j.neuroimage.2019.04.020

Sulykos,I.,amp; Czigler,I. (2011). One plus one is less than two: Visual features elicit non-additive mismatch-related brain activity. Brain Research,1398,64-71. https://doi.org/ 10.1016/j.brainres.2011.05.009

Tokita,M., Ueda, S., amp; Ishiguchi, A. (2016). Evidence for a global sampling process in extraction of summary statistics of item sizes in a set. Frontiers in Psychology, 7, 711. https://doi.org/10.3389/fpsyg.2016.00711

Tong,K., Tang, W., Chen, W.,amp; Fu, X. (2015).Statistical summary representation:Contents and mechanisms.Advances in Psychological Science,23(10),1723-1731. htps:/doi.org/ 10.3724/SP.J.1042.2015.01723

[仝可,唐薇,陳文鋒,傅小蘭.(2015).統(tǒng)計(jì)概要表征的內(nèi) 容與機(jī)制.心理科學(xué)進(jìn)展,23(10),1723-1731.]

Tse,C.-Y., Shum,Y.-H., Xiao,X.-Z.,amp; Wang,Y.(2021). Fronto-occipital mismatch responses in pre-attentive detection of visual changes: Implication on a generic brain network underlying Mismatch Negativity (MMN). NeuroImage, 244,118633. https://doi.org/10.1016/j.neuroimage.2021.118633

Wang,H.,Chen,E.,Lian,Y.,Li,J.,amp;Wang,L.(2023). Automaticprocessingof facialwidth-to-heightratio.Acta Psychologica Sinica,55(11),1745-1761.https://doi.org/ 10.3724/SP.J.1041.2023.01745

[汪海玲,陳恩光,連玉凈,李晶晶,王麗薇.(2023).面孔寬 高比的自動(dòng)加工.心理學(xué)報(bào),55(11),1745-1761.]

Whitney,D.,amp;Yamanashi Leib,A.(2018).Ensemble perception. Annual Review of Psychology,69(1),105-129. https://doi.org/10.1146/annurev-psych-010416-044232

Winkler, I.,amp; Czigler, I. (2012). Evidence from auditory and visual event-related potential (ERP) studies of deviance detection (MMN and vMMN) linking predictive coding theories and perceptual object representations.International Journal of Psychophysiology, 83(2), 132-143. https://doi.org/ 10.1016/j.ijpsycho.2011.10.001

Winkler,I., Czigler,I., Sussman,E.,Horvath,J.,amp; Balazs,L. (2005). Preattentive binding of auditory and visual stimulus features. Journal of Cognitive Neuroscience,17(2), 320-339. https://doi.org/10.1162/0898929053124866

Xiong,M.,Ding,X.,Kang,T., Zhao,X.,Zhao,J.,amp;Liu,J. (2022). Automatic change detection of multiple facial expressions:Avisualmismatchnegativitystudy. Neuropsychologia,170, 108234.htps://doi.org/10.1016/ j.neuropsychologia.2022.108234

Yang,T.,Yang,Z.,Xu,G.,Gao,D., Zhang,Z.,Wang,H.,. Sun,P. (2020). Tsinghua facial expression database -A database of facial expressions in Chinese young and older women and men: Development and validation. PLOS ONE, 15(4),e0231304. https://doi.org/10.1371/journal.pone.0231304

Yang,Y.,Tokita,M.,amp; Ishiguchi,A.(2018).Istherea common summary statistical process for representing the meanand variance?Astudyusingillustrationsof familiar items. I-Perception,9(1),204166951774729.https:// doi.org/10.1177/2041669517747297

Zeng,X.,Ji,L.,Liu,Y., Zhang,Y.,amp; Fu,S.(2022).Visual mismatch negativity reflects enhanced response to the deviant:Evidence from event-related potentialsand electroencephalogram time-frequency analysis. Frontiers in HumanNeuroscience, 16, 800855. https://doi.org/ 10.3389/fnhum.2022.800855

Zhao,L.,amp; Li, J. (20o6).Visual mismatch negativity elicited byfacial expressions under non-attentional condition. Neuroscience Letters, 410(2), 126-131. https://doi.org/ 10.1016/j.neulet.2006.09.081

Automatic processing of variability in multiple facial expressions: Evidence from visual mismatch responses

CHEN Zilong, JI Luyan

(SchoolofEducation,GuangzhouUniversity,Guangzhou51ooo6,China

Abstract

The variability of multiple facial expressions can be extracted efficiently. However, whether processing emotional variability is automatic and whether it is impacted by types of emotions remain unresolved.

To answer these questions, we employed a passive oddball paradigm and recorded event-related potentials while participants performed an atention-demanding task to detect changes in central fixation.A setof four faces was shown in the periphery, either displaying low (Experiment ; Experiment 2: SD=7 )or high emotional variability (Experiment ; Experiment 2: SD=20.39 ),which was manipulated by changing the distance of emotional units among faces. In Experiment 1,the face set consisted of two angry faces and two happy faces, and the mean emotion was neutral (M=50 ). In Experiment 2, all four faces were angry or happy,and the mean emotion was moderate anger ( M=25 )ormoderatehappiness( M=75 ).In Experiment 3, we additionally controlled for the range of emotional units in the setand used symmetrical distributions in both low- ( ) and high-variability conditions ( δM=50 SD=43.42Ω . The two variability conditions had matched mean emotions and were shown with probabilities of 20% (deviant) and 80% (standard), respectively, in the sequence,or vice versa.When deviant stimuli are embedded within a series of standard stimuli, the appearance of the deviant disrupts the established statistics or regularity,leading to the observation of the vMMN (visual mismatch negativity). The vMMN is considered an index of automatic change detection, evoked by any alteration in the sequence.

The results showed that in Experiment 1, faces with low emotional variability did not elicit vMMN, whereas those with high emotional variability elicited vMMN at both early ( (110-140ms) andlate (320-420ms) ! time intervals. Further multivariate pattern analysis (MVPA)using all EEG channels revealed that the brain could decode standard and deviant stimuli before 100ms under conditions of both high and low emotional variability. In Experiment 2,when the mean emotion was angry,faces with low emotional variability elicited vMMN,whereas faces with high emotional variability elicited vMMP (visual mismatch positivity) in the time window of 320-420ms . In contrast, when the mean emotion was happy,faces with both high and low emotional variability did not elicit significant vMMN in the 320-420 ms time window. Moreover, under all conditions of emotional variability,the standard and deviant stimuli could be successully decoded at an early stage, but the decoding onset latency was significantly later in the low-variability condition than in the high-variability condition for both happy and angry emotions.In Experiment 3,faces with low emotional variability did not elicit vMMN, whereas those with high emotional variability elicited vMMP in the time window of 320-420ms MVPA revealed that the standard and deviant stimuli could be decoded during the early stage in both variability conditions,replicating the results ofthe previous experiments and excluding the potential confounding factors of range and distribution.

Overall,we found that the variability of multiple unattended facial expressions can be perceived automatically.Moreover,there is an advantage in the automatic processing of relatively higher emotional variability, and this advantage is also influenced by the valence of emotions.

Keywordsemotional variability, ensemble pereption,facial expressions, visual mismatchnegativity (vM),eventrelated potentials (ERPs)

主站蜘蛛池模板: 亚洲人人视频| 免费国产高清视频| 蜜芽一区二区国产精品| 欧美一区二区福利视频| 亚洲第一色视频| 亚洲国产成人精品一二区| 中日韩一区二区三区中文免费视频| 一本大道香蕉久中文在线播放| 人妻精品久久久无码区色视| 亚洲AV无码久久天堂| 乱码国产乱码精品精在线播放| 999福利激情视频| 日韩精品一区二区三区免费| 成人福利在线免费观看| 四虎成人免费毛片| 国产午夜无码片在线观看网站| 国产精品自在线拍国产电影| 秋霞一区二区三区| 国产福利观看| 欧美日韩精品综合在线一区| 国产jizzjizz视频| 第一区免费在线观看| 亚洲欧美日韩成人在线| 亚洲精品在线观看91| 国产在线观看第二页| 不卡无码网| 免费无码AV片在线观看中文| 国产人成网线在线播放va| 亚洲天堂伊人| 99热这里只有精品免费| 精品综合久久久久久97| 国产精品所毛片视频| 色婷婷色丁香| 特级做a爰片毛片免费69| 亚洲免费播放| 91精品网站| 国产网站在线看| 欧美激情视频一区二区三区免费| 欧美一级高清片欧美国产欧美| 一级香蕉视频在线观看| 亚洲国产成熟视频在线多多| 香蕉国产精品视频| 国产精品2| 亚洲午夜福利精品无码| 久久99国产精品成人欧美| 极品国产一区二区三区| 欧美成人A视频| 欧美精品一二三区| 日韩精品亚洲一区中文字幕| 高清无码一本到东京热| 韩国v欧美v亚洲v日本v| 伊人久久大香线蕉影院| 99久久国产综合精品女同 | 在线a视频免费观看| 亚洲第一黄片大全| 亚洲精品色AV无码看| 亚洲久悠悠色悠在线播放| 欧美精品v欧洲精品| 国产天天射| 精品国产免费观看一区| 欧美日韩激情在线| 国产人成乱码视频免费观看| 国产玖玖视频| 国产成人亚洲无吗淙合青草| 久久semm亚洲国产| 美女高潮全身流白浆福利区| 国产精品国产三级国产专业不| 日韩无码黄色| 一区二区三区国产精品视频| 99精品影院| 国产精品欧美在线观看| 中文字幕亚洲乱码熟女1区2区| 91色在线观看| 毛片免费观看视频| 欧美区国产区| 亚洲精品国产首次亮相| 久青草网站| 国产精品内射视频| 日本在线免费网站| 亚洲综合第一页| 蜜桃视频一区| 午夜啪啪网|