999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于維度融合注意力的行人重識(shí)別

2024-03-21 01:49:26陳海明張琳鈺劉國(guó)慶
關(guān)鍵詞:特征融合模型

陳海明,王 進(jìn)+,張琳鈺,萬(wàn) 杰,劉國(guó)慶

(1.南通大學(xué) 信息科學(xué)技術(shù)學(xué)院,江蘇 南通 226000;2.中天智能裝備有限公司 信息部,江蘇 南通 226010)

0 引 言

在理想狀態(tài)下,行人重識(shí)別任務(wù)已經(jīng)實(shí)現(xiàn)了較高的識(shí)別率。然而,由于現(xiàn)實(shí)中攝像頭安裝的位置不同,目標(biāo)行人被不同攝像頭所捕獲的圖像存在背景、姿態(tài)、視角和遮擋的差異,這往往會(huì)造成同一個(gè)行人的不同圖像之間的差異較大,因此,如何提取判別性強(qiáng)且魯棒性好的高質(zhì)量行人特征仍然具有挑戰(zhàn)性[1-5]。

針對(duì)上述問(wèn)題,前人提出了一些解決方法,這些方法大多可分為3類:利用全局特征進(jìn)行行人重識(shí)別、利用局部特征進(jìn)行行人重識(shí)別和使用注意力機(jī)制提取行人標(biāo)志性特征。利用全局特征進(jìn)行行人重識(shí)別是將整張行人圖像提取成一個(gè)特征向量,然后對(duì)提取到的特征向量進(jìn)行相似性度量[6-8]。利用局部特征進(jìn)行行人重識(shí)別是將整張行人圖像分割為幾個(gè)部分的集合,針對(duì)各個(gè)部分進(jìn)行相似性度量[9,10]。近來(lái),許多模型借助注意力機(jī)制來(lái)提取具有辨別性的行人特征[11]。相較于無(wú)注意力模型,有注意模型通過(guò)增強(qiáng)有效行人特征和抑制無(wú)關(guān)行人特征的方法取得了較為理想的效果。

上述方法中,無(wú)論是有注意模型還是無(wú)注意模型,都將特征的空間域和通道域獨(dú)立處理,而忽略了空它們之間的依賴關(guān)系。因此,本文提出了一種基于維度融合注意力的表征學(xué)習(xí)網(wǎng)絡(luò)(dimension fusion network,DFNET)。其貢獻(xiàn)如下:

(1)提出了維度融合注意力機(jī)制,使用維度的變換和滑動(dòng)窗口的方法融合通道維度和空間維度,采用大感受野學(xué)習(xí)融合后的維度的關(guān)系以達(dá)到學(xué)習(xí)通道域和空間之間聯(lián)系的目的。

(2)在網(wǎng)絡(luò)的結(jié)尾引入ECA[12](efficient channel attention)注意力,使網(wǎng)絡(luò)能夠很好地適應(yīng)行人不對(duì)齊等極端場(chǎng)景。

(3)使用交叉熵?fù)p失、加權(quán)正則化的三元組損失和中心損失聯(lián)合優(yōu)化網(wǎng)絡(luò)參數(shù),緩解類內(nèi)差異。

1 相關(guān)工作

1.1 行人重識(shí)別

受益于深度學(xué)習(xí)的發(fā)展,近年來(lái),行人重識(shí)別方向取得了長(zhǎng)足的發(fā)展。Chen等[13]在三元組損失的基礎(chǔ)上提出四聯(lián)體損失,彌補(bǔ)了三元組損失存在的缺點(diǎn);Luo[14]通過(guò)在以Resnet50為基線的模型中加入了一些小技巧,極大提升了行人重識(shí)別的準(zhǔn)確率;Sun等[15]提出將行人特征水平切分為6塊,針對(duì)每塊行人局部零件使用身份損失訓(xùn)練網(wǎng)絡(luò),證明了人體局部零件對(duì)識(shí)別精度的有效性;Luo等[16]針對(duì)行人局部零件不對(duì)齊的問(wèn)題,提出了AlignedReID模型,使用最短路徑的方法動(dòng)態(tài)齊局部特征,進(jìn)一步提升了行人重識(shí)別的精度。上述方法認(rèn)為行人圖像中的所有部分的重要性是相同的,而事實(shí)并非如此,為關(guān)注圖像中值得被關(guān)注的部位,基于注意力的行人重識(shí)別便應(yīng)運(yùn)而生。

1.2 注意力機(jī)制

注意力機(jī)制通過(guò)模仿人類視覺(jué)感知,具有抑制不相關(guān)特征和關(guān)注相關(guān)特征的作用,這種方式有助于精煉行人特征。Hu等[18]提出了SENet,這是第一個(gè)成功實(shí)現(xiàn)的輕量級(jí)通道注意力機(jī)制,能夠很好改善網(wǎng)絡(luò)性能;Woo等[19]提出了CBAM注意力機(jī)制,通過(guò)為通道注意力添加最大池化特征以及添加的空間注意力來(lái)豐富注意力圖,與SENet相比,這種空間注意力和通道注意力的結(jié)合在性能上有了顯著的提高;Wang等[20]提出非局部注意力機(jī)制,該注意力機(jī)制能夠通過(guò)少的參數(shù),少的層數(shù),捕獲遠(yuǎn)距離的依賴關(guān)系,避免了使用小的感受野而丟失全局信息的缺點(diǎn);受SENet啟發(fā),Wang等[12]提出了ECA注意力機(jī)制,該注意力機(jī)制驗(yàn)證了降維會(huì)對(duì)通道注意力造成負(fù)面影響,通過(guò)使用自適應(yīng)的一維卷積核代替SENet中的全連接層,在降低了網(wǎng)絡(luò)計(jì)算復(fù)雜度的同時(shí)提高了模型效果。

1.3 基于注意力模型的行人重識(shí)別

Chen等[21]提出了混合高階注意力網(wǎng)絡(luò),增強(qiáng)注意知識(shí)的辨別力和豐富性,然而該方法使用小卷積核的卷積運(yùn)算來(lái)學(xué)習(xí)注意力而忽略了全局范圍的特征;AANet[22]結(jié)合了全局信息、局部信息、屬性信息和注意力信息進(jìn)行行人重識(shí)別,取得了較好的效果;Gong等[23]提出LAG-Net,將局部特征與注意力機(jī)制結(jié)合,針對(duì)每部分局部特征學(xué)習(xí)具有辨別性的行人表示;Ye等[1]提出了AGW模型,在以BagTricks[14]為基準(zhǔn)的基礎(chǔ)上引入了非局部注意力機(jī)制、加權(quán)正則化三元組損失和廣義平均池化,很好地解決了小卷積核無(wú)法看清全局情況的問(wèn)題。而非局部注意力為像素級(jí)注意力,所提取的特征會(huì)因背景,遮擋等問(wèn)題產(chǎn)生噪聲影響,且該模型未考慮特征的位置相關(guān)性和通道注意力;Zhang等[24]設(shè)計(jì)了關(guān)系感知的全局注意力模塊(relation-aware global attention),該模塊可同時(shí)應(yīng)用在通道和空間層面,在關(guān)注全局范圍的基礎(chǔ)上對(duì)于每一個(gè)特征位置,能推斷與其它位置的關(guān)系,進(jìn)而確定該特征位置的重要程度。

2 本文方案

2.1 網(wǎng)絡(luò)結(jié)構(gòu)

本文在BagTricks基線的基礎(chǔ)上設(shè)計(jì)了維度融合注意力網(wǎng)絡(luò)DFNET,網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。首先,在Resnet50的每一個(gè)瓶頸塊(bottleneck)的第二個(gè)批歸一化處理后引入維度融合注意模塊(dimension fusion attention)以充分學(xué)習(xí)通道和空間之間的關(guān)系。其次,在網(wǎng)絡(luò)最后的池化層后引入ECA注意力模塊,用以充分挖掘DFA模塊的價(jià)值,同時(shí),在網(wǎng)絡(luò)的最后使用ECA注意力,能夠避免因遮擋,行人不對(duì)齊等因素造成的不利影響,更直接提取具有辨別性的行人特征。最后,關(guān)于損失函數(shù),采用率行人重識(shí)別最常用的3大損失函數(shù)來(lái)共同訓(xùn)練網(wǎng)絡(luò)參數(shù)。

圖1 DFNET網(wǎng)絡(luò)結(jié)構(gòu)

2.2 維度融合注意模塊(DFA)

受益于Triplet Attention[25],本文提出了一種輕量級(jí)維度融合注意力。該模塊分為3個(gè)階段,分別為池化準(zhǔn)備階段、維度融合交互階段和特征注意階段,3個(gè)階段中上一個(gè)階段為下一個(gè)階段做準(zhǔn)備。其結(jié)構(gòu)如圖2所示。

圖2 維度融合模塊

圖2第一部分為池化準(zhǔn)備階段,該階段的任務(wù)是通過(guò)池化和旋轉(zhuǎn)操作將輸入的特征處理成方便通道和空間維度融合的形狀。具體來(lái)說(shuō),給定一個(gè)三維輸入張量X∈PC×H×W,其中C、H、W分別表示輸入張量的通道數(shù)、高、寬,分別對(duì)空間域的H和W維度做池化操作,得到XW∈PC×4×W和XH∈PC×H×4。接著對(duì)兩個(gè)張量做旋轉(zhuǎn)和拼接操作得到池化張量Xr∈P4×C×(H+W)。準(zhǔn)備階段的計(jì)算過(guò)程如式(1)所示

Xr=Cat(Per(PoolH(X)),Per(PoolW(X)))

(1)

式中:PoolH(·)表示對(duì)H維度做池化操作,PoolW(·)表示對(duì)W維度做池化操作,Cat(·)表示張量拼接操作,Per(·)表示張量旋轉(zhuǎn)操作。

與傳統(tǒng)池化操作不同,此處的池化包括平均池化(AvgPooling)、最大池化(MaxPooling)、直接取平均(Mean)和直接取最大值(Max)。在圖2中直接用Avg&&Max表示。

圖2第二部分為特征融合交互模塊,該部分的主要任務(wù)是學(xué)習(xí)通道空間交互特征圖。對(duì)于上個(gè)階段的輸出Xr∈P4×C×(H+W),使用Unflod(·)操作融合通道維度,融合后的特征由三維轉(zhuǎn)變?yōu)槎S,Unflod(·)為卷而不積的操作,即使用滑動(dòng)窗口的方式融合空間與通道維度。卷積核不當(dāng)作網(wǎng)絡(luò)參數(shù)。考慮到融合后的特征維度較高,故采用大小為49的超大一維卷積核學(xué)習(xí)通道維度和空間維度之間的關(guān)系,最后使用Flod(·)操作將特征還原為三維張量Xf∈P1×C×(H+W)。融合交互的計(jì)算過(guò)程如式(2)所示

Xf=Flod(Conv49(Unflod(Xr)))

(2)

式中:Unflod(·)表示維度融合操作,Conv49(·)表示大小為49的一維卷積核,F(xiàn)lod(·)為Unflod(·)的逆操作。

圖2第三部分為特征注意階段,該階段的主要任務(wù)是將上各階段的特征圖轉(zhuǎn)換為注意圖,與常規(guī)注意力機(jī)制相同,本方法使用Sigmoid函數(shù)作為激活函數(shù)來(lái)激活有效特征;再使用張量切片和旋轉(zhuǎn)操作得到特征注意圖ACH∈PC×H×1和ACW∈PC×1×W,受益于廣播機(jī)制,其結(jié)果如式(3)所示

OutputDFA=X·(ACH+ACW)

(3)

式中:OutputDFA為本模塊最后的輸出,ACH和ACW分別為切分后的注意圖。

2.3 ECA模塊(efficient channel attention)

如圖3所示為卷積核大小為5的ECA注意力機(jī)制,此處輸入特征已經(jīng)過(guò)池化層,所以不需再做池化處理,其余操作均與標(biāo)準(zhǔn)ECA相同,此處不再贅述。ECA計(jì)算流程如式(4)所示

圖3 efficient channel attention

X5=X·Unsqueeze(σ(Conv5(Squeeze(X))))

(4)

X為輸入特征;Squeeze(·)為擠壓操作,將三維特征擠壓為二維;Conv5(·)為大小為5的卷積核;σ為激活函數(shù);Unsqueeze(·)為Squeeze(·)的逆操作,將二維特征展開(kāi)為三維。

為更好學(xué)習(xí)最后的行人特征,本文在ECA基礎(chǔ)上融合了金字塔卷積的思想,即加入了大小分別為1、3、5、7的卷積核共同學(xué)習(xí)行人特征。該模塊最后的輸出如式(5)所示

(5)

式中:X1、X2、X3、X4分別為使用大小為1、3、5、7的卷積核學(xué)習(xí)到的注意特征。

在網(wǎng)絡(luò)的結(jié)尾處引入ECA注意力的好處有3點(diǎn):能更直接體現(xiàn)注意力機(jī)制的優(yōu)勢(shì),學(xué)習(xí)到的特征具有更強(qiáng)的辨別性;經(jīng)過(guò)池化層的特征不再有特征不對(duì)齊和遮擋等不利因素的影響,此時(shí)添加通道注意力效果更佳;ECA注意力具于跨通道交互的優(yōu)勢(shì),與DFA注意力相呼應(yīng)。

2.4 損失函數(shù)

為了更好地學(xué)習(xí)本文模型的參數(shù),采用交叉熵?fù)p失,加權(quán)正則化三元組損失和中心損失共同限制網(wǎng)絡(luò)參數(shù)。這也是行人重識(shí)別領(lǐng)域常用的3種損失函數(shù)。交叉熵?fù)p失表示如式(6)所示

(6)

式中:yi,k代表第i張圖像的身份是否為k,N表示數(shù)據(jù)集中行人總類別數(shù),pi,k表示第i張圖像的身份為k的概率。為了克服模型過(guò)擬合的問(wèn)題,本文采用了帶平滑標(biāo)簽的交叉熵?fù)p失,增強(qiáng)模型的泛化能力。

加權(quán)正則化三元組損失也是行人重識(shí)別常用損失之一,它繼承了三元組損失優(yōu)化正負(fù)樣本之間的距離的優(yōu)點(diǎn),且避免了引入范圍參數(shù),其計(jì)算公式見(jiàn)式(7)

(7)

為使類內(nèi)特征更加緊湊,本文引進(jìn)了中心損失,中心損失在每個(gè)行人類別找到一個(gè)中心特征點(diǎn),訓(xùn)練時(shí),通過(guò)中心特征點(diǎn)拉進(jìn)同類距離,以達(dá)到縮小類內(nèi)距離的作用,其計(jì)算公式如式(8)所示

(8)

式中:fi為第i個(gè)樣本的特征,yi表示第i個(gè)樣本的標(biāo)簽,cyi表示第yi個(gè)類別對(duì)應(yīng)的高維特征中心。B表示批次大小。

綜上所述,本文最終損失函數(shù)如式(9)所示

L=Lcls+Lwrt+Lcenter

(9)

3 實(shí) 驗(yàn)

3.1 數(shù)據(jù)集介紹

為驗(yàn)證所提出模型的先進(jìn)性,本文在Market1501、DukeMTMC-reID和CUHK03這3大公開(kāi)的主流數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)。

Market1501數(shù)據(jù)集是2015年采集于清華大學(xué),數(shù)據(jù)集由6個(gè)攝像頭采集,包括1501個(gè)行人所組成的共32 668張圖片,其中訓(xùn)練集有751個(gè)行人12 936張圖片,測(cè)試集有750個(gè)行人19 732張圖片,包括3368張查詢圖片和16 364張待查詢圖片。

DukeMTMC-reID數(shù)據(jù)集于2017年在杜克大學(xué)采集,是DukeMTMC的一個(gè)子集,數(shù)據(jù)集由8個(gè)不同的攝像頭采集,其中共有1404個(gè)行人,且每個(gè)行人被兩個(gè)及以上的攝像頭拍攝,訓(xùn)練集由702個(gè)行人共16 522張圖像所組成,測(cè)試集由702個(gè)行人共19 889張圖像所組成。

CUHK03數(shù)據(jù)集在2014年提出,數(shù)據(jù)集由5對(duì)共10個(gè)不同的攝像頭采集,每個(gè)行人被兩個(gè)不同攝像機(jī)拍攝,其中測(cè)試集由767個(gè)行人共6880張圖片所組成,測(cè)試集由700個(gè)行人共6284張圖片所組成。該數(shù)據(jù)及包括供含有人工標(biāo)注(CUHK03_Detected)檢測(cè)器檢測(cè)(CUHK03_Labled) 兩種檢測(cè)框的圖像,本文在這兩種圖像上都做了比較。

3.2 實(shí)驗(yàn)設(shè)置與評(píng)價(jià)指標(biāo)

本文采用ResNet50作為網(wǎng)絡(luò)的基本骨架,網(wǎng)絡(luò)最后一個(gè)瓶頸塊的步幅設(shè)為1。在訓(xùn)練過(guò)程中,對(duì)行人圖像,使用了隨機(jī)裁剪、水平翻轉(zhuǎn)和擦除3種數(shù)據(jù)增強(qiáng)方法,三元組損失的邊緣和標(biāo)簽平滑正則化率分別為0.3和0.1。圖像的輸入大小為384×192,學(xué)習(xí)率采用預(yù)熱方法,在前10個(gè)epoch由4×10-6均勻的增加到4×10-4,以后每40個(gè)epoch的學(xué)習(xí)率進(jìn)行系數(shù)為0.1的指數(shù)衰減,總epoch次數(shù)為160次,使用Adam優(yōu)化器優(yōu)化模型參數(shù),L2正則化的權(quán)重衰減因子為5×10-4。測(cè)試階段,用原始測(cè)試圖像和水平翻轉(zhuǎn)過(guò)圖像的平均特征作為行人特征,使用余弦距離度量方式來(lái)計(jì)算特征之間的距離。本實(shí)驗(yàn)使用pytorch1.8深度學(xué)習(xí)框架,采用一張NVIDIA 3090進(jìn)行加速。

本文使用行人重識(shí)別最具權(quán)威性的累積匹配特征(cumulative match characteristic curve,CMC)曲線中的Rank-1和平均精度均值(mean average precision,mAP)作為評(píng)價(jià)指標(biāo),本文的所有實(shí)驗(yàn)結(jié)果未使用重排序(Re-Ranking)技巧。

3.3 對(duì)比實(shí)驗(yàn)

本實(shí)驗(yàn)選擇了部分較新且主流的行人重識(shí)別方法進(jìn)行比較,以驗(yàn)證本文提出算法的有效性。其分類如下:基于局部特征的方法(PCB、AlignedReID、MHN-6(PCB)等)、基于專用模型的方法(CDNet、OSNet)和基于注意力機(jī)制的方法(AGW、RGA-SC、MHN-6(PCB)等)。本文中所有實(shí)驗(yàn)均采用單幀查詢模式,除了設(shè)計(jì)專有網(wǎng)絡(luò)外,其它所有對(duì)比實(shí)驗(yàn)的骨干網(wǎng)絡(luò)均為ResNet50。在三大數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果見(jiàn)表1和表2。

表1 Market1501和DukeMTMC-ReID數(shù)據(jù)集上對(duì)比結(jié)果

表2 CUHK03數(shù)據(jù)集上對(duì)比結(jié)果

基于Market1501數(shù)據(jù)集的實(shí)驗(yàn)對(duì)比結(jié)果見(jiàn)表1,本文提出的模型在該數(shù)據(jù)集上的Rank-1和mAP分別為96.2%和90.8%,相較于同樣基于注意力的模型RGA-SC和AGW,本文方法在Rank-1上分別提高了0.1%和1.1%,mAP分別提高了2.4%和3.1%,AGW和RGA-SC主要是通過(guò)對(duì)全局注意力的統(tǒng)籌考慮,AGW只考慮了空間注意力,而網(wǎng)絡(luò)最后輸出特征的維度和通道數(shù)是一致的,就行人特征而言,通道注意力的優(yōu)勢(shì)更為明顯,本文的模型在網(wǎng)絡(luò)骨架之后嵌入ECA注意力,直接在輸出的行人特征上加入通道注意力,且DFA模塊也存在通道注意力,故本方案效果較AGW而言更勝一籌;RGA-SC考慮了特征像素點(diǎn)之間的關(guān)系,這同樣是局限于空間層面,而忽略了空間通道之間的交互,本文在網(wǎng)絡(luò)骨架中插入DFA模塊,很好地彌補(bǔ)了這個(gè)缺陷,故本方案較RGA-SC而言更勝一籌。相較于無(wú)注意力模型CDNet和SIAMH,本文方法在Rank-1上分別提高了1.1%和0.8%,mAP分別提高了4.8%和2.0%。與現(xiàn)有較為先進(jìn)的模型在Market1501數(shù)據(jù)集上的對(duì)比結(jié)果驗(yàn)證了本方法的有效性。

基于DukeMTMC-ReID數(shù)據(jù)集的實(shí)驗(yàn)對(duì)比結(jié)果見(jiàn)表1,Rank-1和mAP分別為91.3%和82.5%,兩個(gè)指標(biāo)同時(shí)達(dá)到目前的最好結(jié)果,相比于同樣基于注意力的模型AGW和LAG-Net,Rank-1分別提高了2.3%和0.9%,mAP分別提高了2.9%和0.9%。相較于無(wú)注意力模型CDNet和SIAMH,本文方法在Rank-1上分別提高了2.7%和2.2%,mAP分別提高了5.7%和3.1%。與現(xiàn)有較為先進(jìn)的模型在DukeMTMC-ReID數(shù)據(jù)集上的對(duì)比結(jié)果驗(yàn)證了本方法的有效性。

基于CUHK03數(shù)據(jù)集的實(shí)驗(yàn)對(duì)比結(jié)果見(jiàn)表2,本文在CUHK03-Detected上Rank-1和mAP分別為84.5%和82.0%,在CUHK03-Labeled上Rank-1和mAP分別為86.7%和85.1%。與現(xiàn)有先進(jìn)的模型在CUHK03數(shù)據(jù)集上的對(duì)比結(jié)果驗(yàn)證了本方法的有效性。

3.4 消融實(shí)驗(yàn)

為進(jìn)一步驗(yàn)證算法的有效性,本文在Market1501和CUHK03-Detected數(shù)據(jù)集上進(jìn)行消融實(shí)驗(yàn)。

在Market1501上的消融實(shí)驗(yàn)見(jiàn)表3,在基線上結(jié)合了DFA模塊后,Rank-1和mAP分別提升了0.9%和2.5%,再結(jié)合ECA模塊后Rank-1和mAP提升不明顯。在CUHK03-Detected上的消融實(shí)驗(yàn)見(jiàn)表4,在基線上DFA模塊后,Rank-1和mAP分別提高了6.9%和6.0%,再結(jié)合ECA模塊后,Rank-1和mAP分別比基線提升了5.5%和4.2%,結(jié)合二者,Rank-1和mAP分別比基線提升了15.1%和13.6%。可以注意到,在CUHK03-Detected數(shù)據(jù)及上,兩個(gè)注意力的效果不僅僅是相加得到,而是起到了1+1>2的效果,進(jìn)一步驗(yàn)證DFA和ECA相互配合的有效性。

表3 Market1501上的消融實(shí)驗(yàn)

表4 CUHK03-Detected上的消融實(shí)驗(yàn)

對(duì)比上述兩個(gè)消融實(shí)驗(yàn)的結(jié)果,本文提出的模型在CUHK03上的效果提升遠(yuǎn)高于Market1501,這是因?yàn)镃UHK03數(shù)據(jù)集則更具挑戰(zhàn)性,更符合現(xiàn)實(shí)情況下所截取的行人圖像的特點(diǎn),本文所提模型更能適應(yīng)現(xiàn)實(shí)場(chǎng)景下的行人重識(shí)別任務(wù)。

本文選用參數(shù)量(params)和每秒浮點(diǎn)運(yùn)算次數(shù)(FLOPs)來(lái)評(píng)價(jià)網(wǎng)絡(luò)大小和網(wǎng)絡(luò)推理速度。其結(jié)果見(jiàn)表4。其中FLOPs的值為輸入一張大小為384×192的圖像所得。

由表5可知,兩個(gè)輕量級(jí)注意力模塊對(duì)網(wǎng)絡(luò)大小和推理速度的影響較小,所需計(jì)算成本有限。

表5 網(wǎng)絡(luò)計(jì)算量結(jié)果

3.5 可視化結(jié)果分析

為在此說(shuō)明本文方法的先進(jìn)性,隨機(jī)選擇了Market1501中的3個(gè)行人進(jìn)行識(shí)別,并將檢索相似率排名前十的圖像展示在圖4,其中Query為查詢圖像1~10為檢索相似度排名前十的圖像。如圖所示,本文所選取的3張圖像所查詢的相似度前十的圖像全部正確,且第二個(gè)行人的第五張查詢圖像、第三個(gè)行人的第六張查詢圖像和第七張查詢圖像行人不對(duì)齊,第二個(gè)行人的第十張查詢圖像、第三個(gè)行人的第九張查詢圖像和第十張查詢圖像明顯與查詢圖像分辨率不同,這表明本文方法能夠適應(yīng)各種極端情況、更貼近真實(shí)場(chǎng)景下的行人重識(shí)別。

圖4 Market1501上的檢索結(jié)果

4 結(jié)束語(yǔ)

為應(yīng)對(duì)復(fù)雜環(huán)境下的行人重識(shí)別,本文提出了基于注意力機(jī)制的表征學(xué)習(xí)網(wǎng)絡(luò)DFNet。其中,DFA模塊能在圖像較為規(guī)整的情況下幫助網(wǎng)絡(luò)提取出辨別性較強(qiáng)的行人特征,ECA模塊在復(fù)雜環(huán)境下表現(xiàn)更為優(yōu)秀,兩個(gè)模塊相輔相成共同提高行人重識(shí)別的精度。實(shí)驗(yàn)結(jié)果表明,本文方法優(yōu)于現(xiàn)有大部分模型的水平。接下來(lái),會(huì)繼續(xù)研究輕量級(jí)網(wǎng)絡(luò)與注意力機(jī)制相結(jié)合在行人重識(shí)別中的應(yīng)用,在提高重識(shí)別準(zhǔn)確率的同時(shí),提高重識(shí)別的速度。

猜你喜歡
特征融合模型
一半模型
村企黨建聯(lián)建融合共贏
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
重要模型『一線三等角』
《融合》
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
主站蜘蛛池模板: 91人妻在线视频| AV无码国产在线看岛国岛| 婷婷五月在线| 亚洲精品天堂在线观看| 国产理论最新国产精品视频| 夜精品a一区二区三区| 天天爽免费视频| 丁香婷婷激情综合激情| 亚洲国产91人成在线| 最新国产麻豆aⅴ精品无| 人妻中文字幕无码久久一区| 极品尤物av美乳在线观看| 国产精品浪潮Av| 亚洲三级视频在线观看| 亚洲一级毛片| 亚洲色图欧美一区| 22sihu国产精品视频影视资讯| 国产精品网址在线观看你懂的| 国产乱人免费视频| 国产精品久久久久鬼色| 国产综合精品日本亚洲777| 久久久久国产精品熟女影院| 国产精品吹潮在线观看中文| 91网站国产| 国产高清在线观看| 91国内在线观看| 亚洲天堂久久久| 亚洲熟女偷拍| 91免费国产高清观看| 国产午夜精品鲁丝片| 欧美日韩另类在线| 国产9191精品免费观看| 精品国产Av电影无码久久久| 六月婷婷综合| 麻豆国产原创视频在线播放| 国产日韩丝袜一二三区| 40岁成熟女人牲交片免费| 亚洲国产精品一区二区第一页免| 先锋资源久久| 国内毛片视频| 国产精品自在自线免费观看| 久久精品国产91久久综合麻豆自制| 青青青国产精品国产精品美女| 中国特黄美女一级视频| 久草视频一区| 国产成人永久免费视频| 日韩精品无码免费专网站| 日韩美女福利视频| 91综合色区亚洲熟妇p| 精品国产免费观看一区| 精品国产一区91在线| 国产精品视频公开费视频| 久久亚洲国产视频| 18禁黄无遮挡免费动漫网站| 亚洲国产综合自在线另类| 国产亚洲欧美日韩在线观看一区二区 | 久久五月视频| 国产在线自乱拍播放| 亚洲激情99| 99re在线免费视频| 欧美国产菊爆免费观看| 视频二区亚洲精品| 国产亚洲视频播放9000| 国产视频a| 国产精品爽爽va在线无码观看 | 中日韩一区二区三区中文免费视频| 亚洲最大在线观看| 亚洲天堂网2014| 无码福利视频| 97超爽成人免费视频在线播放| 亚洲AⅤ无码国产精品| 40岁成熟女人牲交片免费| 国产在线精彩视频二区| 91久久天天躁狠狠躁夜夜| 日韩黄色在线| 91香蕉视频下载网站| 亚洲精品老司机| 怡春院欧美一区二区三区免费| 欧美日韩亚洲综合在线观看| 尤物在线观看乱码| 国产亚洲美日韩AV中文字幕无码成人 | 国产精品99久久久久久董美香|