999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多視角跨模態(tài)的電力現(xiàn)場(chǎng)作業(yè)行人重識(shí)別網(wǎng)絡(luò)架構(gòu)技術(shù)研究

2021-01-06 03:32:14劉錦隆尚趙偉
四川電力技術(shù) 2020年6期
關(guān)鍵詞:模態(tài)特征模型

張 森,張 頡,王 堯,劉錦隆,閆 斌,尚趙偉

(1.重慶大學(xué)計(jì)算機(jī)學(xué)院, 重慶 400000;2.國(guó)網(wǎng)四川省電力公司,四川 成都 610041;3.國(guó)網(wǎng)四川省電力公司涼山供電公司,四川 西昌 615000;4.電子科技大學(xué)自動(dòng)化學(xué)院,四川 成都 611731)

0 引 言

電力是經(jīng)濟(jì)發(fā)展的能源基礎(chǔ),電力信息化對(duì)于中國(guó)的能源安全而言無疑是一個(gè)有效的保障。近幾年,視頻作為安全管理和風(fēng)險(xiǎn)控制的重要技術(shù)手段,在電力各個(gè)業(yè)務(wù)板塊得到廣泛應(yīng)用。行人重識(shí)別(person re-identification,ReID)是計(jì)算機(jī)視覺領(lǐng)域的一個(gè)重要研究方向,要求根據(jù)某個(gè)攝像頭捕捉到的行人圖像在其他攝像頭捕捉的圖像中進(jìn)行檢索,以找出相同身份的行人[1],能夠根據(jù)行人的穿著、體態(tài)、發(fā)型等信息認(rèn)知行人,實(shí)現(xiàn)對(duì)無法獲取清晰拍攝人臉的行人進(jìn)行跨攝像頭連續(xù)跟蹤,增強(qiáng)數(shù)據(jù)的時(shí)空連續(xù)性。隨著新基建的建設(shè)快速推進(jìn),在電力行業(yè)的智慧工地、變電站監(jiān)控、作業(yè)施工管控等場(chǎng)景中,作為人臉識(shí)別技術(shù)在身份確認(rèn)方面的重要補(bǔ)充技術(shù)手段,行人重識(shí)別有著重要的應(yīng)用價(jià)值。

在視頻監(jiān)控網(wǎng)絡(luò)中,行人因受到視角、姿態(tài)變化、背景、光照、攝像頭設(shè)置等多種因素影響,會(huì)導(dǎo)致同一個(gè)人在同一攝像機(jī)的不同時(shí)刻,或不同攝像機(jī)在同時(shí)刻捕捉的圖像存在很大差異,造成行人識(shí)別精度低,特別是在白天和夜晚環(huán)境下,攝像機(jī)在可見光和紅外光不同模式下成像的差異更大,給跨模態(tài)(cross modal)行人重識(shí)別問題(即在可見光圖像庫中如何準(zhǔn)確檢索出與給定紅外圖像相同身份的行人)帶來相當(dāng)大的困難。現(xiàn)有研究主要集中于使用共享參數(shù)的多層卷積網(wǎng)絡(luò)直接提取兩種模態(tài)數(shù)據(jù)中的共享信息。但數(shù)據(jù)本身跨模態(tài)差異大,這些方法均仍未達(dá)到實(shí)用效果。為此提出一種新的網(wǎng)絡(luò)結(jié)構(gòu),實(shí)驗(yàn)表明,可有效提取出兩種模態(tài)中的共享信息,提高行人重識(shí)別精度。

1 跨模態(tài)行人重識(shí)別相關(guān)的研究

針對(duì)可見光與紅外光的跨模態(tài)圖像行人重識(shí)別問題,文獻(xiàn)[2]在國(guó)際計(jì)算機(jī)視覺大會(huì)上首次發(fā)布大規(guī)模可見光-紅外跨模態(tài)行人重識(shí)別數(shù)據(jù)集SYSU-MM01,并提出深度零值填充(deep zero padding)的網(wǎng)絡(luò)模型,開啟了可見光-紅外行人重識(shí)別問題的先河。文獻(xiàn)[3]在國(guó)際人工智能聯(lián)合會(huì)議上引入生成對(duì)抗網(wǎng)絡(luò)的思想訓(xùn)練一個(gè)跨模態(tài)生成對(duì)抗網(wǎng)絡(luò)模型(cmGAN), 使用可見光和紅外光兩種模態(tài)圖像進(jìn)行互相生成以降低模態(tài)間差異。文獻(xiàn)[4]在國(guó)際人工智能聯(lián)合會(huì)議上提出一個(gè)雙流網(wǎng)絡(luò)結(jié)構(gòu)分別提取兩個(gè)模態(tài)的特定特征,隨后通過權(quán)重共享提取兩個(gè)模態(tài)的共享特征,并于2020年[5]使用新的基準(zhǔn)模型對(duì)其進(jìn)行改進(jìn)實(shí)現(xiàn)了較大的精度提升。文獻(xiàn)[6]針對(duì)跨模態(tài)問題設(shè)計(jì)了五元組損失函數(shù),在提高同一模態(tài)類間差異的同時(shí)降低跨模態(tài)類內(nèi)差異。文獻(xiàn)[7]在國(guó)際計(jì)算機(jī)視覺與模式識(shí)別會(huì)議上使用生成對(duì)抗的思想將兩種模態(tài)圖像進(jìn)行互相生成,但訓(xùn)練不穩(wěn)定且效果一般。文獻(xiàn)[8]在美國(guó)人工智能協(xié)會(huì)2020大會(huì)上通過引入一個(gè)輔助的x模態(tài)將雙模態(tài)重識(shí)別轉(zhuǎn)化為可見光、紅外光、x模態(tài)的三模態(tài)重識(shí)別問題,實(shí)現(xiàn)了較好的效果。以上研究盡管取得了一定的成就,但存在以下問題:

1)直接使用共享參數(shù)提取與模態(tài)無關(guān)的身份信息,忽視了不同模態(tài)數(shù)據(jù)本身的差異。可見光圖像為紅綠藍(lán)三通道數(shù)據(jù),包含了豐富的色彩信息,而紅外圖像為單通道,其灰度值反映了目標(biāo)的紅外輻射量,成像機(jī)理完全不同導(dǎo)致跨模態(tài)行人重識(shí)別領(lǐng)域相關(guān)研究效果較差。

2)僅考慮了圖片整體特征或僅考慮局部特征,對(duì)圖像信息的利用不充分。

為解決以上兩個(gè)不足,下面提出的網(wǎng)絡(luò)結(jié)構(gòu)可有效提取出兩種模態(tài)中的共享信息,提高跨模態(tài)行人重識(shí)別模型精度:

1)基于注意力機(jī)制設(shè)計(jì)了輕量化的模態(tài)遷移模塊,可有效地在特征嵌入網(wǎng)絡(luò)的輸入級(jí)縮小跨模態(tài)差異,并且額外參數(shù)量可忽略不計(jì)。

2)設(shè)計(jì)了基于分塊的多粒度特征分解模塊。同時(shí)考慮輸入圖像的整體信息和豐富的局部信息,提高了有效信息的利用率。

3)整個(gè)模型可以端到端進(jìn)行訓(xùn)練,并且兩種模塊可以獨(dú)立使用,也可以與其他相關(guān)研究進(jìn)行組合。

2 網(wǎng)絡(luò)模塊設(shè)計(jì)

2.1 整體網(wǎng)絡(luò)架構(gòu)

目前基于深度學(xué)習(xí)的跨模態(tài)行人重識(shí)別,多采用使用共享參數(shù)的多層卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取[4-8],將可見光圖像特征和紅外光圖像特征嵌入同一個(gè)特征空間用于后續(xù)分類(或相似度度量)。這里也采用此類網(wǎng)絡(luò)架構(gòu),其總體框架如圖1所示。對(duì)于可見光圖像,首先輸入到模態(tài)遷移模塊,利用通道間的注意力機(jī)制將RGB 3個(gè)通道進(jìn)行非線性加權(quán),減弱可見光圖像特有的顏色信息,模擬紅外光的紅外輻射信息,實(shí)現(xiàn)輸入級(jí)模態(tài)間差異的削減;接著模態(tài)遷移模塊的輸出和原始紅外圖像一起,通過共享參數(shù)的卷積神經(jīng)網(wǎng)絡(luò)來提取特征。文獻(xiàn)[9]中已有實(shí)驗(yàn)論證,將ResNet50的最后一層下采樣層(down sampling layer)的池化步長(zhǎng)(stride)從2修改為1,可有效避免尺寸減小帶來的信息損失,提高特征提取性能,因此在行人重識(shí)別的多項(xiàng)工作[6-8]中都將其作為特征提取的基準(zhǔn)分類模型。為了證明所提方法的有效性,同樣選擇該微改的ResNet50(下面簡(jiǎn)稱為ResNet50)作為基礎(chǔ)模型進(jìn)行對(duì)比。另外,在去掉最后ImageNet的全連接層基礎(chǔ)上,使用ImageNet大規(guī)模數(shù)據(jù)集上預(yù)訓(xùn)練的權(quán)重參數(shù),進(jìn)行遷移學(xué)習(xí)后所提取的特征經(jīng)過多粒度特征分解模塊,通過水平分塊將特征分為兩級(jí)細(xì)粒度特征。再將全局特征和細(xì)粒度特征分別進(jìn)行三元組損失函數(shù)計(jì)算,經(jīng)過全連接層進(jìn)行交叉熵?fù)p失函數(shù)計(jì)算,完成整個(gè)網(wǎng)絡(luò)的端到端的訓(xùn)練。

圖1 網(wǎng)絡(luò)整體結(jié)構(gòu)

2.2 模態(tài)遷移模塊

由于不同模態(tài)圖像灰度值反映的信息語義不同,且兩種模態(tài)信息并沒有已知的對(duì)應(yīng)關(guān)系,因此,為了模擬行人圖像的跨模態(tài)遷移減小圖片級(jí)模態(tài)差異,使用注意力機(jī)制中的通道注意力,期望通過反向傳播讓模型擬合可見光模態(tài)到紅外模態(tài)的通道級(jí)轉(zhuǎn)換。具體結(jié)構(gòu)如圖2所示。

圖2 模態(tài)遷移模塊結(jié)構(gòu)

可見光圖像首先經(jīng)過最大池化和平均池化得到兩個(gè)長(zhǎng)度為3的一維向量特征表示,再經(jīng)過1×1卷積和非線性的relu激活層再次疊加1×1卷積層用于擬合模態(tài)遷移變換。將兩條路徑得到的輸入進(jìn)行像素級(jí)疊加;再經(jīng)過sigmoid激活函數(shù)提高非線性,得到不同通道的注意力權(quán)值;再與原始圖像進(jìn)行通道級(jí)相乘,得到注意力加權(quán)后的三通道圖像,用于后續(xù)特征提取。

2.3 特征分解模塊

同一個(gè)行人在不同光照條件、視角差異、姿態(tài)變化等情況下攝像頭所捕獲到的圖像有較大差異。若僅觀察整體特征不利于行人身份的準(zhǔn)確識(shí)別,如2個(gè)不同行人若身體姿態(tài)相似,則極易被誤判為同一人,因此考慮行人圖像的局部細(xì)粒度特征在一定程度上可提高模型魯棒性。根據(jù)特征大小不同應(yīng)當(dāng)考慮不同粒度,如面部佩戴的眼鏡、帽子等應(yīng)該使用較細(xì)的粒度,褲子外觀應(yīng)該使用較粗粒度。據(jù)此設(shè)計(jì)了多粒度特征分解模塊,如圖3所示。前級(jí)特征提取得到了深層網(wǎng)絡(luò)多維特征,分別經(jīng)過3個(gè)不同分支,包括全局特征分支、粗粒度特征分支和細(xì)粒度特征分支。其中全局特征分支提取原始的圖像整體特征,粗粒度特征分支將原特征進(jìn)行水平分塊為3組,細(xì)粒度特征分支將原特征水平分塊為6組,總共得到10組特征,之后每組特征都經(jīng)過全局平均池化層化為特征向量,再經(jīng)過1×1卷積層進(jìn)行降維,最后接批量歸一化層(batch normalization,BN層)將各組的特征實(shí)現(xiàn)通道級(jí)拼接得到一個(gè)總體多粒度特征,將其作為該輸入圖像的特征表示,用于后續(xù)損失函數(shù)計(jì)算和預(yù)測(cè)階段的特征匹配。其中全局特征分支降維為512通道,粗粒度特征分支降維為256通道,細(xì)粒度特征分支降維為128通道。

圖3 多粒度特征分解網(wǎng)絡(luò)結(jié)構(gòu)

3 實(shí)驗(yàn)結(jié)果與分析

3.1 數(shù)據(jù)集及評(píng)價(jià)指標(biāo)

所選擇的數(shù)據(jù)集為可見光-紅外光跨模態(tài)行人重識(shí)別領(lǐng)域使用最廣泛的公開數(shù)據(jù)集SYSU-MM01,共包含287 628張可見光行人圖片和15 792張紅外光行人圖像,來自于6個(gè)攝像頭,包括室內(nèi)場(chǎng)景和室外場(chǎng)景。整個(gè)數(shù)據(jù)集共包含491個(gè)不同身份的行人,每個(gè)行人都至少有一張可見光圖像和一張紅外光圖像。SYSU-MM01數(shù)據(jù)集已經(jīng)預(yù)先劃分了訓(xùn)練集、測(cè)試集和驗(yàn)證集,其中訓(xùn)練集共296個(gè)ID的行人,測(cè)試集共96個(gè),驗(yàn)證集共99個(gè)。目前普遍使用的處理方式是將原始的訓(xùn)練集和驗(yàn)證集合并到一起訓(xùn)練。測(cè)試集中的紅外圖像樣本稱為query集,也叫查詢集,可見光圖像樣本稱為gallery集,也叫待查集。測(cè)試模式包括全部場(chǎng)景(all)和室內(nèi)(indoor)場(chǎng)景以及單發(fā)(single shot)和多發(fā)(multi-shot)兩種情況互相組合。

評(píng)價(jià)指標(biāo)使用累計(jì)匹配特性(cumulative matching characteristics,CMC)和平均精確度(mean average precision,mAP)兩項(xiàng)指標(biāo),其中mAP指標(biāo)在目標(biāo)檢測(cè)領(lǐng)域早已廣泛使用,而CMC指標(biāo)一般只在圖像檢索、重識(shí)別等問題中使用。模型在測(cè)試時(shí)將query集和gallery集全部樣本輸入網(wǎng)絡(luò)提取各自的特征向量計(jì)算相似度,從而對(duì)于query集每個(gè)樣本都能得到gallery集全部樣本的相似度降序排列。對(duì)于CMC指標(biāo)一般使用rank-k命中率進(jìn)行計(jì)算。將query集中全部樣本的rank-k計(jì)算平均值即可得到最終的rank-k結(jié)果。一般最常選擇的k值為1、10和20。

3.2 結(jié)果分析

實(shí)驗(yàn)采用的數(shù)據(jù)增強(qiáng)包括隨機(jī)圖像剪切(crop)、水平翻轉(zhuǎn)和隨機(jī)擦除,最后圖像大小為288×144像素,網(wǎng)絡(luò)使用Adam優(yōu)化器,權(quán)重衰減系數(shù)為5×10-4,初始學(xué)習(xí)率為0.01,并且學(xué)習(xí)率衰減使用warm-up策略,即前10個(gè)epoch(1個(gè)epoch為將所有訓(xùn)練樣本訓(xùn)練1次)學(xué)習(xí)率從0.001線性增長(zhǎng)到0.01,10到30個(gè)epoch學(xué)習(xí)率保持0.01,30到60個(gè)epoch學(xué)習(xí)率為0.001,60到80個(gè)epoch學(xué)習(xí)率為0.000 1。一共訓(xùn)練80個(gè)epoch。ResNet50由于使用了預(yù)訓(xùn)練參數(shù),因此其學(xué)習(xí)率設(shè)置為模型學(xué)習(xí)率的0.1倍。使用P×K的采樣策略,即每次迭代選擇P個(gè)ID,每個(gè)ID選K張可見光圖像和K張紅外光圖像,實(shí)驗(yàn)設(shè)置P為6,K為4。因此每次訓(xùn)練的batch大小為48張圖片。模型在SYSU-MM01數(shù)據(jù)集的4種模式下進(jìn)行測(cè)試,結(jié)果如表1所示。

表1 SYSU-MM01數(shù)據(jù)集不同方法結(jié)果對(duì)比

根據(jù)表1可知,在全場(chǎng)景模式下,單發(fā)和多發(fā)兩種情況下所提方法指標(biāo)都高于現(xiàn)有方法,其中單發(fā)的rank-1高于當(dāng)前最佳方法6.53%,mAP也高出最佳方法2.79%,多發(fā)模式下也有相同結(jié)果;并且室內(nèi)場(chǎng)景下由于難度有所下降,各項(xiàng)指標(biāo)都有所提高,但仍然優(yōu)于現(xiàn)有其他方法:證明了所提方法的有效性。

3.3 對(duì)比實(shí)驗(yàn)

為進(jìn)一步證明所設(shè)計(jì)的兩種模塊各自的有效性,對(duì)比實(shí)驗(yàn)設(shè)計(jì)包括不同網(wǎng)絡(luò)架構(gòu)的對(duì)比和不同不同基礎(chǔ)模型的對(duì)比。對(duì)于跨模態(tài)行人重識(shí)別問題,基于深度學(xué)習(xí)的方法其模型可歸類為3種網(wǎng)絡(luò)架構(gòu):?jiǎn)瘟骷軜?gòu)、雙流架構(gòu)、半雙流架構(gòu),如圖4所示。將3種網(wǎng)絡(luò)架構(gòu)和所提方法一起進(jìn)行對(duì)比,為了控制變量,本部分實(shí)驗(yàn)都不采用所提出的特征分解模塊,并且4種架構(gòu)的基礎(chǔ)模型均采用前面所述的ResNet50,其中半雙流架構(gòu)的共享卷積層使用ResNet50的layer1-4。在全場(chǎng)景單發(fā)模式下實(shí)驗(yàn)結(jié)果證明了使用所提的注意力模塊后的網(wǎng)絡(luò)架構(gòu)的有效性,如表2所示。

圖4 不同網(wǎng)絡(luò)架構(gòu)對(duì)比

表2 不同網(wǎng)絡(luò)架構(gòu)對(duì)比

為了對(duì)比所提出的特征分解模塊的有效性,分別使用4種不同的經(jīng)典預(yù)訓(xùn)練模型作為特征提取的基礎(chǔ)模型,分別為ResNet50、ResNet18、SqueezeNet、DenseNet121,每種基礎(chǔ)模型都進(jìn)行是否使用特征分解模塊的對(duì)比。在全場(chǎng)景單發(fā)模式下實(shí)驗(yàn)結(jié)果如表3所示。

表3 不同基礎(chǔ)模型對(duì)比

從表3結(jié)果可看出,不同的預(yù)訓(xùn)練模型效果有差別,但使用所提特征分解模塊后各項(xiàng)指標(biāo)均有所提高,證明所提特征分解模塊的有效性。

4 結(jié) 語

針對(duì)可見光和紅外光跨模態(tài)行人重識(shí)別問題,提出了一種新的網(wǎng)絡(luò)結(jié)構(gòu),包括基于注意力的模態(tài)遷移模塊用于緩解巨大的跨模態(tài)差異以及基于圖像分塊的多粒度特征分解模塊用于提取圖像全局和局部的多粒度特征。在SYSU-MM01公開數(shù)據(jù)集上進(jìn)行的測(cè)試表明,所提兩種模塊能有效提高行人重識(shí)別模型精度,與現(xiàn)有多種方法比較達(dá)到了目前更好的效果。但與可見光單模態(tài)行人重識(shí)別相比,跨模態(tài)行人重識(shí)別模型效果仍然有很大的提升空間。考慮到深度學(xué)習(xí)中注意力機(jī)制有多種實(shí)現(xiàn)方式,接下來將進(jìn)一步改進(jìn)模態(tài)遷移模塊,探究可見光和紅外光之間更有效的特征變換結(jié)構(gòu),進(jìn)一步減小跨模態(tài)差異,提高算法性能。

猜你喜歡
模態(tài)特征模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
3D打印中的模型分割與打包
國(guó)內(nèi)多模態(tài)教學(xué)研究回顧與展望
基于HHT和Prony算法的電力系統(tǒng)低頻振蕩模態(tài)識(shí)別
由單個(gè)模態(tài)構(gòu)造對(duì)稱簡(jiǎn)支梁的抗彎剛度
主站蜘蛛池模板: 亚洲无码37.| 精品视频91| 99伊人精品| 国产剧情一区二区| 国产成人精品18| 亚洲综合国产一区二区三区| 99热亚洲精品6码| 精品一区二区三区中文字幕| 在线精品亚洲国产| 日本黄色a视频| 国产成熟女人性满足视频| 国产在线拍偷自揄拍精品| 亚洲va欧美va国产综合下载| 97久久超碰极品视觉盛宴| 国产偷国产偷在线高清| 国产精品私拍99pans大尺度| 久久综合结合久久狠狠狠97色| 国产手机在线小视频免费观看| 色婷婷成人网| 萌白酱国产一区二区| 亚洲国产一区在线观看| v天堂中文在线| 尤物在线观看乱码| 亚洲精品欧美重口| 日韩精品视频久久| 亚洲国产理论片在线播放| 国产精品网址在线观看你懂的| 青青操视频在线| 国产精品太粉嫩高中在线观看| 日韩在线中文| 欧美97欧美综合色伦图| 91精品国产福利| 国产精品网址你懂的| 91亚洲精选| 亚洲成在线观看| 亚洲色图综合在线| 亚洲最大在线观看| 亚洲精品国偷自产在线91正片| 不卡视频国产| 国产成人凹凸视频在线| 婷婷色婷婷| 国产网站一区二区三区| 精品免费在线视频| 三上悠亚在线精品二区| 亚洲天堂.com| 亚洲伊人久久精品影院| 日韩大乳视频中文字幕| 亚洲男人的天堂在线| 午夜视频免费一区二区在线看| 在线免费看片a| 亚洲日韩精品欧美中文字幕| 91精品福利自产拍在线观看| 国产精品无码AV中文| 国产在线八区| 亚洲综合色婷婷| 韩国福利一区| 成人午夜久久| 欧美日本在线播放| 中日无码在线观看| 精品无码国产一区二区三区AV| 精品乱码久久久久久久| 久久婷婷六月| 91亚洲精选| 亚洲成在线观看| 精品国产美女福到在线直播| 欧美午夜在线视频| 午夜日本永久乱码免费播放片| 亚洲天堂网在线观看视频| 欧美a级完整在线观看| 啊嗯不日本网站| 一级一毛片a级毛片| 久久动漫精品| 国产精品9| 欧美无专区| 干中文字幕| 福利在线不卡一区| 蝴蝶伊人久久中文娱乐网| 免费人欧美成又黄又爽的视频| jizz亚洲高清在线观看| 国产视频入口| 亚洲色图欧美| 中文字幕1区2区|