999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于通道域注意力機制的特征融合方式

2021-10-18 00:48:58羅大為方建軍劉艷霞
東北師大學報(自然科學版) 2021年3期
關鍵詞:示意圖機制特征

羅大為,方建軍,劉艷霞

(1.北京聯合大學北京市信息服務工程重點實驗室,北京 100101;2.北京聯合大學城市軌道交通與物流學院,北京 100101)

0 引言

在基于深度學習的目標檢測工作中,融合不同尺度的特征是提高特征提取性能的一個重要手段[1].大尺度的特征一般指淺層特征,感受野小,分辨率高,包含更多位置、細節信息,但是由于經過的卷積更少,其語義性更低,噪聲更多.小尺度的特征指深層特征,感受野大,全局特征豐富,具有更強的語義信息,但是分辨率很低,對細節的感知能力較差[2].因此,在目標檢測中,將不同的特征進行融合,以達到增強特征提取、優化檢測模型的目的.

當前流行的融合方式主要有Concat和Add.Concat是神經網絡結構設計中很重要的一種操作,經常用于連接特征,它可以將多個卷積層的特征或者是將輸出層的信息進行融合[3].Concat并不會改變每一個特征的信息,只會增加特征的數量,比如DenseNet[4]、ParseNet[5]、YOLOv3[6].Add操作則是信息之間的疊加.Add是增加提取的各個特征信息,但是并沒有增加特征的數量,比如Resnet[7]、FPN[8]、FCN[9].在一些研究中,通常把兩種方式混合使用.或者通過卷積和采樣操作將不同尺度特征進行Add或Concat操作,比如CFENet[10].采用類似特征金字塔網絡(Feature Pyramid Networks,FPN)的思想,對特征融合后進行預測,但它們本質都是對特征進行Concat或者Add操作.

這些特征融合都是直接將輸入的特征進行疊加或拼接,沒有充分考慮其對于模型性能存在的不同影響.不同的特征對于檢測結果應該存在著不同的影響,有些特征對于檢測結果甚至是無用的或產生負面影響的.為了使模型增強有用特征的融合,本文設計了幾種基于注意力機制[11]的融合方式,并在Pascal VOC2007數據集[12]上進行測試.

1 基于注意力的特征融合方法

直接將兩個特征進行融合不能很好地將有效特征利用起來,會引入一些無效甚至負面的特征,對實驗結果造成影響.本文在特征融合部分加入了注意力機制,讓模型在訓練過程中學習哪些要融合的特征更加重要,并增加它們的權重,如圖1所示,圖1中Cat表示Concat操作.

Add(a)Add示意圖(b) A-Add示意圖(c)B-Add示意圖Con-cat(d)Cat示意圖(e) A-Cat示意圖(f)B-Cat示意圖

1.1 Add、Concat與Attention

Add操作本質是對2個輸入特征相對應的像素進行數學相加,如圖1(a)所示.經過Add操作后,特征圖的大小不變,通道數不變.對于輸入的兩路特征X和Y,Add操作可表示為

(1)

其中:兩路輸入的通道分別為X1,X2,…,Xcx和Y1,Y2,…,Ycy.用Cx表示輸入特征X的通道數,Cy表示輸入特征Y的通道數,*表示卷積.1c表示一個1×1×c的張量.經過Add操作后,特征圖的通道數不變,為C=Cx=Cy.Add操作要求兩路輸入特征維度一樣,即wX=wY,hX=hY,且Cx=Cy.

Concat操作公式為

(2)

與Add不一樣,Concat其實相當于將2個特征進行拼接,特征圖的大小不變,通道數增加.經過Concat操作后,特征圖的通道數為Cx+Cy.Concat的2個輸入要求w和h一致,即wX=wY,且hX=hY.在Concat操作中,Cx與Cy可以不相等.如圖1(d)所示.

本文設計的特征融合方式,主要是基于通道域的注意力機制,即對不同通道的特征進行注意力加權.基于通道域的注意力是通過一個Squeeze操作得到各通道特征的平均值,再經過一個卷積層學習它們的權值,最后再加權到各通道中,如圖2所示.

圖2 通道域注意力結構示意圖

Squeeze操作本質就是全局均值池化,使得h×w×c的特征圖變為1×1×c的實數序列;Uc即特征,等價于Xc和Yc.公式為

(3)

學習各特征權重,W是一個1×1×c的卷積核,用于學習權重.對輸入特征進行加權,增強有用特征,公式為

Sc=Fscale(Uc,Zc,W)=Uc×(Zc*W).

(4)

1.2 結合Attention與Add的特征融合

在Add操作中引入Attention模塊來增強特征融合效果,具體實現的結構與Concat類似,分別為A-Add和B-Add.

A-Add為:

(5)

其本質是在Add操作之后加入一個Attention模塊,對Add操作之后的特征進行注意力學習,如圖1(b)所示.Add操作不改變特征維度,改變特征值,因此與Concat不同.

B-Add公式為:

(6)

與A-Add不同,B-Add在Add操作之前對2個不同的特征進行Attention模塊,分別學習2個特征的權重,如圖1(c)所示.

1.3 結合Attention與Concat的特征融合

在Concat操作中引入Attention模塊來增強特征融合效果,公式為:

(7)

把Attention引入Concat操作的結構有2種,分別為A-Cat和B-Cat.A-Cat的具體實現如圖1(e)所示,在Concat操作之后加入一個Attention模塊,對融合之后的特征進行注意力學習,削弱不重要特征的影響.B-Cat則是在Concat操作之前對2個不同的特征進行Attention模塊,分別學習2個特征的權重,并降低無效或壞特征的權重,如圖1(f)所示.

2 實驗與分析

本文設計了相關實驗對基于注意力機制的特征融合方法進行驗證和分析.

2.1 實驗準備

2.1.1 數據集

本文將在Pascal VOC2007數據集上進行測試.該數據集是當前最流行的目標檢測數據集之一,包含9 963張標注過的圖片,共標注出24 640個物體,涉及行人、汽車、狗等20類目標.

2.1.2 測試網絡

基于注意力機制的特征融合方式將在YOLOv3-Tiny網絡上進行測試.YOLOv3-Tiny是當前最輕量的網絡模型之一,它的主干網絡僅有15層,結構簡單,性能高效,是許多工程應用中的選擇.在原始的YOLOv3-Tiny中,包含一個大尺度和中尺度的特征融合,本文將基于注意力機制的特征融合方法用于融合大尺度和中尺度特征,進行對比實驗.YOLOv3-Tiny的結構如圖3所示,圖3中Cat表示YOLOv3-Tiny采用Concat特征融合方式.

圖3 YOLOv3-Tiny結構示意圖

2.1.3 實驗環境

本文所有實驗都在NVIDIA GTX1080Ti、16 GB內存、Ubuntu16.04系統下進行,采用darknet框架.

2.2 實驗結果與分析

2.2.1 基于注意力的特征融合方式訓練情況

各模型訓練loss曲線如圖4所示.所有模型的在訓練4 h后,迭代約8萬次時loss趨于平穩,表明模型收斂.采用Concat進行融合的模型,loss收斂于0.617 1.采用A-Cat進行融合的模型,loss收斂于0.658 1.B-Cat的loss最低,收斂于0.539 1.loss在一定程度上反應模型的性能,從loss上看B-Cat收斂效果最好.

2.2.2 基于注意力的特征融合方式實驗結果分析

Thresh設置為0.5時的四值分析如表1所示.從表1可知,4種基于注意力機制的特征融合模塊的Precision(P)相較于原來提高了1%~2%,Recall(R)并未收到明顯影響,F1-score(F1)獲得了提高,A-Cat的AIOU比原來提高了1.14%,且浮點運算量并沒有顯著增加.由于模型的運行速度會受到設備的性能影響,因此采用模型的浮點運算量作為模型效率衡量標準,如表2 所示.

圖4 訓練loss曲線圖

表1 基于注意力的特征融合算法性能分析

表2 基于注意力的特征融合算法復雜度與準確度分析

A-Cat的mAP比原Concat提高了0.76%.B-Cat的AIOU比原來僅提高0.34%,浮點運算量增加了0.001,但mAP提高了1.49%.Add操作中,A-Add和B-Add在P,R和F1中沒有帶來提升,甚至在AIOU中略微出現下降,但從mAP中可看出,注意力機制仍發揮作用.

對于4種特征融合結構在VOC2007數據集上20個種類目標的AP分析如表3所示.A-Cat比原Concat的mAP提高了0.76%,B-Cat比原Concat的mAP提高了1.49%.A-Cat在Diningtable和Pottledplant等復雜目標的AP值相較于原來的Concat操作略有下降,但是在其他目標,如Aeroplane、Bicycle、Bird和Boat等有很大的提升.而B-Cat在各類中均有顯著提高,且提升幅度大于A-Cat.

表3 Pascal VOC2007上各類目標的AP分析%

Add操作的檢測性能在Pascal VOC2007數據集上的表現遠不如Concat.經過實驗分析,本文認為Add操作直接將2個不同的特征進行數學相加,這有可能會破壞或損失部分提取的特征,因此它的mAP普遍低于Concat操作.但引入注意力的Add操作性能得到了提升,如A-Add比原Add的mAP提高了0.34%,B-Add比原Add的mAP提高了1.14%.A-Add對于Aeroplane和Diningtable等大尺度目標的檢測性能出現了下降,但對于Bird和Boat則提升明顯.A-Add的mAP在各類目標上AP分析均出現大幅提升.

從上述實驗結果可知,4種基于注意力機制的特征融合方式都得到了不同程度的提升,但就特征融合而言,B-Cat所展現的效果最佳,基于Concat操作的融合方式普遍比基于Add操作的方法效果好.

3 結論

本文基于注意力機制,并設計了4種可學習的特征融合模塊,它們可以在模型訓練中學習如何將有效特征進行加權融合,提升特征融合的效率,進而提升目標檢測模型的性能.通過YOLOv3-Tiny在Pascal VOC2007數據集上的實驗,基于注意力機制的特征融合模塊比直接進行特征融合的方式最高可提升1.49%,證明該方法的有效性.基于注意力機制的特征融合可用于提升多尺度特征融合、高底層特征融合等,為深度神經網絡中多特征融合的設計和構建提供了思路和理論基礎.

猜你喜歡
示意圖機制特征
先畫示意圖再解答問題
黔西南州旅游示意圖
當代貴州(2019年41期)2019-12-13 09:28:56
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
自制力是一種很好的篩選機制
文苑(2018年21期)2018-11-09 01:23:06
抓住特征巧觀察
兩張圖讀懂“青年之聲”
中國共青團(2015年7期)2015-12-17 01:24:38
破除舊機制要分步推進
中國衛生(2015年9期)2015-11-10 03:11:12
注重機制的相互配合
中國衛生(2014年3期)2014-11-12 13:18:12
打基礎 抓機制 顯成效
中國火炬(2014年4期)2014-07-24 14:22:19
主站蜘蛛池模板: 成人一级免费视频| 国产精品不卡永久免费| 国产精品网拍在线| 亚洲日韩图片专区第1页| 亚洲最新在线| 一级爱做片免费观看久久| 久久特级毛片| 久青草国产高清在线视频| 亚洲欧洲自拍拍偷午夜色| 亚洲中文字幕国产av| 国产成人精品三级| 亚洲二区视频| 国产精品欧美亚洲韩国日本不卡| 免费无码网站| 免费aa毛片| 亚洲精品视频网| 国产精品毛片一区| 亚洲人成亚洲精品| 亚洲天堂伊人| 综合色天天| 久久亚洲黄色视频| 国产精品任我爽爆在线播放6080| 尤物特级无码毛片免费| 国产欧美专区在线观看| 欧美a级完整在线观看| 一本大道香蕉久中文在线播放| 国产人碰人摸人爱免费视频| 免费国产高清精品一区在线| 国产精品自拍露脸视频| 国产大片黄在线观看| 国产鲁鲁视频在线观看| 成人在线亚洲| 最新国产网站| 小蝌蚪亚洲精品国产| 午夜精品久久久久久久无码软件 | 婷婷激情五月网| 99色亚洲国产精品11p| 亚洲欧美不卡中文字幕| 久久久亚洲色| 国产视频一二三区| 激情在线网| 91精品国产无线乱码在线| 国产精品丝袜视频| 她的性爱视频| 色婷婷狠狠干| 日日噜噜夜夜狠狠视频| 亚洲综合中文字幕国产精品欧美| 精品人妻系列无码专区久久| 欧美激情成人网| 青青国产成人免费精品视频| 国产精品99r8在线观看| 免费看久久精品99| 福利姬国产精品一区在线| 99尹人香蕉国产免费天天拍| 国产精品亚洲片在线va| 国产国拍精品视频免费看| 久久综合九色综合97婷婷| 欧美日本在线一区二区三区| 啊嗯不日本网站| 亚洲综合18p| 先锋资源久久| 久久人午夜亚洲精品无码区| 五月婷婷欧美| 日韩在线永久免费播放| 啪啪永久免费av| 亚洲无码精品在线播放 | 思思99思思久久最新精品| 啪啪永久免费av| 亚洲av无码久久无遮挡| 中文字幕佐山爱一区二区免费| 日韩国产黄色网站| 欧美日韩亚洲综合在线观看 | 亚洲日本一本dvd高清| 8090午夜无码专区| 亚洲专区一区二区在线观看| 久久人搡人人玩人妻精品一| 无码内射在线| 伊人无码视屏| 国产一区在线视频观看| 亚洲精品手机在线| 伊人AV天堂| 国产男人的天堂|