999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于通道域自注意力機制的圖像識別算法

2020-11-09 07:29:18何海洋孫南
計算機時代 2020年10期

何海洋 孫南

摘? 要: 為了提高自注意力網絡的圖像識別效果,對通道域自注意力機制存在的梯度死亡的問題,提出了一種優化算法。首先聚集特征在空間范圍上的全局特征響應,然后使用新的激活函數對通道關系建模,構造通道權重響應。將改進后的通道域自注意力模塊使用于神經網絡分類器中,在CIFAR-10和CIFAR-100數據集上進行實驗,結果顯示,和傳統模型相比,圖像識別準確率提高了1.3%和1.4%,驗證了所提算法的有效性。

關鍵詞: 通道域自注意力; 神經網絡; 激活函數; 圖像識別

中圖分類號:TP391? ? ? ? ? 文獻標識碼:A? ? ? 文章編號:1006-8228(2020)10-64-05

Abstract: In order to improve the image recognition of the self-attention network, an optimized algorithm is proposed for the problem of gradient death that exists in the channel domain self-attention mechanism. Firstly, the global feature response over the spatial extent of the feature is aggregated, and then the new activation function is used to model the channel relationship and to construct the channel weight response. The improved channel-domain self-attention module is used in neural network classifier, and experiments are carried out on CIFAR-10 and CIFAR-100 datasets.? The experiment results show that the accuracy of image recognition is improved by 1.3% and 1.4% compared with the traditional model, which verifies the effectiveness of the proposed algorithm.

Key words: channel domain self-attention; neural network; activation function; image recognition

0 引言

圖像識別是計算機視覺領域中的三大任務之一,其是通過分析圖片的整體特征,找到目標圖片的所屬類別。目前,深度學習在圖像識別領域取得了突破性的進展。

隨著NLP中的注意力機制廣受歡迎[1],注意力機制引起了計算機視覺領域的重視,開始慢慢滲透到研究的主體結構中,以補充現有的CNN體系結構或完全替代它們。

注意力機制是網絡架構的一個組成部分,負責管理和量化信息之間的相互依賴關系。對于在輸入和輸出元素之間的關系,一般稱它為General Attention,而輸入元素內部的關系叫做自注意力(Self-Attention)。自注意力是一種與單個序列的不同位置相關聯的注意力機制,它接受n個輸入,并返回n個輸出,其目的是計算同一序列的表示形式。大量文獻表明自注意力機制在機器閱讀,抽象概念總結和圖像描述及生成中非常有用[2-5]。

空間域自注意力[6]提出了一個叫空間轉換器(spatial transformer)的模塊,將圖片中的的空間域信息做對應的空間變換,從而能將關鍵的信息提取出來,但是因為卷積層之后,每一個卷積核(filter)產生的通道信息,所含有的信息量以及重要程度其實是不一樣的,都用同樣的transformer其實可解釋性并不強,它忽略了通道域中的信息。文獻[7]將卷積核的卷積類似于信號做了傅里葉變換,從而能夠將這個特征一個通道的信息給分解成64個卷積核上的信號分量,給每個通道上的信號都增加一個權重,來代表該通道與關鍵信息的相關度的話,這個權重越大,則表示相關度越高,也就是越需要去注意的通道了,但是加權函數出現了梯度死亡,不能還原通道間的復雜相關性。本文針對加權函數梯度死亡的缺點,對相關函數做出了相關的改進,避免了網絡出現梯度死亡,更好的還原通道間的復雜相關性。實驗結果表明,經過優化后的模型具有更加準確的識別率。

1 研究基礎

通過使用軟自注意力對卷積特征的通道之間的相互依賴性進行建模,對于CNN特定層中的通道響應重新加權。基于這種想法,研究人員提出了Squeeze-And-Excitation 模塊,如圖1所示。

Squeeze-And-Excitation模塊的工作原理如下: 對于特征[Ftr]從X到U的任何一個轉換(例如卷積操作),都會有一個轉換操作[Fsq],它聚集了特征在空間范圍(H,W)上的全局特征響應,這是Squeeze操作。在Squeeze操作之后是Excitation操作[Fex],這和循環神經網絡中門機制[8-9]很像,通過給通道信息一個系數,抑制差的通道信息,激勵重要的通道信息,來構造通道權重響應。隨后[Ftr]的輸出在通道方向上乘以Excitation操作的結果(即圖中的[Fscale]操作)。Squeeze操作的數學公式可以表示為:

其中,[uc]是[Ftr]操作的輸出,(i,j)是信息在特征圖上的位置表示。Squeeze操作是通過使用全局平均池化來創建信道中全局信息的聚合。

另一方面,Excitation操作的數學公式可以表示為:

Excitation操作將Squeeze操作的輸出乘以網絡學習到的權重W1,將結果通過ReLU函數δ,接著輸出與另一組權重W2相乘,最后使用sigmoid函數以確保所有的通道權重都是正數。

在Excitation操作過程中,W1會除以因子r來減少通道數,而W2將乘以r再次將通道維數增大到原始通道數。這樣是為了減少網絡的計算量。最后,將[Ftr]的通道特征乘以從Excitation操作中獲得的權重,就可以看成在通道上使用了全局信息的自注意力機制。

擠壓和激勵塊的主要思想是在神經網絡的決策過程中可以讀取全局信息。卷積操作只可以查看特定范圍內的局部空間信息,而Squeeze-And-Excitation模塊可以匯總來自整個特征圖的信息。

2 針對通道域自注意力的改進方案

2.1 通道域自注意力機制存在的問題

在通道域自注意力的模型中,可注意到Excitation操作中使用ReLU函數和全連接層來模擬通道之間的相互依賴性。網絡經過全連接層和ReLU函數可以模擬出卷積層的非線性,但是使用ReLU激活函數時,不會得到非常小的值,只能得到0。當計算梯度時,如果太多數值小于0,梯度更新會等于零,因此得到了一堆未更新的權重和偏差,這就是ReLU死亡問題。

假設一個簡單的網絡結構,存在一個輸入神經元[a0],在經過權重[w1]和偏置[b1]后,神經元[a0]生成了神經元[a1],以此類推,在經過權重[w2],[w3],[w4]和偏置[b2],[b3],[b4]后依次生成了神經元[a2],[a3],[a4],最后[a4]輸出了C。

根據神經網絡的梯度公式,可以很簡單算出[b1]的梯度,見公式⑶。

可以發現如果等式中某個神經元經過ReLU函數變成了0,那么偏置[b1]的梯度也會歸零,無法進行。同理其他與該神經元相關的偏置都不會得到梯度更新。這種問題直接會影響到網絡的梯度更新,降低網絡識別效果,因此要對該問題進行針對性改進。

2.2 通道域自注意力的激活函數優化

針對ReLU函數可能會出現的死亡問題,本文基于ReLU激活函數做了改進,提出FeLU函數,解決了ReLU函數出現的問題。FeLU函數的數學公式如下:

FeLU激活函數圖像如圖2所示,可以發現在[F(x)]函數中如果輸入的x值大于零,則輸出值與ReLU相同,是等于x的值。但是如果輸入值x小于0,輸出結果將得到一個略低于零的值。這樣可以保證梯度不會出現死亡,停止更新。同時,和ReLU函數相比,FeLU函數存在負值,激活神經元的輸出平均值可以更加靠近0,神經元的輸出平均值與0越近,激發單元的偏移效應越低,網絡的梯度更靠近自然梯度,同時也能起到批量正則化的效果。

對ReLU激活函數改進之后,Squeeze-And-Excitation 模塊可以表示為圖3中的結構。

當形狀為[H×W×C]的特征圖傳入到Squeeze-And-Excitation 模塊,首先會進行一次全局池化變成[1×1×C]的特征圖,也就是Squeeze操作。然后進行了2次全連接操作,用來模擬通道間的復雜關系,在兩次全連接操作中加入了FeLU激活函數用來避免ReLU死亡問題,第一次全連接層會將特征圖的通道數放縮16倍,這可以減少神經網絡的計算量,降低運行時間,第二次全連接層會將特征圖還原到原始通道數。最后將全連接輸出的特征值傳到Sigmoid函數中,放縮到0和1之間,等待加權。這是Excitation操作。將輸入特征信息乘以從Excitation操作中獲得的權重,就完成了在通道上的自注意力機制。

3 實驗模型建立及結果分析

3.1 實驗模型的建立

實驗建立了一個小型神經網絡,包含一個輸入層,一個添加了通道域自注意力模塊的卷積層和一個全連接輸出層。實驗的數據集選用了MNIST數據集,并對數據集分別進行了歸一化和標準化。為了減少不可避免的隨機性的影響,每組實驗被測試5次,每次網絡會迭代100次。這些實驗的訓練精度將取平均值,這將有助于確保在實驗中看到更具代表性的結果。

實驗中的評價標準分為四個,為了方便標識,本文使用A、B、C、D四個選項分別表示這四個實驗評價標準。其中A表示5次實驗中最后一次迭代的驗證集精度平均值;B表示5次實驗中訓練集精度平均值最高的驗證集精度;C表示5次實驗中最后一次迭代的驗證集精度最大值;D表示所有實驗中的驗證集精度最大值。

對于圖像識別模型的比較實驗,在ResNet神經網絡[10]中添加了改進后的通道域自注意力模塊,和其他神經網絡在CIFAR-10和CIFAR-100數據集[11]上進行了實驗精度和時間上的比較。實驗中參數設定了mini-batch為128,Momentum為0.9,learningrate為0.1。

3.2 實驗結果對比與分析

對于自注意力模塊的激活函數的比較實驗,為了減少梯度下降時間,實驗中對數據集分別進行了歸一化和標準化,實驗結果見表1和表2。

從實驗結果可以發現,無論是歸一化數據集還是標準化數據集,FeLU激活函數的實驗精度基本都高于其他激活函數。而同種激活函數之間數據比較可以發現,經過標準化數據訓練的網絡的性能稍微差一點。但是總的來說,本文FeLU激活函和其他的激活函數在通道域自注意力機制神經網絡中的表現相比,實驗的驗證集精度都要高一些,證明了經過改進后的FeLU激活函數的可行性和有效性。

對于圖像識別模型,本文和DSN[12],文獻[13],文獻[14],Highway Network[15],All-CNN[16],SENet進行測試精度的比較,實驗結果如表3所示。

從表3中可以發現,在兩個數據集上,包括DSN、Highway Network和All-CNN神經網絡在內的無注意力機制神經網絡的實驗準確度明顯低于自注意力神經網絡。而在SENet、文獻[13]和文獻[14]等自注意力神經網絡的實驗數據中,本文模型在CIFAR-10數據集上排名第二,測試集實驗誤差為3.14%,但是在CIFAR-100數據集上的實驗表現最佳,測試集實驗誤差僅為16.27%。其中和包含Squeeze-And-Excitation 模塊的SENet網絡相比,本文模型實驗中準確率更高,表現的更好,這證明了本文模型在針對Squeeze-And-Excitation 模塊的激活函數改進是有效果的,體現了本文算法優化策略的價值和有效性。同時本文和SENet,文獻[13],文獻[14]等自注意力神經網絡進行比較了神經網絡運行時間的比較,如表4所示。

從表4中,可以發現本文模型和SENet,文獻[14]等傳統神經網絡相比,本文模型網絡訓練和測試的時間高了15%~23%,這是因為本文模型為ResNet網絡架構,神經網絡的整體架構較為復雜,網絡的層數深,和其他神經網絡模型相比,消耗了大量的網絡計算時間。但是就單張圖像識別而言,本文模型的圖像識別時間是可以滿足識別實時性要求的,在提高圖像識別準確率的條件下,這些消耗的時間仍然是可以容忍的。

4 結論

本文根據通道域自注意力模塊的缺點提出了FeLU激活函數,并進行了激活函數相關實驗對比,通過實驗數據的分析,證明了FeLU激活函數是可行的。并且在ResNet神經網絡的基礎上添加了基于FeLU的通道域自注意力機制,在實驗對比中,本文算法取得了不錯的效果。但是模型在通道壓縮階段使用的全局池化會導致一些空間特征信息的丟失,在接下來的工作中我們將重點研究通道信息壓縮,實現空間特征信息的有效保留。

參考文獻(References):

[1] Firat O, Cho K, Bengio Y. Multi-way, multilingual neural machine translation with a shared attention mechanism[J]. arXiv preprint arXiv:1601.01073,2016.

[2] Shen T, Zhou T, Long G, et al. Disan: Directional self-attention network for rnn/cnn-free language understanding[C]//Thirty-Second AAAI Conference on Artificial Intelligence. 2018.

[3] Fu J, Liu J, Tian H, et al. Dual attention network for scene segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2019:3146-3154

[4] Zhu Y, Ko T, Snyder D, et al. Self-Attentive Speaker Embeddings for Text-Independent Speaker Verification[C]//Interspeech,2018:3573-3577

[5] Ambartsoumian A, Popowich F. Self-attention: A better building block for sentiment analysis neural network classifiers[J]. arXiv preprint arXiv:1812.07860,2018.

[6] Jaderberg M, Simonyan K, Zisserman A, et al. Spatial Transformer Networks[J].2015.Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. arXiv preprint arXiv:1409.1556,2014.

[7] Hu J, Shen L, Sun G. Squeeze-and-excitation networks[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2018:7132-7141

[8] 趙鵬,劉楊,劉慧婷等.基于深度卷積-遞歸神經網絡的手繪草圖識別方法[J].計算機輔助設計與圖形學學報,2018.2:217-224

[9] 劉禮文,俞弦.循環神經網絡(RNN)及應用研究[J].科技視界,2019.32.

[10] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2016:770-778

[11] Liang M, Hu X. [IEEE 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)-Boston, MA, USA (2015.6.7-2015.6.12)] 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)-Recurrent convolutional neural network for object recognition[C]// IEEE Conference on Computer Vision & Pattern Recognition. IEEE Computer Society,2015:3367-3375

[12] Lee C Y, Xie S, Gallagher P, et al. Deeply-supervisednets[C]//Artificial intelligence and statistics,2015:562-570

[13] Wang F, Jiang M, Qian C, et al. Residual attentionnetwork for image classification[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2017:3156-3164

[14] 袁嘉杰,張靈,陳云華.基于注意力卷積模塊的深度神經網絡圖像識別[J].計算機工程與應用,2019.55(8):9-16

[15] Srivastava R K, Greff K, Schmidhuber J. Training very deep networks[C]//Advances in neural information processing systems,2015:2377-2385

[16] Springenberg J T, Dosovitskiy A, Brox T, et al.Striving for simplicity: The all convolutional net[J].arXiv preprint arXiv:1412.6806,2014.

主站蜘蛛池模板: 精品久久蜜桃| 亚洲av无码牛牛影视在线二区| 欧美另类图片视频无弹跳第一页| 国产精品亚洲天堂| 激情网址在线观看| 日韩国产高清无码| 亚洲成人动漫在线| 国产精品成人免费综合| 久久人体视频| 久久毛片免费基地| 无码中文字幕乱码免费2| 婷婷伊人五月| 国产精品无码作爱| 99er这里只有精品| 成AV人片一区二区三区久久| 国产91导航| 天天干伊人| 婷婷99视频精品全部在线观看| 青青青草国产| 久久久亚洲色| 一本色道久久88综合日韩精品| 无码日韩精品91超碰| 国产精品专区第1页| 欧洲日本亚洲中文字幕| 国产成人亚洲毛片| 欧美午夜理伦三级在线观看| 丁香亚洲综合五月天婷婷| 2020精品极品国产色在线观看| 久久久91人妻无码精品蜜桃HD| 欧美成人在线免费| 亚洲成肉网| 国产真实二区一区在线亚洲| 亚洲一区二区三区国产精品| 国产99视频在线| 亚洲欧美人成电影在线观看| 欧美精品成人一区二区视频一| 天天综合网色| 666精品国产精品亚洲| 专干老肥熟女视频网站| 伊人无码视屏| 久久久久久久蜜桃| 国产精品蜜芽在线观看| 日韩国产高清无码| 国产H片无码不卡在线视频| 99精品视频在线观看免费播放| 久久99国产精品成人欧美| 麻豆国产精品视频| 亚洲一区精品视频在线| 波多野结衣久久高清免费| 国产免费看久久久| 久久伊人色| 国产成人免费高清AⅤ| 欧美区日韩区| 首页亚洲国产丝袜长腿综合| 日韩精品毛片人妻AV不卡| 免费aa毛片| 欧美亚洲欧美区| 国产亚洲精品yxsp| 国产香蕉国产精品偷在线观看| 天堂岛国av无码免费无禁网站| 22sihu国产精品视频影视资讯| 亚洲欧美日韩精品专区| 99视频在线精品免费观看6| 国模视频一区二区| 亚洲男人在线| 日韩一级二级三级| 国产主播喷水| 91美女视频在线观看| 亚洲一道AV无码午夜福利| 四虎永久在线视频| 又爽又大又光又色的午夜视频| 精品色综合| 人妻出轨无码中文一区二区| 99精品福利视频| 综合久久五月天| 中文字幕2区| 欧美性爱精品一区二区三区 | 黄色成年视频| 久久精品91麻豆| 欧美日本激情| 麻豆精品在线| 免费人成又黄又爽的视频网站|