999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合掩模和注意機制的CNN圖像分類算法

2023-05-31 09:14:10黃鶴鳴
計算機仿真 2023年4期
關鍵詞:分類特征實驗

李 偉,黃鶴鳴

(1. 青海師范大學計算機學院,青海 西寧 810008;2. 藏語智能信息處理與應用國家重點實驗室,青海 西寧 810008)

1 引言

近年來,隨著大數據和硬件計算能力的發展,神經網絡在各個領域不斷取得了突破性進展[1]。卷積神經網絡(Convolution Neural Networks, CNNs)作為一種帶有卷積計算的深層前饋型神經網絡(Feedforward Neural Networks),可以更好地獲取圖像的空間位置等相關特征[2,3]。2017年,陳玉石等人提出使用不同的卷積神經網絡提取異構特征的圖像分類模型[4];Bartunov等人在2018年將注意力機制應用于卷積神經網絡來提取圖像特征[5],注意力機制通過引入新的參數來彌補模型的擬合能力;2019年,王培森等人認為單一的注意力機制不能充分提取圖像的特征信息[6],故提出多通道視覺注意力機制的全卷積網絡分類模型;同年,Li等人提出了雙交叉熵損失函數概念,并將其應用到CNNs結構[7],該模型在小樣本汽車庫上取得了不錯的分類效果;2020年9月,Pathak等人將深度遷移學習算法應用于CNNs,搭建出基于深度遷移學習的2019新冠肺炎病毒分類模型,并在此模型中使用十倍交叉驗證來防止過擬合現象[8];同年12月,張祥東等人提出了一種結合擴張卷積與注意力機制的三維-二維串聯卷積神經網絡模型[9],利用三維卷積提取圖像特征的同時,并采用二維卷積進一步提取高級空間語義信息,再通過引入擴張卷積增大卷積核感受野,構建了多尺度特征提取結構,最后,利用注意力機制使網絡關注到較重要特征,并抑制噪聲和冗余信息,有效提高了小樣本訓練條件下的分類精度。

經過不斷地發展研究和改進,CNN具有良好的擴展性和魯棒性。利用CNN進行圖像分類時,能夠比較快速且全面地提取空間位置相關特征,但會產生過擬合、梯度爆炸或梯度消失等問題。Dropout技術有效緩解了網絡過擬合問題,本研究受圖像自身特性的啟發,提出了一種融合掩模和注意機制的CNN圖像分類算法:使用基于掩模的預訓練方法突出前景目標物體和去噪神經網絡提取的去噪深度特征,降低了圖像背景噪聲和深度特征噪聲的干擾,從而促使網絡模型總框架更加穩定。并使用三種不同注意類型的激活函數進行充分實驗,進一步提升了算法的性能。實驗結果表明:將其算法應用于Corel-1000圖像庫時,分類精確度有了較大提升。

2 網絡模型

為了更好地讀取圖像內容信息和提高圖像分類精確度,構建了如圖1所示的深度CNN網絡模型總體框架。該框架模型共有四個卷積層:去噪深度特征層、深度特征解釋層、特征抽象表示層、特征高級表示層。卷積層后各跟隨一個池化層,池化是縮小高、長方向上的空間運算。后面是三層全連接層,相鄰層的神經元全部連接在一起,輸出的數量可以任意決定。最后采用應對多分類問題的softmax函數進行分類[10-12],其計算公式如下

圖1 深度CNN網絡模型總體框架

圖2 去噪神經網絡結構

(1)

exp(x)是表示ex的指數函數,假設輸出層共有n個神經元,計算第k個神經元的輸出yk。softmax函數的分子是輸入信號ak的指數函數,分母是所有輸入信號的指數函數的和。

圖1中的去噪深度特征層由一個輸入層和兩個卷積層構成,用于提取去噪深度特征。CNN的卷積層依賴于網絡分層學習上下文不變特征[4]:空間位置信息,這在圖像分類和圖像檢索中都特別有用。

3 融合掩模和注意機制的CNN圖像分類算法的核心思想

3.1 基于掩模的預訓練方法

在神經網絡的學習和訓練過程中,由于特征維度比較高而訓練樣本有限,過擬合問題不可避免。同時,神經網絡希望模型對沒有包含在訓練數據里的未觀測數據也可以進行正確的識別。因此,在搭建復雜有效的網絡模型時,尋找有效抑制過擬合的方法很重要。

本研究受圖像自身特性的啟發,提出了一種融合掩模的預訓練方法。這種方法通過降低圖像背景噪聲的干擾,不僅可以對訓練過程中出現的過擬合現象起到一定程度的抑制作用,而且更有助于提高算法的穩定性和健壯性。圖像掩模處理是將原圖中的每個像素和掩膜中的每個對應像素進行與運算。比如1 &1=1,1 &0=0等。一個3×3的圖像與3×3的掩模進行運算,得到結果圖3。

圖3 圖像的掩模處理過程圖

基于掩模預訓練方法的具體步驟是:首先,對圖像做掩模處理,去掉背景,突出前景的目標物體,如圖4所示;其次,使用掩模后的圖像對網絡進行首次預訓練;最后,使用完整圖像對神經網絡進行第二次預訓練。

圖4 圖像掩模處理后的效果圖

基于掩模預訓練方法中掩模圖像的算法,用偽代碼描述如下:

Begin

原始圖像像素值存于矩陣OG;

二值化掩模矩陣數組MA;

掩模后圖像像素值存于矩陣MG;

for(i=0;i

for(j=0;j

MG[i][j]=OG[i][j]*MA[i][j];

end for

end for

End

3.2 注意機制

比例關注[13]或空間關注[14]只獲取一種類型的關注,就需要通過權重共享或歸范化對網絡結構施加額外的約束。文獻[15,16]研究了混合關注。混合關注在沒有附加約束的情況下,通過改變不同的關注度,可以獲得最佳性能的網絡模型。由于ReLU函數具有單側抑制作用,訓練速度快,也能夠更好地學習數據特征,所以使用了帶有隨機失活和數據增強的ReLU[17]混合關注、通道關注和空間關注三種類型的激活函數。混合關注f1是在沒有施加額外約束的條件下,針對每一個通道和空間位置,使用激活函數ReLU。f1的計算公式如下

(2)

通道關注f2對所有通道內的每個空間位置的像素點執行L2標準化,達到移除空間信息的目的。f2的計算公式如下

(3)

空間關注f3的作用與通道關注f2相反,對每個通道的所有特征圖進行標準化,移除通道信息僅保留空間信息。f3的計算公式如下

(4)

在式(2)-(4)中,i表示所有空間位置,c表示所有通道,meanc和stdc分別表示第c個通道的均值和標準差,xi表示第i個空間位置的特征向量。

4 實驗結果及分析

4.1 實驗參數與圖像庫

實驗使用的是Corel公司所提供的標準圖像素材庫Corel-1000,有10類子集,共包含1000幅圖像。并且,網絡模型中不同卷積層的參數設置如表1所示。

表1 各卷積層中的參數

在本研究中,使用交叉熵誤差函數作為模型的損失函數[18]。同時,要使損失函數最優化,需要用到優化方法,實驗采用Adam優化器[19],其更新步長的步驟可總結如下

1) 計算時刻t的梯度

gt=?θJ(θt-1)

(5)

2) 計算梯度的指數移動平均數:

mt=β1mt-1+(1-β1)gt

(6)

3) 計算梯度平方的指數移動平均數:

(7)

4) 對梯度均值mt進行偏差糾正:

(8)

5) 對梯度方差vt進行偏差糾正:

(9)

6) 更新參數,默認學習率α=0.001:

(10)

其中,ε=10-8,避免除數為0。

4.2 實驗結果

本研究將使用去噪神經網絡提取深度特征作為輸入的去噪卷積神經網絡(Denoising Convolution Neural Network),稱為DCNN;將基于掩模預訓練方法的DCNN (mask-based Denoising Convolution Neural Network),稱為mDCNN。各算法在測試集上的準確率見表2。

表2 CNN、DCNN和mDCNN在測試集上的準確率

從表2可以看出:由于DCNN使用了去噪深度特征作為輸入,所以一定程度上提升了分類準確率。在此基礎上,mDCNN在首次預訓練時,不僅突出了圖像中的目標物體,還降低了背景噪聲的干擾。從而較大程度地提升了分類精度,mDCNN比CNN分類準確率提高了5.81%。這是因為mDCNN網絡模型不僅使用了去噪深度特征,還掩蔽掉了圖像的背景噪聲,抑制了訓練過程中出現的過擬合現象,從而提升了分類準確率。

為了更明顯地展示實驗結果,圖5給出了mDCNN和CNN在測試集上的曲線精度對比圖。從圖5中的曲線精度對比圖可以看到:首先,和CNN相比,mDCNN有效提高了分類精度;其次,由于mDCNN降低了圖像背景噪聲的干擾,使得前景目標物體更加突出,比CNN的收斂速度更快;最后,mDCNN網絡模型具有更加優良的分類穩定性。

圖5 mDCNN和CNN在測試集的曲線精度對比圖

為了驗證三種不同注意類型的激活函數在不同卷積層上的實驗效果,在mDCNN網絡模型的第一個卷積層使用不同注意類型的激活函數,實驗結果如箱線圖6和表3所示。

表3 測試集上注意機制的實驗結果

圖6 三種不同注意機制在測試集上的錯誤率

從表3可以得到,由于通道關注和空間關注僅關注了一種類型的信息,分別去除了空間位置信息和通道信息。所以與混合關注的錯誤率相比,實驗數據不夠理想:空間關注的錯誤率比混合關注的錯誤率提升了7.4個百分點,而通道關注的錯誤率提升了10.3個百分點。當只在mDCNN模型的第一個卷積層進行實驗時,通道關注性能最差,而混合關注同時考慮了空間位置和通道信息,其性能最優。

從圖6的箱線圖中,可以觀察到,混合關注有關錯誤率的相應數值特性,均小于空間關注和通道關注。此外,混合關注的實驗結果比空間關注和通道關注更為緊湊。因此,混合關注不僅有較低的錯誤率,而且性能也相對穩定。相比通道關注,空間關注性能略有提高。

當mDCNN網絡模型的前兩個卷積層均使用三種不同注意機制時,在測試集上得到的實驗結果見表4。可以看出:當前兩層卷積都使用通道關注或空間關注時,與混合關注相比,實驗效果差距明顯增大。相對于表3的實驗性能,表4中的空間關注相比于通道關注,錯誤率上升了2.6個百分點。

表4 三種不同注意機制的實驗結果

5 總結

本研究提出了基于去噪神經網絡的掩模預訓練方法,該方法通過掩模預訓練消除圖像的背景噪聲和深度特征噪聲的干擾,突出圖像的前景目標物體,有效抑制了CNN訓練過程中出現的過擬合現象。同時,使用三種不同注意類型的激活函數,在標準圖像庫Corel-1000上充分進行驗證。實驗結果表明,基于去噪神經網絡的掩模預訓練方法不僅對分類效果有較大程度的提升,而且加速了網絡模型的收斂速度,增強了算法的穩定性。特別地,加入混合注意機制后,實驗效果最優。在未來的研究工作中,嘗試多特征數據融合比如加入主顏色特征,彌補CNN只讀取圖像空間位置信息的不足,使模型性能達到更優。

猜你喜歡
分類特征實驗
記一次有趣的實驗
分類算一算
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
NO與NO2相互轉化實驗的改進
主站蜘蛛池模板: 国产人前露出系列视频| 国产精品极品美女自在线看免费一区二区| 色天天综合| 亚洲国产AV无码综合原创| 四虎AV麻豆| 国内精自视频品线一二区| 五月激激激综合网色播免费| 免费看久久精品99| 亚洲高清资源| 国产极品美女在线| 黄色网在线免费观看| 一级毛片无毒不卡直接观看| 人妻丰满熟妇AV无码区| 日韩精品成人在线| 国产h视频在线观看视频| 在线观看亚洲天堂| 欧美成人综合在线| 中文字幕人成乱码熟女免费| 超碰aⅴ人人做人人爽欧美 | 色综合天天娱乐综合网| 欧美日韩中文字幕在线| 在线免费亚洲无码视频| 一区二区理伦视频| 91精品国产丝袜| 成AV人片一区二区三区久久| 欧美天堂久久| 99re免费视频| 免费国产黄线在线观看| 久久无码av一区二区三区| 亚洲无码91视频| 婷婷亚洲最大| 波多野结衣第一页| 国产91色在线| 久久综合丝袜长腿丝袜| 再看日本中文字幕在线观看| 日韩免费成人| 免费国产无遮挡又黄又爽| 亚洲中文精品久久久久久不卡| 日韩在线影院| 天堂av综合网| 波多野吉衣一区二区三区av| 青青青视频蜜桃一区二区| 午夜日本永久乱码免费播放片| 无遮挡国产高潮视频免费观看| 国产精品视频a| 高清欧美性猛交XXXX黑人猛交| 亚洲国产欧美目韩成人综合| 看国产毛片| 久久综合一个色综合网| 五月天丁香婷婷综合久久| 国产一级精品毛片基地| 三级毛片在线播放| 亚洲精品国产精品乱码不卞| 在线无码私拍| 午夜a级毛片| 精品国产成人三级在线观看| 欧美日韩中文字幕在线| 高潮爽到爆的喷水女主播视频 | 午夜福利免费视频| 2021国产精品自产拍在线| 成人福利在线视频免费观看| 污视频日本| 日本日韩欧美| 亚洲熟妇AV日韩熟妇在线| 91精品国产丝袜| 99久久精品免费看国产免费软件| 欧美在线中文字幕| 精品福利视频网| 99成人在线观看| 久久精品中文字幕免费| 国产精品第页| 亚洲日本中文字幕乱码中文| 88av在线看| 少妇被粗大的猛烈进出免费视频| 黄色福利在线| 亚洲精品片911| 免费国产高清视频| 91在线无码精品秘九色APP| 亚洲精品天堂自在久久77| 久久熟女AV| 国产精品亚洲αv天堂无码| 永久在线精品免费视频观看|