999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于雙注意力機制圖像分割模型的研究

2021-04-20 06:34:10李紅
電子技術與軟件工程 2021年3期
關鍵詞:語義特征模型

李紅

(東北大學理學院 遼寧省沈陽市 110819)

1 引言

圖像語義分割是AI 領域中一個重要的分支[1],是機器視覺技術中關于圖像理解的重要一環。語義分割是根據一些特征把圖像劃分成若干個互不相交的區域,使得這些特征在同一區域內表現出明顯不同。由于深度卷積神經網絡(DCNN)[2]的迅速發展,基于深度卷積網絡的圖像語義分割技術因其不僅可以實現端對端的訓練,而且能獲得更準確的結果的優點,引起了各界學者們的廣泛關注。

從全卷積神經網絡(FCN,Fully Convolutional Networks)的出現開始,圖像語義分割任務的主要方法也逐漸變成了卷積神經網絡。PSPNet 通過聚合多種尺度特征從而獲取更多感受視野信息,并在網絡中添加了附加損失,提升了算法對場景解析和語義分割的能力。Deeplab v2 算法則是使用空洞金字塔池化網絡結構避免下采樣并且取得多感受視野信息。SegNet 模型則是使用最大池化定位從而快速并準確的位置信息。而Dilated -Convolutions 可以不通過池化層也能達到增大感受野的效果。RefineNet 則改進編碼解碼結構,通過上采樣方式融合底層和高層語義特征。殘差注意力網絡(ResNet)通過堆疊殘差注意力模塊來使網絡能夠更深,其通過修飾特征圖可以更好地優化和學習,不僅對噪音具有很高的魯棒性,而且具有很高的準確率。

雙重注意力機制(DualAttention)對ResNet 進行了改進,將最后的下采樣取消,采用空洞卷積來達到即擴大感受野又保持較高空間分辨率的目的,然后進行兩個并行的位置注意力機制和通道注意力機制操作,最終將兩個模塊的結果進行element-wise 操作。為了解決緣分割不均勻遠距離像素類別之間的關系不能得到充分利用的問題,本文在原有的雙注意力機制模型中引入了邊緣增強模塊,解決網絡在相近的類別分割不準確和邊緣區域無法提取弱特征的問題。在原有的損失函數上進行改進,采用了一個新的損失函數,能很好的調節類別不平衡問題,對于相近的類別和小的物體有更好的區分度,提高訓練的準確度。

2 改進工作

首先將圖像輸入到改進的ResNet 中,生成的特征映射的大小為原圖的1/8,然后將結果分別輸入到兩個注意力模塊中去,然后將兩個模塊的處理結果進行整合。該模型較之前提出的一些機制相比提升效果比較明顯,但是仍存在以下兩點局限:一是邊緣特征處理的比較粗糙;二是采用了簡單的損失函數,忽略了小物體對整體分割的影響。

表1:不同模型在Cityscapes 上的分割效果

2.1 邊緣模塊

圖像邊緣特征是圖像最基本的特征之一,往往攜帶著一幅圖像的大部分信息,一幅圖像的邊緣結構與特點往往是決定圖像特質的重要部分。由此我們引進了一個包含3 個卷積層的邊緣增強模塊,它由16→32→2 通道和ReLU 激活組成(除了最后一層,它有SoftMax 激活)。增加模塊之后的整體框架如圖1 所示,該模塊可以加強邊緣特征的提取,更有利于接下來的分割工作。

圖1:改進后的整體框架

2.2 損失函數

交叉熵損失函數逐像素對比了模型預測向量與one-hot 編碼后的groundtruth,多分類分割的交叉熵損失函數公式如下:

由此可以出來,預測分布越接近真實分布,反之亦然。交叉熵損失函數易于理解,但忽略了同類樣本(像素)在樣本空間的數量比例。隨著樣本數量的增加,新數據點的帶來的好處會減少。新添加的樣本極有可能是現有樣本的近似副本,所以我們對交叉熵損失函數Lce乘以一個樣本系數來調節。

其中ny表示在真實類y 中的樣本數量。另外,從數學形態學[2]操作得到啟發,為了解決邊緣粗糙的問題,我們試著在公式(2)中增加距離加權項,即在邊緣不同的像素點在損失函數中獲得很大的權重,即得到如下公式:

本文中ω0=10,σ=5,β 是超參數,n 為有效樣本數量,d1表示某個像素點到最近區域邊界的距離,d2表示某個像素點到第二近的區域邊界的距離。

3 實驗

3.1 實驗方法

本文的編程語言采用Python 3.6,PyTorch 作為深度學習框架。操作系統為Ubuntu16.2,cuda 版本是10.2,采用了poly 學習率策略,Cityscapes 數據集的基本學習率設置為0.01,動量和重量衰減系數分別為0.9 和0.0001。我們用同步BN 來訓練我們的模型。使用隨機梯度下降法SGD[3]優化損失函數。訓練中,每次輸模型的batch size 設置為16,epoch 設置為240。

3.2 數據集

cityscapes 數據集擁有從50 個不同城市捕獲的5000 幅圖像。每幅圖像像素為2048×1024,具有19 個語義類的高質量像素級標簽。訓練集中有2975 幅圖像,驗證集中有500 幅圖像,測試集中有1525 幅圖像,是圖像語義分割任務中的重要數據庫,我們在實驗中不使用粗糙的數據。

3.3 衡量標準

衡量算法優劣的指標并不唯一,本文僅采用平均交并比(MIoU)作為算法性能的指標。平均交并比(MIoU)就是真實值和預測值的交集與并集的比值在每個類上求平均值。

3.4 結果分析

β 的選取:上式中β 為一超參數,選取適合的β 值可以重新加權之間的類平衡項。本文驗證集為500 張圖片,而N 代表有效樣本數量,即N=500,根據可得β=0.998,而損失函數(3)中是由兩項組成的。為了消除BaseNet 對網絡的影響,如表1,本文選取的同BaseNet-Resnet101[4]在同一cityscapes 數據集上進行訓練。

全局卷積濾波器進行上下文信息聚合,簡寫為“+GCN”;金字塔池化法(Pyramid pooling)是捕獲全局上下文信息的簡單而有效的方法,簡寫“+PSP”;使用不同的擴張卷積[5]來獲取不同范圍的像素上下文信息,為“+ASPP”;對于本文改進后的模型訓練的MIoU 比原來分別提高了約2.96%。這代表了改進后的損失函數與邊緣模塊的有效性。

如表1 所示,本模型由于考慮了分割圖像中的類別之間的不平衡關系,添加了邊緣增強模塊這一部分,引進損失函數距離調節項,對于邊緣和小物體的分割,取得的效果比較好。改進后的雙重注意力分的圖像語義分割模型頗為有效,這是由邊緣特征和相似類間距離這兩個因素對于圖像分割的重要決定的,因此能夠更好地理解圖像中的內容。

4 結語

本文算法在雙注意力機制模型的基礎上充分利用了邊緣細節特征加強和調節類間類內距離,對原DANet 模型進行了改進,并在公開場景數據集cityscapes 上進行了實驗。實驗結果表明,和之前未改進的模型相比,改進后的模型分割精度提高,因此可以廣泛用于自動駕駛、場景分析、醫療影像、圖像搜索等領域。

猜你喜歡
語義特征模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
語言與語義
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
認知范疇模糊與語義模糊
主站蜘蛛池模板: 99精品热视频这里只有精品7| 国产精品原创不卡在线| 色综合天天操| 性欧美久久| 婷婷综合色| 玖玖精品在线| 免费无码网站| 国产在线八区| 午夜小视频在线| 亚洲黄色激情网站| 国产91精品久久| 成人综合在线观看| 91小视频在线观看| 日本妇乱子伦视频| 99在线观看免费视频| 色AV色 综合网站| 九色91在线视频| 青青操国产| 久久成人国产精品免费软件| 国产AV无码专区亚洲精品网站| 免费在线播放毛片| 在线免费a视频| 亚洲成人精品| 爱爱影院18禁免费| 欧美日韩久久综合| 国产麻豆精品在线观看| 欧美在线国产| 成人在线欧美| 国产精品男人的天堂| 欧美日韩亚洲综合在线观看| 国产成人一区二区| 99视频只有精品| 99伊人精品| 国产91视频免费| 国产精品hd在线播放| 国产精品va| 亚洲人妖在线| 亚洲欧美成人综合| 99ri精品视频在线观看播放| 91在线播放国产| 波多野结衣在线一区二区| 日韩精品亚洲人旧成在线| 国产精品主播| 一级高清毛片免费a级高清毛片| a级毛片网| 成人91在线| 青青草一区二区免费精品| 亚洲欧美自拍视频| 波多野结衣视频网站| 九色免费视频| 国产美女无遮挡免费视频| 亚洲高清中文字幕在线看不卡| 激情六月丁香婷婷| 国产白丝av| 色综合久久无码网| 日本免费a视频| 黄色免费在线网址| 国产精品欧美亚洲韩国日本不卡| 精品无码一区二区在线观看| 中文字幕 欧美日韩| 特黄日韩免费一区二区三区| 小说区 亚洲 自拍 另类| 永久成人无码激情视频免费| 久久五月视频| 国产精品久久久久鬼色| 国产成人AV男人的天堂| 日本久久久久久免费网络| 国产美女精品在线| 99re经典视频在线| 免费在线a视频| 99视频全部免费| 99视频在线免费看| 欧美亚洲第一页| 少妇人妻无码首页| 波多野结衣二区| 毛片久久久| 精品久久人人爽人人玩人人妻| 国产大片黄在线观看| 国产精品亚欧美一区二区| 天天操天天噜| 久久免费看片| 天天躁日日躁狠狠躁中文字幕|