999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合注意力機制的移動端人像分割網絡

2020-06-16 04:00:34姚劍敏林志賢郭太良
液晶與顯示 2020年6期
關鍵詞:特征融合模型

周 鵬, 姚劍敏,2 *, 林志賢, 嚴 群,2, 郭太良

(1. 平板顯示技術國家地方聯合工程實驗室,福州大學 物理與信息工程學院,福建 福州 350108;2. 晉江市博感電子科技有限公司,福建 晉江 362200)

1 引 言

語義分割作為計算機視覺的重要課題之一,從像素級理解圖像,旨在為圖像中的每一個像素點分配一個分類類別,從而獲得逐像素的特征分類圖[1]。現如今,越來越多的應用場景需要精確而高效的語義分割技術,如室內導航、無人駕駛、增強現實等。特別是在手機端相冊的應用中,需要利用語義分割技術完成人像分割,從而滿足人們對于拍攝圖片中人像背景的替換、渲染、虛化等美圖功能。

近些年隨著深度學習算法的蓬勃發展[2-4],大量研究員開始投入精力研究如何將神經網絡應用于語義分割技術中。2012年,Farabet[5]等人利用一種新穎的場景標注方法,首次將卷積神經網絡應用于語義分割算法中。2014 年,Long[6]等人提出了FCN(Fully Convolutional Networks),利用卷積層代替全連接層的方式實現了端到端的圖像分割。2017年,Chen[7]等人提出了DeepLabV3模型,使用空洞卷積(Atrous convolution)來擴展感受野,該方式可以獲取更多的空間上下文信息,有效提升了分割精度。2017年, Zhao[8]等人提出PSPNet (Pyramid Scene Parsing Network),在FCN基礎上,提出在空間維度上建立空間金字塔模塊,該方式精細化了物體的邊緣,可以更好地分割物體。2017年,Lin[9]等人提出RefineNet(Multi-path refinement net-works),設計了多路徑提取特征的結構,改善了特征提取效果,語義分割精度提升明顯。

語義分割網絡為了追求精度,需要占據龐大的計算資源。移動端有限的硬件條件,始終阻礙著語義分割技術在移動端的部署。2018年,Sandler等人提出的MobileNetV2[10]為解決這一難題帶來了可能。大量研究員通過將語義分割網絡的主干部分替換為MobileNetV2的方式,成功地將網絡在移動端部署,但也因此帶來了分割精度差、分割邊界模糊等問題。

FCN[6]、SegNet[11](A deep convolutional encoder-decoder architecture)和UNet[12]作為最早將編碼器-解碼器結構應用于語義分割領域的神經網絡,證明了該結構可以有效地捕獲特征細節,獲得具有豐富上下文信息的特征地圖。2018年,Zhang[13]等人提出通道注意力模型,將常用于語音識別中的注意力機制應用到語義分割領域中,證明該方式可以利用豐富的上下文信息,有效地探索特征地圖通道之間的關系,恢復分割物體的邊界。

本文受此啟發,將注意力機制融入到編碼器-解碼器結構中,有效地解決了移動端人像分割網絡分割效果差的問題。為了解決引入注意力模型帶來的額外計算量問題,對注意力模型進行了輕量化處理。最后為了降低訓練難度,加速網絡收斂,在訓練階段,將原有的損失函數改為Multi-Loss(多損失函數),有效提升了分割精度。實驗證明本文提出的網絡結構在速度和精度上達到了有效平衡,可以部署到移動端使用。

2 模型設計

2.1 優化注意力模塊

NLNet[14](Non-local neural networks)是目前常見的注意力模型之一,由全局上下文特征模塊、特征信息轉換模塊、特征融合模塊3個模塊組成。通過全局上下文特征模塊來獲得融合了上下文信息的特征地圖,利用特征信息轉換模塊對融合了上下文信息的特征地圖進行通道校驗,最后由特征融合模塊將融合了上下文信息的特征地圖整合到原特征地圖中。本文在NLNet的基礎上對模塊結構進行了優化,在可接受的精度損失范圍內,有效提升了模快的運行速度。模型結構對比圖如圖1所示。

圖1 NLNet與優化模型結構對比Fig.1 Structural comparison of NLNet and optimized model

圖中H、W、C分別為輸入圖像的高、寬、通道數目;WV1、WV2、WV3為尺寸為1的深度可分離卷積;WV、WK、Wq、WZ為尺寸為1的普通卷積核。

2.1.1 優化全局上下文特征模塊

在全局上下文特征模塊中,NLNet將輸入特征地圖A分別經過兩個1×1卷積核進行特征聚合,然后利用Embedded Gaussian(嵌入式高斯)對任意兩個通道之間的成對關系進行建模,獲得注意力地圖X,見公式(1)。然后將特征地圖A經過一個卷積核WV進行特征聚合,隨后與注意力地圖X相乘獲得融合豐富上下文信息的特征地圖。但是對通道之間的成對關系建模前,對特征地圖A進行特征聚合會破壞特征通道之間隱含的相互關系,同時會引入多余的計算量。設輸入特征地圖A的通道為1 024,則兩個1×1卷積核的參數達1 024×1×1×1 024×2(輸入通道×卷積核尺寸×輸出通道×2)之多。為此,本文將兩個1×1的卷積核舍棄,直接對特征地圖A進行Gaussian(高斯)計算得到注意力矩陣Y,見公式(2)。該方式保留了通道之間隱含的相互關系,同時有效降低了計算量。另外,將NLNet中對特征地圖進行特征聚合的普通卷積WV換為深度可分離卷積[15]WV1,該卷積核將普通的卷積操作分解為depthwise(深度卷積)和pointwise(點卷積)兩個過程,可將計算量降為原有計算量的1/Cout+1/(KW+KH)。(Cout為輸出的通道數目,KW、KH為卷積核的寬和高),推演過程見公式(3)。

(1)

(2)

C表示輸入特征地圖的通道數目。i是特征圖中第i個通道的索引,j為所有通道中的一個索引枚舉。Xij和Yij分別是注意力地圖X和Y中的權值系數,表示特征地圖中第i個通道對第j個通道的重要性。

(3)

其中:depthwise為深度卷積的計算量,pointwise為點卷積的計算量,conv為普通卷積核的計算量。Cin和Cout為輸入輸出的通道數,W和H為輸入圖像的寬和高,KW、KH為卷積核的寬和高。

2.1.2 優化特征信息轉換模塊

NLNet采用一個1×1的卷積核作為特征信息轉換模塊來校準通道之間的依賴關系,幫助網絡理解語義信息,但該方式引入了過多的計算量。設輸入特征地圖的通道為C,則1×1卷積核的參數達C×1×1×C(輸入通道×卷積核尺寸×輸出通道)之多。為了適應移動端的硬件環境,本文將單一卷積核替換成兩個深度可分離卷積,通過對特征地圖的通道進行先壓縮再擴張的方式來降低計算量。第一個深度可分離卷積的輸入通道為C,輸出通道為C/8(其中8為壓縮系數),對特征圖進行通道壓縮。第二個深度可分離卷積的輸入通道為C/8,輸出通道為C,對特征圖進行通道擴張。該方式將參數數量由C×C降低為2×C×(C/8),有效地將計算量降低為原計算量的1/4。

最后將特征信息轉換模塊得到的特征地圖輸出給特征融合模塊。本文沿用了NLNet中的融合方式,對具有豐富上下文信息的特征地圖與原始特征地圖進行像素級求和得到結果特征地圖。

2.2 注意力機制融入到解碼網絡

常見的編碼器-解碼器結構由編碼網絡和解碼網絡兩部分組成。利用堆疊的卷積和池化層作為編碼網絡來提取圖像的特征信息,然后將編碼器中包含低等級特征信息的特征地圖跳躍連接到解碼網絡中。解碼網絡由多個子模塊組成,每個子模塊由連續的一兩個卷積核堆疊而成,負責對上一層子模塊輸出的特征地圖與編碼網絡跳躍連接而來的特征地圖進行特征聚合,以此獲得具有高、低等級特征信息的特征地圖。

圖2 模型網絡結構示意圖Fig.2 Schematic diagram of model network structure

本文模型利用MobileNetV2作為編碼網絡。解碼網絡堆疊了4層解碼子模塊(Decoder),每個解碼子模塊嵌入了一個優化過的注意力模塊和一個用來壓縮特征地圖通道數目、尺寸為1的深度可分離卷積。為了獲得豐富的上下文信息,選取編碼網絡中的第2、4、7、14層(尺寸分別為原始特征地圖的1/2,1/4,1/8,1/16)的輸出特征地圖跳躍連接到解碼網絡中,與解碼子模塊輸出的特征地圖在通道維度上進行堆疊,再輸出給下一層解碼子模塊。為了堆疊時特征地圖尺寸的一致性,在堆疊前對解碼子模塊輸出的特征地圖進行了上采樣操作。重復上述操作,最終將特征地圖經過一個1×1的卷積核和SoftMax層得到分割結果圖,尺寸為輸入圖像的一半。模型具體結構見圖2。其中,①:編碼網絡的輸出特征地圖。②~⑤:編碼網絡第14、7、4、2層的輸出特征地圖。⑥~⑨:經過解碼子模塊并上采樣后的特征地圖。⑩:輸出特征地圖。decoder-i(i=1,2,3,4)為解碼子模塊,包含一個深度可分離卷積和一個輕量化注意力模塊。表1給出了各特征地圖的尺寸和通道數目。

表1 模型各層輸出特征地圖尺寸

Tab.1 Size of the output feature map of each layer of the model

特征地圖 尺寸(高×寬)通道數目①14×14320②14×1496③28×2832④56×5624⑤112×11216⑥28×28192⑦56×5664⑧112×11248⑨112×1128⑩112×1122

2.3 Multi-Loss

語義分割網絡因為網絡過深,存在訓練難度大、分割精度難以提升等問題。為此,本文在損失函數上做了一些修改,采用Multi-Loss對各層輸出結果進行監督。將標簽尺寸大小改變為原圖的1/16、1/8、1/4、1/2,然后分別與解碼網絡中的decoder-1,decoder-2,decoder-3,decoder-4生成的特征地圖做交叉熵操作得到各層的損失值Loss1,Loss2,Loss3,Loss4,最終的損失函數為各層交叉熵的系數和。

(4)

其中β為損失權值系數。隨著網絡的進行,損失逐漸降低,為了權衡各層損失對整體損失的影響,將β1、β2與β3、β4的比值設為1∶2。圖3展示了整體損失與各層的損失的收斂情況。

圖3 總損失與編碼層各層損失收斂圖Fig.3 Convergence graph of total loss and loss of each layer of the decoder layer

3 實驗及結果分析

實驗環境:實驗采用開源的深度學習框架TensorFlow,并利用該框架下的TensorBoard對精度和損失的收斂情況進行觀察。計算機配置為Window10操作系統,8 G內存,處理器為Inter(R)Core i5。為了更好地匹配移動端條件,整個實驗在CPU環境中進行測試。

數據集處理:實驗在PASCAL、COCO等4個公開數據集中挑選了38 470張與人像有關的圖片作為預訓練樣本對模型進行預訓練。然后利用自采集的6 166張人像圖片作為數據集對模型進行微調(Finetune)。驗證集為自采集的人像圖片550張。利用左右翻轉和隨機裁取操作進行數據增強。所有圖片的標注均采用語義分割標注工具Labelme。

訓練策略:實驗采用的梯度優化器為Adam算法。學習率采用多項式學習率迭代策略,初始學習率為0.1,每2萬步衰減到原學習率的1/10,訓練總步長為90萬步。輸入圖像尺寸為224×224。

評價指標:圖片單張分割時間(s)、平均像素精度MPA與交并比MIOU。見公式(5)、(6)。

(5)

(6)

其中:k為分類的類別,Pii為真正的數量;Pij為假正的數量;Pji為假負的數量。

3.1 注意力模塊的優化效果

為了驗證輕量化注意力模塊的效果,實驗分別將優化了全局上下文特征模塊的注意力模型、優化了特征信息轉換模塊的注意力模型、兩者同時優化后的注意力模型與原模型NLNet分別嵌入到解碼網絡中,對模型的分割情況進行測試,結果見表2。

表2 注意力模塊優化效果對比

Tab.2 Comparison of the optimization effect of the attention module

嵌入模塊 MIOU/% 分割時間/s NLNet92.541.05優化全局上下文特征模塊92.290.90優化特征信息轉換模塊92.320.87兩者同時優化92.110.74

觀察可知,與嵌入原模塊NLNet相比,優化全局上下文特征模塊后,MIOU損失了0.25%,速度提升了0.15 s。優化特征信息轉換模塊后,MIOU損失了0.22%,速度提升了0.18 s。兩者同時優化后,MIOU僅僅損失了0.43%,速度提升了0.31 s。在可接受的精度損失范圍內,速度提升明顯。證明了文章中提出的注意力模塊優化方案具有可行性。

3.2 解碼網絡層數的設計

解碼網絡可以有效地捕捉上下文信息,配合注意力模塊可以提升分割精度,但解碼網絡的層數對網絡運行速度有一定影響。實驗就融合注意力機制的解碼網絡層數進行實驗,實驗結果見表3。

表3 加入不同層數解碼網絡的分割指標

Tab.3 Segmentation indicator of decoding network with different layers

添加層數 MIOU/% 單張圖片分割時間/s 未添加88.260.61一層90.230.66兩層91.070.70三層91.720.72四層92.290.74

分析表3可知,隨著解碼網絡層數的增加,MIOU得到提升,但單張圖片分割消耗的時間相應增加。未添加解碼網絡時MIOU為88.26%,時間為0.61 s。添加1層、2層、3層、4層后MIOU分別提升了1.97%和2.81%,3.46%和4.03%。但時間相應增加了0.05,0.09,0.11,0.13 s。相對于精度的提升,帶來的速度影響在可接受范圍內,因此網絡設計最終選擇了4層解碼網絡。

3.3 解碼網絡中融合注意力機制對分割效果的影響

解碼網絡中融合注意力機制可以有效地恢復物體的分割邊界,提升分割細節。實驗將解碼網絡中融合注意力模塊和未融合注意力模塊產生的分割圖片做對比實驗。部分對比數據見圖4。

圖4 解碼網絡中融合注意力模塊對分割效果的影響。(a)原圖;(b)標簽;(c)未融合;(d)融合后。Fig.4 Effect of the fusion attention module in the decoding network on segmentation. (a) Orrginal; (b) Label; (c) Unfused; (d) Fased.

觀察圖4可知,解碼網絡未融合注意力模塊時,對于人體的邊緣和細節部分分割效果較差,多分割漏分割情況嚴重。如例1中不能分割出人的耳朵。例2中只能大致分割出人體的輪廓,對于胳膊、小臂等部位存在漏分割情況。例3中無法正確分割出人的手指。在解碼網絡中融合注意力模塊后,對于細節的分割效果明顯提升。恢復了未添加注意力模塊時漏分割的耳朵、手指部分,對于人體的輪廓邊緣分割較為清晰。證明了解碼網絡融合注意力模塊可以有效地修復分割邊界,提升分割的效果。

3.4 Multi-Loss對分割精度的影響

Muli-Loss可以減小訓練的難度,提升分割像素精度。實驗對比了引入Multi-Loss前后的平均像素精度MPA的收斂情況,實驗結果見圖5。

觀察精度收斂情況可知,引入Multi-Loss訓練策略后,收斂精度一直優于未引入Multi-Loss訓練策略,精度最終收斂到98%左右。相較于未引入Multi-Loss的最終精度96%,精度提升了2%左右,證明了Multi-Loss訓練策略能夠有效提升分割精度,減小網絡訓練難度。

3.4 與其他分割方法對比

為了驗證本文研究模型的分割性能,挑選了FCN、PSPNet、SegNet和Unet共4種前沿的語義分割網絡作對比,它們的主干網絡均為MobileNet-V2。統計了各模型單張圖片分割時間與MIOU指標,結果如表4所示。

由表4可知,本文研究模型達到了較為可觀的速度與精度。與分割效果較差的FCN相比,MIOU超出了6.03%,與SegNet和Unet相比,MIOU也有著2.61%和2.23%的優勢。PSPNet與本模型分割精度相當,但分割單張圖片,PSPNet需要1.14 s,本文研究模型僅需要0.74 s,快了0.4 s左右。與其他模型相比,本文研究模型在分割單張圖片的時間上也都快了0.5 s左右,速度優勢明顯。

表4 不同分割模型的分割指標

Tab.4 Segmentation indicator of different segmentation models

模型 MIOU/%單張圖片分割時間/sFCN86.261.29PSPNet91.991.14SegNet89.681.17Unet90.061.23本研究模型92.290.74

為了更直觀對本文研究網絡的分割性能進行評估,對各方法的分割結果圖進行了可視化。部分數據結果如圖6所示。觀察可知:本研究模型可以清晰地分割出鼻子、耳朵的輪廓邊界。分割邊界幾乎沒有鋸齒狀。對于手指、胳膊等難分割部位分割表現良好,幾乎沒有漏分割、多分割現象。相較之下FCN分割效果較差,分割邊界較模糊。SegNet分割鋸齒狀嚴重。Unet與PSPNet存在對于胳膊、手指的多分割、漏分割現象。對比之下證實了本文模型分割性能的優越性。

圖6 不同分割方法對比圖Fig.6 Comparison of different segmentation methods

4 結 論

提出了一種輕量化人像分割網絡,通過在解碼網絡中融合注意力機制,有效恢復了物體的分割邊界,提升了分割精度。為了進一步輕量化網絡,提升分割速度,對注意力模塊進行了輕量化處理。同時將損失函數改為Multi-Loss,加速網絡收斂。實驗證明,本研究網絡模型達到了92.29%的MeanIOU,單張圖片分割時間為0.74 s。相較其他分割網絡,速度精度優勢明顯,適合在移動端應用。

猜你喜歡
特征融合模型
一半模型
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
重要模型『一線三等角』
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 亚洲 日韩 激情 无码 中出| 国产手机在线观看| 无码人中文字幕| 欧美激情一区二区三区成人| 国产美女叼嘿视频免费看| 欧洲免费精品视频在线| 色综合网址| 性做久久久久久久免费看| 国产精品妖精视频| 77777亚洲午夜久久多人| 国产精品欧美亚洲韩国日本不卡| 毛片免费网址| 91av成人日本不卡三区| 四虎国产成人免费观看| 青草国产在线视频| 麻豆精品视频在线原创| 无码视频国产精品一区二区| 无码av免费不卡在线观看| 伊人成人在线| 亚洲熟女中文字幕男人总站| 亚洲大尺度在线| 国内黄色精品| 免费看久久精品99| 亚洲天堂在线免费| 国产久操视频| 免费无码一区二区| 亚洲视频无码| 亚洲大学生视频在线播放| 91美女在线| 九色91在线视频| 天天视频在线91频| 成年人国产视频| 国产免费羞羞视频| 久久精品国产精品一区二区| 国产精品片在线观看手机版| 国产成人精品高清不卡在线 | 波多野结衣无码视频在线观看| 狠狠色香婷婷久久亚洲精品| 久久精品亚洲专区| 97人妻精品专区久久久久| 久爱午夜精品免费视频| 亚洲三级电影在线播放| 亚洲综合久久成人AV| 午夜成人在线视频| 无码日韩人妻精品久久蜜桃| 久久精品丝袜| 热久久这里是精品6免费观看| 日本一区二区不卡视频| 国产亚洲欧美日本一二三本道| 國產尤物AV尤物在線觀看| 亚洲第一页在线观看| P尤物久久99国产综合精品| 国产精品xxx| 欧美精品成人| 2020亚洲精品无码| 青青国产成人免费精品视频| 国产美女视频黄a视频全免费网站| 99精品影院| 1级黄色毛片| 国产精品亚洲αv天堂无码| 奇米影视狠狠精品7777| 国产对白刺激真实精品91| 久久女人网| 国产在线日本| 亚洲成人黄色在线观看| 国产18在线播放| 熟女成人国产精品视频| 亚洲精品波多野结衣| 久久国产免费观看| 久久青草视频| 久久精品这里只有国产中文精品 | 日韩在线欧美在线| 精品国产免费观看一区| 永久免费精品视频| 久久这里只精品热免费99| 亚洲国产精品无码久久一线| 成人午夜久久| 欧美视频免费一区二区三区| 一区二区三区四区在线| 成人永久免费A∨一级在线播放| 亚洲精品天堂自在久久77| 亚洲无码91视频|