999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向水下場景的輕量級圖像語義分割網(wǎng)絡(luò)

2023-08-25 08:05:16郭浩然郭繼昌汪昱東
浙江大學學報(工學版) 2023年7期
關(guān)鍵詞:語義特征實驗

郭浩然,郭繼昌,汪昱東

(天津大學 電氣自動化與信息工程學院,天津 300072)

語義分割是當今計算機視覺領(lǐng)域的核心問題之一,在自動駕駛、醫(yī)學影像分析、地理信息系統(tǒng)等領(lǐng)域有著廣泛的應(yīng)用.在過去幾年里,基于深度學習的卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展使得陸地場景下的語義分割方法進步顯著.Long等[1]提出全卷積網(wǎng)絡(luò)(FCN),開啟了卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用在語義分割領(lǐng)域的先河.基于FCN,SegNet[2]在降低計算成本的同時,得到了略好于FCN的分割精度.U-Net[3]通過跨連接將各個層次的信息保留,取得了很好的分割效果.Deeplab[4-6]系列網(wǎng)絡(luò)使用的空洞卷積層和PSPNet[7]提出的金字塔池化模塊可以有效地提升網(wǎng)絡(luò)的性能.周登文等[8]提出基于多級特征并聯(lián)網(wǎng)絡(luò)的語義分割網(wǎng)絡(luò),能夠較好地平衡網(wǎng)絡(luò)的準確度與速度.

近年來,隨著水下機器視覺任務(wù)需求的增加,水下圖像語義分割成為值得研究的問題.Liu等[9]提出水下圖像語義分割網(wǎng)絡(luò),設(shè)計無監(jiān)督色彩校正模塊,以提高輸入圖像的質(zhì)量.Zhou等[10-12]提出多種水下圖像增強的方法,全面解決了各種退化問題.

Islam等[13]提出首個用于水下圖像語義分割的大規(guī)模數(shù)據(jù)集SUIM.筆者將FCN、SegNet、UNet等經(jīng)典分割網(wǎng)絡(luò)應(yīng)用在SUIM數(shù)據(jù)集上,取得了不錯的分割結(jié)果.這些語義分割模型都很少考慮分割速度和計算成本,因此實時語義分割算法越來越受到關(guān)注.ENet[14]降低了模型的復(fù)雜度,但導致感受野不足.Ocnet[15]結(jié)合交叉稀疏自注意力方法與空洞金字塔池化方法,提高了網(wǎng)絡(luò)的精度.ERFNet[16]提出基于殘差連接和深度可分離卷積的語義分割網(wǎng)絡(luò),減少了模型的運算量.CGNet[17]設(shè)計模塊同時學習局部特征和全局特征,模型參數(shù)量小于0.5M,但精度較差.DFANet[18]提出的深度特征聚合網(wǎng)絡(luò)旨在利用網(wǎng)絡(luò)級和階段級相結(jié)合的特征.LEDNet[19]設(shè)計輕量級的上采樣模塊APN,顯著加快了處理速度.Bisenet[20]和Bise-Netv2[21]采用2個分支,語義分支得到的深層信息對空間分支得到的淺層信息進行指導,提升了網(wǎng)絡(luò)的性能.盡管這些語義分割模型在陸地場景都取得了不錯的分割效果,但在水下場景的表現(xiàn)較差[14,16-17,19,21].由于水下圖像存在對比度較低、噪聲較大的問題,大部分水下圖像都存在不同程度的模糊,使得這些語義分割模型得到的分割結(jié)果邊緣粗糙,語義邊界不明顯.

為了解決上述問題,本文提出面向水下場景的輕量級語義分割網(wǎng)絡(luò).在水下語義分割數(shù)據(jù)集SUIM和Reus等[22]提出的海草數(shù)據(jù)集上訓練并評估提出的網(wǎng)絡(luò).這2個數(shù)據(jù)集的測試結(jié)果表明,該網(wǎng)絡(luò)能夠在保持高準確度的同時,達到實時的處理速度.

1 網(wǎng)絡(luò)結(jié)構(gòu)

圖1中,編碼器(Encoder)首先對輸入圖像進行快速下采樣,生成不同分辨率的特征圖.解碼器(Decoder)由2個特征融合模塊組成,在聯(lián)合高低級特征的同時可以進行快速上采樣,最后進行8倍上采樣,得到最終的分割圖.損失函數(shù)部分使用分割損失和邊緣損失,通過預(yù)先提取的語義邊界監(jiān)督網(wǎng)絡(luò)的邊緣特征,細化了分割的邊緣.

1.1 編碼器

網(wǎng)絡(luò)的編碼器部分由模塊1~模塊5這5個模塊組成,其中模塊1采用2個步長為2的3×3卷積,快速將輸入圖像下采樣到1/4.模塊2~模塊4由倒置瓶頸層構(gòu)成,在獲取特征信息的同時將圖像下采樣到1/32,得到具有豐富上下文信息的高級特征.模塊5是池化金字塔模塊,用于細化特征圖并嵌入全局池化信息.各模塊的參數(shù)如表1所示.表中,s為步長,r為空洞率,W、H、C分別為輸出的寬度、高度和通道數(shù).

表1 所提網(wǎng)絡(luò)的編碼器組成Tab.1 Encoder composition of proposed network

編碼器中的倒置瓶頸層和金字塔池化模塊是進行輕量化設(shè)計需要重點考慮的模塊.MobileN-etv2[23]利用升降維操作和深度可分離卷積,有效減少了模型的參數(shù)量.借鑒MobileNetv2倒置殘差的思想,設(shè)計倒置瓶頸層,將空洞卷積添加到Mobilenetv2的倒置殘差模塊(inverted residual block)中.在PSPNet的金字塔池化模塊的基礎(chǔ)上改進了升降維操作的位置,減小了參數(shù)量.設(shè)計的倒置瓶頸層和金字塔池化模塊如圖2所示.

圖2 倒置瓶頸層與池化金字塔的結(jié)構(gòu)示意圖Fig.2 Architectures of inverted bottleneck layer and pyramid pooling module

1.1.1 倒置瓶頸層 設(shè)計輕量化模塊倒置瓶頸層來提取特征,如圖2(a)所示.圖2(a)中,input為輸入特征圖,主路徑用3×3卷積有效地對特征進行聚合并拓展到高維空間.為了控制計算成本,膨脹比率選擇了3.第2個卷積層中使用深度可分離卷積和空洞卷積,減少了計算量,增大了模型感受野的分辨率,在編碼器不同的模塊中采用不同的空洞率.在快捷路徑上,添加3×3卷積來細化特征圖,但沒有增加太多的計算成本,因為3×3卷積是在CUDNN庫中特別優(yōu)化的,此外使用LeakyReLU替代ReLU作為激活函數(shù).

1.1.2 池化金字塔 PSPNet提出的金字塔池化模塊可以有效提升網(wǎng)絡(luò)的性能,本文改進后的金字塔池化模塊結(jié)構(gòu)如圖2(b)所示.相較于PSPNet的池化金字塔,該模塊用加和操作替代了通道連接,減少了參數(shù)量,選擇了較大的池化核.此處選擇3×3、7×7、13×13和H×W,經(jīng)過池化層后再上采樣到之前的尺寸,通過將不同深度的信息與不同大小的池化核相結(jié)合,形成多尺度特征提取.該模塊融合了4個不同尺度的特征,可以聚合不同尺度的上下文信息,提高獲取全局信息的能力.

1.2 解碼器

所提網(wǎng)絡(luò)采用非對稱的結(jié)構(gòu),解碼器部分只采用2個特征融合模塊,在解碼器的最后部分采取8倍上采樣,得到與原圖分辨率相同的分割結(jié)果.各模塊的參數(shù)如表2所示.表中,N為數(shù)據(jù)集包含的類別數(shù).

利用改進的Jensen尾流模型計算位于下游的風機所捕獲的風速。簡化的尾流效應(yīng)模型如圖1所示。在大多數(shù)研究中,圖1所示的錐形區(qū)域為風通過每個單獨的風機時所形成的尾流效應(yīng)區(qū)域。本文將其簡化為二維模型[14]。

表2 所提網(wǎng)絡(luò)的解碼器組成Tab.2 Decoder composition of proposed network

編碼器第5個模塊得到的特征圖為高級特征,第4個模塊得到的特征為低級特征.高級特征的分辨率更低,具有更豐富的上下文信息;低級特征的分辨率更高,具有更豐富的空間細節(jié)信息.對于高級特征和低級特征來說,簡單的合并方式忽略了這2類信息的多樣性,會導致分割精度下降.

該網(wǎng)絡(luò)利用特征融合模塊,融合編碼器得到的高低級特征,如圖3所示.圖中,input1表示輸入的低級特征,input2表示輸入的高級特征.該模塊將2個輸入分別通過簡單的殘差結(jié)構(gòu)進行細化,利用高級特征的上下文信息來指導低級特征,利用低級特征的空間信息來指導高級特征,將2個路徑的特征圖相加,最后通過3×3卷積層以改變通道數(shù).

圖3 特征融合模塊的結(jié)構(gòu)示意圖Fig.3 Architecture of feature fusion module

1.3 損失函數(shù)

總損失函數(shù)是在線難樣本挖掘交叉熵損失(online hard example mining crossentropy loss, OHEMCELoss)和二元交叉熵損失(binary crossentropy loss, BCELoss)2種損失函數(shù)的線性組合.使用OHEMCELoss作為分割損失函數(shù),如下所示:

式中:ls為分割損失,GT為真實的語義標簽,Seg(X)為得到的分割結(jié)果,OHEMCE為OHEMCELoss的計算過程.使用BCELoss作為語義邊界損失函數(shù),如下所示:

式中:lb為邊緣損失,GTedge為從真實的語義標簽中通過邊緣提取得到的邊緣標簽,Segedge(X)為從分割結(jié)果提取得到的邊緣,BCE為BCELoss的計算過程.使用參數(shù)α來平衡分割損失和邊界損失,如下所示:

式中:L為總損失,α為平衡參數(shù).

對原圖的真實語義標簽及得到的分割結(jié)果圖進行邊緣提取,如圖4所示.明確的語義邊界監(jiān)督使得網(wǎng)絡(luò)獲得更準確的語義邊界,雙邊特征更加明顯.

圖4 真實語義標簽和分割結(jié)果的邊緣特征提取Fig.4 Edge feature extractions of Ground Truth and segmentation results

2 實驗及結(jié)果分析

2.1 數(shù)據(jù)集及實驗參數(shù)設(shè)置

采用Islam等[13]提出的用于水下圖像語義分割的數(shù)據(jù)集SUIM和Reus等[22]提出的海草數(shù)據(jù)集.SUIM包含1 525幅自然水下圖像及其真實語義標簽、110幅圖片的測試集,這些圖像是在海洋探索和人-機器人合作實驗期間收集的.該數(shù)據(jù)集對8個對象類別進行了像素級注釋: 魚類和其他脊椎動物、珊瑚礁和其他無脊椎動物、水生植物/植物群、沉船/廢墟、人類潛水員、機器人和儀器、海底和巖石、水體背景.海草數(shù)據(jù)集包含12 682幅圖片,該數(shù)據(jù)集包含海草和水體背景2個類別.其中6 037幅是人工標注過的,這些圖片采集于0~6 m深的海底,實驗中隨機挑選其中的80%作為訓練集,剩余20%作為測試集.

實驗使用PyTorch1.9在一張NVIDIA GeForce GTX 1080Ti顯卡上進行訓練,使用Adam優(yōu)化器,訓練600代.訓練時批處理個數(shù)設(shè)置為32,初始學習率設(shè)置為0.000 5,權(quán)重衰減為0.000 1,動量設(shè)置為0.9.學習率采用“Poly”策略,隨著迭代次數(shù)的增加,學習率逐漸衰減.

2.2 訓練過程

實驗中預(yù)先將輸入圖片的分辨率統(tǒng)一調(diào)整為320像素×256像素.為了增加網(wǎng)絡(luò)訓練可用的數(shù)據(jù),使用了幾種不同的圖像預(yù)處理方法: 以50%的概率左右翻轉(zhuǎn)圖像;以-20°~20°的隨機角度旋轉(zhuǎn)圖像;使用預(yù)先計算好的數(shù)據(jù)集的均值和方差,對數(shù)據(jù)集的每一個圖片進行歸一化處理.

2.3 實驗結(jié)果

在SUIM和海草數(shù)據(jù)集的測試集上,評估所提網(wǎng)絡(luò)的性能.與訓練時一樣,預(yù)先將圖片的分辨率統(tǒng)一調(diào)整為320像素×256像素,得到的實驗結(jié)果如圖5、6所示.圖中,第1行為輸入的原圖,第2行為真實的語義標簽,第3行為本文所提網(wǎng)絡(luò)得到的實驗結(jié)果.

圖5 所提網(wǎng)絡(luò)與經(jīng)典網(wǎng)絡(luò)的SUIM數(shù)據(jù)集的實驗結(jié)果對比Fig.5 Experimental results on SUIM dataset of proposed network compared with classical network

從圖5可得如下結(jié)論.1)所提網(wǎng)絡(luò)與經(jīng)典的常規(guī)語義分割網(wǎng)絡(luò)U-Net、SegNet、Deeplab、GCN[24]相比,得到的語義分割結(jié)果的視覺效果明顯優(yōu)于這4種網(wǎng)絡(luò).例如第1列,U-Net和SegNet得到的語義分割結(jié)果明顯出現(xiàn)了大面積分類錯誤的情況,所提網(wǎng)絡(luò)可以較準確地進行分類并劃分出準確的語義邊界.2)所提網(wǎng)絡(luò)與優(yōu)秀的輕量級網(wǎng)絡(luò)ENet、ERFNet、LEDNet、BiseNetv2得到的分割結(jié)果在視覺效果上相差不大,在某些情況下的分割準確度更優(yōu).例如第4列,所提網(wǎng)絡(luò)得到的分割結(jié)果圖獲得了最接近真實語義標簽的分割邊界,這是因為所提網(wǎng)絡(luò)使用的輔助邊緣損失函數(shù)可以使網(wǎng)絡(luò)更關(guān)注邊緣,起到細化邊緣的作用.3)與經(jīng)典的常規(guī)語義分割網(wǎng)絡(luò)PSPNet、OCNet相比,所提網(wǎng)絡(luò)的分割效果略差,這是由于PSPNet、OCNet的網(wǎng)絡(luò)層數(shù)和通道數(shù)更多,特征學習能力更強.例如第6列,所提網(wǎng)絡(luò)的部分區(qū)域出現(xiàn)分類錯誤的情況,而PSPNet、OCNet分割結(jié)果更準確.

從圖6可得如下結(jié)論.1)與經(jīng)典的常規(guī)語義分割網(wǎng)絡(luò)U-Net、SegNet相比,所提網(wǎng)絡(luò)得到的語義分割結(jié)果的視覺效果明顯更優(yōu),例如第2、4、5列,U-Net和SegNet出現(xiàn)了部分錯檢和漏檢的區(qū)域,所提網(wǎng)絡(luò)得到的分割結(jié)果更接近GT.2)與經(jīng)典的常規(guī)語義分割網(wǎng)絡(luò)PSPNet、OCNet相比,所提網(wǎng)絡(luò)得到的語義分割結(jié)果的視覺效果略差,例如第2列,PSPNet、OCNet得到的分割結(jié)果與所提網(wǎng)絡(luò)相比,更貼近于GT.3)所提網(wǎng)絡(luò)與優(yōu)秀的輕量級網(wǎng)絡(luò)ENet、ERFNet、LEDNet、BiseNetv2、CGNet得到的分割結(jié)果在視覺效果上相差不大.

圖6 所提網(wǎng)絡(luò)與經(jīng)典網(wǎng)絡(luò)的海草數(shù)據(jù)集實驗結(jié)果對比Fig.6 Experimental results on seagrass dataset of proposed networkcompared with classical network

如圖7所示為所提網(wǎng)絡(luò)的SUIM數(shù)據(jù)集的實驗失敗案例.可知,所提網(wǎng)絡(luò)的分割結(jié)果出現(xiàn)了部分區(qū)域分類錯誤的情況.這可能是由于網(wǎng)絡(luò)主體結(jié)構(gòu)部分為了減少參數(shù)量,采用非對稱的編解碼器結(jié)構(gòu),這種不對稱的結(jié)構(gòu)會導致空間細節(jié)的丟失.盡管所提網(wǎng)絡(luò)使用的特征融合模塊及U型結(jié)構(gòu)在一定程度上彌補了空間信息的損失,但不能徹底解決該問題.此外,所提網(wǎng)絡(luò)使用的通道數(shù)較少,學習特征的能力相對較弱.

圖7 所提網(wǎng)絡(luò)的SUIM數(shù)據(jù)集實驗失敗案例Fig.7 Experimental failure cases on SUIM dataset of proposed network

2.3.1 對比實驗 為了體現(xiàn)所提網(wǎng)絡(luò)的優(yōu)勢,考慮幾種先進的語義分割模型,包括非輕量級模型UNet、SegNet、Deeplab、PSPNet、GCN、OCNet、SUIMNet、輕量級模型ENet、ERFNet、LEDNet、BiseNetv2、CGNet.這些語義分割模型都是在SUIM數(shù)據(jù)集和海草數(shù)據(jù)集上訓練并進行測試.

選擇平均交并比(mean intersection over union,mIoU)和像素準確率(pixel accuracy,PA)作為衡量分割精度的評價指標.像素準確率PA為預(yù)測類別正確的像素數(shù)占總像素數(shù)的比例.mIoU為語義分割的標準度量,是所有類別交集和并集之比的平均值.

在語義分割問題中,這2個集合為真實值和預(yù)測值.平均交并比的計算公式如下:

式中:classes為分割類別的總數(shù)量.

表3給出SUIM數(shù)據(jù)集每一類的交并比(intersection over union,IoU),包括水體背景(background waterbody, BW)、人類潛水員(human divers, HD)、水生植物/植物群(aquatic plants and sea-grass, PF)、沉船/廢墟(wrecks or ruins, WR)、機器人和儀器(robots, RO)、珊瑚礁和其他無脊椎動物(reefs and invertebrates, RI)、魚類和其他脊椎動物(fish and vertebrates, FV)以及海底和巖石(sea-floor and rocks,SR)8個類別.由表3可得如下結(jié)論.1)該網(wǎng)絡(luò)在SUIM測試集上達到53.55%的mIoU指標和85.32%的PA指標,相較于U-Net、SegNet、GCN等經(jīng)典網(wǎng)絡(luò)優(yōu)勢較大,與其他輕量級網(wǎng)絡(luò)相比,所提網(wǎng)絡(luò)的精度最高,mIoU和PA指標遠遠優(yōu)于ENet,略優(yōu)于BiseNetv2,僅次于非輕量級網(wǎng)絡(luò)PSPNet和OCNet.2)該網(wǎng)絡(luò)在BW和SR 2個類別上達到最優(yōu)的分割精度;在HD和RO類別上的分割精度在所有網(wǎng)絡(luò)中排在前3位,十分接近于經(jīng)典語義分割網(wǎng)絡(luò)PSPNet,明顯優(yōu)于LEDNet、BiSeNetv2、ENet等其他輕量級語義分割網(wǎng)絡(luò).在RI和FV 2個類別上,該網(wǎng)絡(luò)的分割精度較BiseN-etv2差,這可能是由于BiseNetv2可以通過空間分支(detail branch)來彌補快速下采樣過程中的信息損失,說明該網(wǎng)絡(luò)在該方面有一定的提升空間.3)該網(wǎng)絡(luò)在PF和WR 2個分類較困難的類別上的分割精度與PSPNet差距較大,這是因為該網(wǎng)絡(luò)為了減少模型參數(shù)量,使用了較少的卷積層和網(wǎng)絡(luò)通道數(shù),相較于基礎(chǔ)網(wǎng)絡(luò)采用了ResNet-101的PSPNet,所提網(wǎng)絡(luò)的特征學習能力較差.

表3 各網(wǎng)絡(luò)在SUIM數(shù)據(jù)集上的精度指標對比結(jié)果Tab.3 Comparison results of accuracy index on SUIM dataset in each network

從表4可知,所提網(wǎng)絡(luò)在海草數(shù)據(jù)集上分別在0~2 m和2~6 m的范圍內(nèi)達到88.63%和89.01%的mIoU指標以及96.08%和96.10%的PA指標,在所有輕量級網(wǎng)絡(luò)中精度指標可以排在前兩位,僅次于輕量級網(wǎng)絡(luò)BiseNetv2.相比于經(jīng)典的語義分割網(wǎng)絡(luò)U-Net、SegNet、Deeplab等,所提網(wǎng)絡(luò)的分割精度明顯更優(yōu),但與PSPNet和OCNet相比,所提網(wǎng)絡(luò)的分割精度略差.

表4 各網(wǎng)絡(luò)在海草數(shù)據(jù)集上的精度指標對比結(jié)果Tab.4 Comparison results of accuracy index in each network on seagrass dataset

因為本文的目標是設(shè)計輕量且高效的水下圖像語義分割網(wǎng)絡(luò),通過對比實驗評估其他語義分割網(wǎng)絡(luò)與所提網(wǎng)絡(luò)的效率和實時性.評估指標包括模型參數(shù)量p(Param)、浮點運算數(shù)f(floating point operations,F(xiàn)LOPs)和推理速度v(inference speed).其中浮點運算數(shù)表示網(wǎng)絡(luò)模型的計算成本,浮點運算數(shù)越小表明需要的計算成本越小.推理速度v以每秒幀數(shù)來衡量,每秒幀數(shù)越大,表明網(wǎng)絡(luò)每秒可以處理的圖片數(shù)越多,實時性越強.

從表5可得如下結(jié)論.1)所提網(wǎng)絡(luò)每秒可以處理近258幀的圖片,在推理速度上所提網(wǎng)絡(luò)最優(yōu),比其他輕量級網(wǎng)絡(luò)ENet、ERFNet、LEDNet、BiseNetv2、CGNet的推理速度分別高出141、60、147、14、142幀/s,相比于非輕量級網(wǎng)絡(luò),優(yōu)勢更明顯,推理速度達到PSPNet的40多倍.2)所提網(wǎng)絡(luò)的模型參數(shù)量為1.45×106,排在第4位,僅次于輕量級網(wǎng)絡(luò)ENet、LEDNet和CGNet,相比于非輕量級網(wǎng)絡(luò),參數(shù)量大幅降低.3)所提網(wǎng)絡(luò)的浮點運算數(shù)為0.31×109,在所有分割網(wǎng)絡(luò)中排在第1位,計算成本很小.

表5 各網(wǎng)絡(luò)的效率指標對比結(jié)果Tab.5 Comparison results of efficiency index in each network

綜合對比平均交并比、像素準確率、推理速度、參數(shù)量和浮點運算數(shù)可知,所提網(wǎng)絡(luò)在參數(shù)量、計算成本及處理速度等方面與常規(guī)的語義分割網(wǎng)絡(luò)相比得到了很大的提升,與其他輕量級網(wǎng)絡(luò)相比體現(xiàn)出一定的優(yōu)勢.在分割精度上十分接近甚至優(yōu)于常規(guī)的語義分割網(wǎng)絡(luò),在所有的輕量級語義分割網(wǎng)絡(luò)中取得了較好的分割精度.

2.3.2 消融實驗 為了證明每個模塊的有效性,開展消融實驗,消融實驗結(jié)果如表6所示.池化金字塔模塊的消融實驗結(jié)果表明,利用該模塊可以顯著提高網(wǎng)絡(luò)的性能,使得mIoU有了顯著的提升.這主要是因為池化金字塔模塊通過全局池化和多尺度特征融合,引入了更多的上下文信息,有效地提高了分割精度.

表6 SUIM數(shù)據(jù)集消融實驗精度指標的對比結(jié)果Tab.6 Comparison results of accuracy indicators for ablation experiments on SUIM dataset

為了驗證特征融合模塊的優(yōu)勢,在解碼器部分采用不同的上采樣方式.具體如下:將解碼器部分替換成類似于FCN的編碼器結(jié)構(gòu),將高級特征2倍上采樣后與低級特征簡單的對應(yīng)元素相加,將該過程重復(fù)2次,最后進行8倍上采樣得到最后的分割結(jié)果.實驗數(shù)據(jù)表明,利用特征融合模塊可以有效地結(jié)合高低級特征,提高了網(wǎng)絡(luò)的性能.此外,通過消融實驗驗證了預(yù)先進行圖像預(yù)處理操作的有效性,包括對圖片進行隨機翻轉(zhuǎn)和歸一化處理.實驗結(jié)果表明,圖像預(yù)處理操作可以將mIoU提升0.4%.

測試不同的基礎(chǔ)網(wǎng)絡(luò)編解碼器結(jié)構(gòu)對分割精度和速度的影響.將編碼器的5個模塊分別替換為Mobilenetv2和ResNet-18[25],測試精度指標mI-oU和速度指標FPS.為了驗證采用的非對稱的編解碼器結(jié)構(gòu)的優(yōu)勢,將所提網(wǎng)絡(luò)的解碼器部分替換成與編碼器對稱的結(jié)構(gòu),把編碼器中步長為2的卷積層替換成2倍上采樣模塊,實驗結(jié)果如表7所示.

表7 基礎(chǔ)網(wǎng)絡(luò)消融實驗不同指標的對比結(jié)果Tab.7 Comparison results of different indexes in baseline network ablation experiments

從表7可得如下結(jié)論.1)相比于Mobilenetv2,本文的基礎(chǔ)網(wǎng)絡(luò)的分割精度與分割速度都更優(yōu).2)本文的基礎(chǔ)網(wǎng)絡(luò)的mIoU略遜于ResNet-18,但是在推薦速度指標上明顯高于ResNet-18,檢測速度更大,實時性更強.3)與本文的非對稱結(jié)構(gòu)相比,對稱結(jié)構(gòu)可以提高分割精度,這是由于非對稱的編解碼器結(jié)構(gòu)會不可避免地在下采樣過程中損失空間信息.對稱結(jié)構(gòu)可以在一定程度上緩解該問題,提升網(wǎng)絡(luò)性能,但增加了大量的卷積層,網(wǎng)絡(luò)復(fù)雜度大大提升,推理速度大幅下降.與對稱結(jié)構(gòu)相比,非對稱的編解碼器結(jié)構(gòu)可以在精度和速度間取得優(yōu)秀的平衡.

測試不同的損失函數(shù)對分割精度的影響.測試3種不同的分割損失函數(shù),包括OHEMCELoss、交叉熵損失(crossentropy loss, CELoss)和交并比損失(intersection over union loss, IoULoss),實驗結(jié)果如表8所示.可以看出,使用OHEMCELoss時的訓練效果最好.這是因為OHEMCELoss會對分割難度較大的樣本增大訓練次數(shù),使得訓練更有效,且與邊緣損失函數(shù)BCELoss組合使用可以進一步提升網(wǎng)絡(luò)的性能.驗證輔助邊緣損失函數(shù)的有效性,測試平衡參數(shù)α對分割結(jié)果的影響,實驗結(jié)果如表9所示.可知,當α = 0.1時,分割效果最佳,利用輔助邊緣損失函數(shù)可以顯著提升網(wǎng)絡(luò)的性能,將mIoU指標從52.66%提升到53.55%.

表8 損失函數(shù)消融實驗精度指標的對比結(jié)果Tab.8 Comparison results of accuracy index in loss function ablation experiments

表9 平衡參數(shù)α消融實驗精度指標的對比結(jié)果Tab.9 Comparison results of accuracy index in balance parameter α ablation experiments

圖8給出所提網(wǎng)絡(luò)有、無輔助邊緣損失函數(shù)的實驗結(jié)果對比圖.如圖8(a)所示為真實的語義標簽,如圖8 (b)所示為不使用邊緣損失函數(shù)得到的分割結(jié)果,如圖8 (c)所示為使用輔助邊緣損失函數(shù)得到的分割結(jié)果.從圖8可以看出,當α = 0.1時,輔助邊緣損失函數(shù)可以使得相同類別內(nèi)的特征更加一致,不同類別間的特征更加明顯.通過明確的語義邊界監(jiān)督,網(wǎng)絡(luò)模型獲得更準確的語義邊界,分割效果更好.

圖8 所提網(wǎng)絡(luò)有、無邊緣損失函數(shù)的對比結(jié)果Fig.8 Comparison results of proposed network with or without edge loss function

3 結(jié) 語

本文提出面向水下場景的輕量級圖像語義分割網(wǎng)絡(luò),在分割精度和速度之間達到較好的平衡.利用輔助邊緣損失函數(shù),使得語義邊界更準確.所提網(wǎng)絡(luò)解決了現(xiàn)有語義分割模型在水下場景表現(xiàn)較差、分割邊界粗糙的問題,對水下圖像的語義分割研究具有重要意義.

所提網(wǎng)絡(luò)主要考慮水下圖像的邊緣模糊問題,對于顏色對比度較低的水下圖像,分割性能較差.在未來的研究中,將會考慮設(shè)計顏色校正模塊以解決色偏問題,提高模型的魯棒性.

猜你喜歡
語義特征實驗
記一次有趣的實驗
語言與語義
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
NO與NO2相互轉(zhuǎn)化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
“上”與“下”語義的不對稱性及其認知闡釋
認知范疇模糊與語義模糊
主站蜘蛛池模板: 麻豆国产在线不卡一区二区| 亚洲自拍另类| 亚洲精品成人片在线观看| 蜜桃视频一区二区| 免费毛片在线| 精品福利网| 久久成人国产精品免费软件| 久久久久久国产精品mv| 91精品国产麻豆国产自产在线| 亚洲欧美成人在线视频| 久久亚洲中文字幕精品一区| 久久精品亚洲热综合一区二区| 国产日本一区二区三区| 在线国产综合一区二区三区| 亚洲欧美日韩色图| 中文一区二区视频| 国产va免费精品观看| 国精品91人妻无码一区二区三区| 亚洲第一页在线观看| 无码人妻热线精品视频| 最新亚洲av女人的天堂| 成年看免费观看视频拍拍| 久久国产高潮流白浆免费观看| 啪啪免费视频一区二区| 亚洲精品无码不卡在线播放| 精品成人一区二区| 欧美久久网| 亚洲一道AV无码午夜福利| 色窝窝免费一区二区三区| 国产亚洲第一页| 精品免费在线视频| 1769国产精品免费视频| 97视频精品全国免费观看| www.亚洲一区| 久久精品人人做人人综合试看| 亚洲成人精品| 欧美精品在线免费| 国产毛片片精品天天看视频| 久久久亚洲色| 丁香婷婷激情综合激情| 五月婷婷激情四射| 欧美日韩国产高清一区二区三区| 992tv国产人成在线观看| 亚洲色图在线观看| 在线观看91精品国产剧情免费| 欧美精品v欧洲精品| 真人高潮娇喘嗯啊在线观看| 97视频在线精品国自产拍| 色婷婷色丁香| 国产精品亚洲va在线观看| 国产情侣一区二区三区| 国产黄在线免费观看| 色婷婷电影网| 亚洲日韩欧美在线观看| 97综合久久| 欧美日韩在线亚洲国产人| 国产成人精品一区二区三在线观看| 国产成人精品一区二区免费看京| 欧美色图久久| 囯产av无码片毛片一级| 久久一色本道亚洲| 国产成人欧美| 亚洲精品视频在线观看视频| a色毛片免费视频| 四虎影视无码永久免费观看| 中文字幕2区| 亚洲成aⅴ人片在线影院八| 久久久久免费精品国产| 亚洲AⅤ综合在线欧美一区| 青青青国产免费线在| 97se亚洲综合| 无码专区第一页| 操国产美女| 国产主播福利在线观看 | 网友自拍视频精品区| 国产精品白浆在线播放| www中文字幕在线观看| 久久婷婷六月| 狠狠v日韩v欧美v| 国产一区二区三区精品久久呦| 精品国产女同疯狂摩擦2| 国产凹凸视频在线观看|