999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于DeepLabv3+算法的城市街景語義分割算法研究

2024-06-13 00:00:00陳文藝苗宗成
無線互聯(lián)科技 2024年9期
關(guān)鍵詞:深度學(xué)習(xí)

摘要:在自動駕駛領(lǐng)域,城市街道場景的語義分割對于提升系統(tǒng)的安全性和效率至關(guān)重要。針對傳統(tǒng)語義分割模型參數(shù)過多、泛化性能較差以及分割效果有限等問題,文章提出了一種基于改進(jìn)DeepLabv3+的解決方案。此改進(jìn)模型融合了輕量級MobileNetv2主干網(wǎng)絡(luò)和SE注意力機(jī)制,優(yōu)化了空洞金字塔池化(Atrous Spatial Pyramid Pooling, ASPP)模塊,將其從并行結(jié)構(gòu)改進(jìn)成串行結(jié)構(gòu),采用深度可分離卷積結(jié)構(gòu)。在Cityscapes數(shù)據(jù)集上,文章的方法取得了75.90%的平均交并比(Mean Intersection over Union, MIoU),顯著提升了分割精度與計算效率。

關(guān)鍵詞:深度學(xué)習(xí);語義分割;ASPP

中圖分類號:TP389.1

文獻(xiàn)標(biāo)志碼:A

0 引言

城市街景的圖像分割一直是研究的熱點(diǎn),該技術(shù)主要分為以下3種:基于傳統(tǒng)的分割方法、混合了傳統(tǒng)技術(shù)和深度學(xué)習(xí)的方法以及單一依靠深度學(xué)習(xí)的策略。

傳統(tǒng)分割技術(shù)通常涉及閾值設(shè)定、邊緣檢測、聚類和圖論方法[1,這些技術(shù)主要依賴于顏色、紋理等簡單的低層次特征來執(zhí)行分割;結(jié)合了傳統(tǒng)方法和深度學(xué)習(xí)的分割方法則更為多樣,這種分割方法主要包括基于候選區(qū)域的分析、概率圖模型和分割掩模的應(yīng)用2;深度學(xué)習(xí)驅(qū)動的圖像語義分割則成為當(dāng)前領(lǐng)域內(nèi)的主導(dǎo)技術(shù),特別是以卷積神經(jīng)網(wǎng)絡(luò),如全卷積網(wǎng)絡(luò)(Fully Convolutional Networks, FCN)[3、循環(huán)神經(jīng)網(wǎng)絡(luò)(例如ReSeg[4)和生成對抗網(wǎng)絡(luò)(如DA[5)為基礎(chǔ)的方法。

雖然DeepLabv3+[6在PASCAL VOC 2012和Cityscapes等知名數(shù)據(jù)集上展現(xiàn)了出色的分割能力,但仍有一些局限性。首先,DeepLabv3+的編碼器在提取特征的過程中逐漸減小圖像尺寸,這可能導(dǎo)致關(guān)鍵信息的損失,使得在解碼階段難以恢復(fù)圖像細(xì)節(jié)。其次,雖然DeepLabv3+的ASPP模塊能增強(qiáng)模型對物體邊緣的識別,但其不足以捕捉圖像局部特征之間的復(fù)雜關(guān)系,有時會造成分割的不連續(xù)性,影響精度。最后,DeepLabv3+為了提升分割準(zhǔn)確度,采用了層數(shù)多、參數(shù)量大的Xception網(wǎng)絡(luò)和標(biāo)準(zhǔn)卷積方式,這不僅加重了模型的計算負(fù)擔(dān),也提高了硬件需求,導(dǎo)致訓(xùn)練速度的下降和收斂的緩慢。

1 網(wǎng)絡(luò)模型

1.1 總體結(jié)構(gòu)

本文旨在通過對DeepLabv3+模型的一系列改進(jìn)來增強(qiáng)其圖像分割性能,解決現(xiàn)有不足。(1)在DeepLabv3+中選擇了輕量化的MobileNetv2作為骨架網(wǎng)絡(luò),取代了原有的Xception網(wǎng)絡(luò),以減少計算量并提高效率。(2)為了提升精度,在特征提取階段后集成了SE注意力模塊,提高了模型對關(guān)鍵信息的敏感度。(3)對ASPP模塊進(jìn)行了重構(gòu),將其從并行結(jié)構(gòu)轉(zhuǎn)變?yōu)榇薪Y(jié)構(gòu),以拓寬感受野。(4)將傳統(tǒng)卷積替換為深度可分離卷積,優(yōu)化了ASPP模塊中的空洞卷積。(5)針對數(shù)據(jù)集中常出現(xiàn)的類別不平衡等問題,引入了焦點(diǎn)損失函數(shù),以更好地處理該問題。通過這些改進(jìn),得到了性能優(yōu)化的DeepLabv3+網(wǎng)絡(luò),其結(jié)構(gòu)如圖1所示。

1.2 MobileNetv2主干網(wǎng)絡(luò)

MobileNetv2的網(wǎng)絡(luò)架構(gòu)通過一系列創(chuàng)新設(shè)計來優(yōu)化移動設(shè)備上的性能和效率。該網(wǎng)絡(luò)的核心為倒殘差結(jié)構(gòu),這是一種特別設(shè)計的模塊,它首先通過1×1卷積(也稱為“點(diǎn)卷積”)擴(kuò)大特征圖的通道數(shù),以增加網(wǎng)絡(luò)處理能力。應(yīng)用深度可分離卷積對這些擴(kuò)張的特征圖進(jìn)行處理。這種方法將傳統(tǒng)卷積操作分解為2個步驟:深度卷積(對每個通道獨(dú)立進(jìn)行空間上的特征提取)和再次的1×1卷積(合并特征圖),顯著降低了計算量和參數(shù)數(shù)量。網(wǎng)絡(luò)通過另一個1×1卷積將特征圖的通道數(shù)減少,以構(gòu)造更緊湊的特征表示。

1.3 SE注意力機(jī)制

SE注意力機(jī)制旨在提升網(wǎng)絡(luò)捕捉通道間依賴性的能力,從而增強(qiáng)其性能,SE注意力機(jī)制首次被引入是為了改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)中的特征重校準(zhǔn),使網(wǎng)絡(luò)能夠通過自動學(xué)習(xí)賦予不同的特征通道以不同的重要性權(quán)重。SE注意力機(jī)制的工作流程可以分為2個主要步驟:壓縮和激勵。在壓縮步驟中,SE注意力機(jī)制對每個通道的特征圖進(jìn)行全局平均池化,從而生成一個全局特征描述。在激勵步驟中,通過一系列全連接層(通常包括一個壓縮層和一個重新擴(kuò)張層)對這些全局特征描述進(jìn)行變換,學(xué)習(xí)到每個通道的權(quán)重系數(shù)。這些權(quán)重系數(shù)隨后被用來調(diào)整原始特征圖的通道,通過放大重要特征通道的響應(yīng),實現(xiàn)特征重校準(zhǔn)。

2 實驗結(jié)果分析

2.1 實驗數(shù)據(jù)及參數(shù)

本文實驗數(shù)據(jù)來自Cityscapes數(shù)據(jù)集,Cityscapes數(shù)據(jù)集是一個大規(guī)模的數(shù)據(jù)集,專為街景理解任務(wù)而設(shè)計。Cityscapes數(shù)據(jù)集含有5000張精細(xì)標(biāo)注的圖像和20000張粗略標(biāo)注的圖像,分為訓(xùn)練集、驗證集和測試集。精細(xì)標(biāo)注的圖像包含詳盡的像素級標(biāo)注,覆蓋了30個類別(其中,有19個類別用于評估),如道路、人行道、車輛、行人等城市場景中常見的元素。

本文實驗在ubuntu20.04上部署了當(dāng)下比較流行的Pytorch深度學(xué)習(xí)框架,Python3.8為編程語言。其中,Pytorch版本為1.11.0,Cuda版本為11.3。在硬件上,使用Intel(R) Core (TM) i9-13900KF的CPU,頻率為5.80 GHz,GPU為NVIDIA RTX 3090,24G顯存。此外,超參數(shù)設(shè)置如下。Batch Size:8;Epoch:300;優(yōu)化器:SGD;學(xué)習(xí)率:0.0001;學(xué)習(xí)率下降方式:cos。

2.2 對比實驗

為了確定模型的有效性,將本文所提出的改進(jìn)DeepLabv3+與其他的語義分割算法在Cityscapes數(shù)據(jù)集上進(jìn)行了實驗對比,實驗結(jié)果如表1所示。

如實驗結(jié)果所示,改進(jìn)的DeepLabv3+模型的MIoU高達(dá)75.90%,這一成果證明了本文所做改進(jìn)的有效性,尤其是在傳統(tǒng)DeepLabv3+模型的基礎(chǔ)上采用MobileNetv2作為輕量級的主干網(wǎng)絡(luò),這一策略不僅大幅降低了模型的計算量,而且優(yōu)化了計算效率,同時保持了高精度的分割效果。引入SE注意力機(jī)制補(bǔ)償了精度的潛在損失,通過對ASPP模塊的優(yōu)化,串行結(jié)構(gòu)的采用擴(kuò)大了感受野并提高了上下文捕獲的能力。此外,深度可分離卷積的使用進(jìn)一步降低了參數(shù)數(shù)量和計算成本。而焦點(diǎn)損失函數(shù)的引入則有效應(yīng)對了數(shù)據(jù)集中的類別不平衡問題,有助于模型在不同類別的分割任務(wù)中獲得更好的性能。

3 結(jié)語

本文主要對傳統(tǒng)的DeepLabv3+網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了一系列創(chuàng)新性改進(jìn),以提升圖像語義分割的性能并優(yōu)化模型的計算效率。首先,將DeepLabv3+中的Xception主干特征提取網(wǎng)絡(luò)替換為MobileNetv2網(wǎng)絡(luò),此改進(jìn)顯著降低了模型的計算負(fù)擔(dān),使其更適合于資源受限的環(huán)境。其次,在DeepLabv3+中引入SE注意力機(jī)制以彌補(bǔ)由于網(wǎng)絡(luò)輕量化導(dǎo)致的精度損失等問題,確保了DeepLabv3+分割的準(zhǔn)確性。此外,將DeepLabv3+中原有ASPP模塊的并行結(jié)構(gòu)優(yōu)化為串行結(jié)構(gòu),使用深度可分離卷積代替?zhèn)鹘y(tǒng)卷積,這一改進(jìn)不僅擴(kuò)大了感受野,還進(jìn)一步減少了模型的參數(shù)量。針對類別不平衡問題,在DeepLabv3+中采用焦點(diǎn)損失函數(shù)來提升模型對少數(shù)類別的識別能力。上述改進(jìn)共同作用,顯著提高了DeepLabv3+在圖像語義分割任務(wù)上的性能,同時保持了較高的計算效率,展現(xiàn)了優(yōu)化后模型在處理復(fù)雜視覺任務(wù)時的強(qiáng)大能力。

參考文獻(xiàn)

[1]王嫣然,陳清亮,吳俊君.面向復(fù)雜環(huán)境的圖像語義分割方法綜述[J].計算機(jī)科學(xué),2019(9):36-46.

[2]田萱,王亮,丁琪.基于深度學(xué)習(xí)的圖像語義分割方法綜述[J].軟件學(xué)報,2019(2):440-468.

[3]LONG J,SHELHAMER E,DARRELL T.Fully convolutional networks for semantic segmentation,June 7-12,2015[C].Boston:CVPR,2015.

[4]FVisin F,Ciccone M,Romero A,et al.A recurrent neural network-based model for semantic segmentation,June 27-30,2016[C].Las Vegas:CVPR,2016.

[5]SU C,HUANG R,LIU C.Prostate MR image segmentation with self-attention adversarial training based on wasserstein distance[J].IEEE Access,2019(18):184276-184284.

[6]CHEN L C,ZHU Y,PAPANDREOU G,et al.Encoder-decoder with atrous separable convolution for semantic image segmentation,June 18-22,2018[C].Munich:ECCV,2018.

(編輯 王永超)

Research on urban street view semantic segmentation algorithm based on DeepLabv3+ algorithm

Chen" Wenyi, Miao" Zongcheng

(School of Electronic Information, Xijing University, Xi’an 710123, China)

Abstract:In the field of autonomous driving, semantic segmentation of urban street scenes is crucial for improving the safety and efficiency of the system. Aiming at the problems of too many parameters, insufficient portability and limited segmentation effect of traditional semantic segmentation models, this paper proposes a solution based on improved DeepLabv3+. This improved model incorporates a lightweight MobileNetv2 backbone network and the SE attention mechanism,and optimizes the Atrous spatial pyramid pooling (ASPP) module from a parallel to a serial structure with a depth-separable convolutional structure. On the Cityscapes dataset, the method in this paper achieves 75.90% MIoU, which significantly improves the segmentation accuracy and computational efficiency.

Key words:deep learning; semantic segmentation; ASPP

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實驗平臺構(gòu)建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學(xué)習(xí)的三級階梯
有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: www.亚洲天堂| 国产欧美日韩专区发布| 伊人AV天堂| 国产区网址| 青青草一区二区免费精品| 午夜色综合| 亚洲精品男人天堂| 国产成人综合欧美精品久久| 91无码网站| 第一区免费在线观看| 在线观看国产精品一区| 亚洲毛片一级带毛片基地| 伊人成人在线视频| 日韩A∨精品日韩精品无码| 国产a在视频线精品视频下载| 免费jjzz在在线播放国产| 日本午夜视频在线观看| 国产尤物在线播放| 亚洲五月激情网| 国产一区二区三区夜色| 中文字幕在线看视频一区二区三区| 免费毛片全部不收费的| 久久免费成人| 国产av一码二码三码无码| 国产成人综合在线观看| 永久免费无码日韩视频| 国内精品免费| 幺女国产一级毛片| 国产十八禁在线观看免费| 国产91高跟丝袜| 亚洲 成人国产| 亚洲a级在线观看| 青青青国产视频手机| 在线亚洲天堂| 天堂av高清一区二区三区| 乱码国产乱码精品精在线播放| 亚洲国产天堂在线观看| 爱色欧美亚洲综合图区| 亚洲视频a| 欧美天堂在线| 日韩精品亚洲一区中文字幕| 欧美第一页在线| 欧洲熟妇精品视频| 国产99视频精品免费观看9e| 久久精品91麻豆| 日韩A∨精品日韩精品无码| 午夜精品福利影院| 日韩精品一区二区三区中文无码| 国产本道久久一区二区三区| 日韩欧美中文| 玩两个丰满老熟女久久网| 无码免费的亚洲视频| 大香伊人久久| 亚洲中文字幕97久久精品少妇 | 亚洲人成网站日本片| 再看日本中文字幕在线观看| 亚洲无码视频图片| 国产三级精品三级在线观看| 国产乱子伦精品视频| 毛片一区二区在线看| 99re在线视频观看| 日本精品αv中文字幕| 91青青草视频| 亚洲一区二区成人| 456亚洲人成高清在线| 激情综合五月网| 国产SUV精品一区二区| 国产成人精品第一区二区| 亚洲—日韩aV在线| 国产激情在线视频| 久久精品国产精品一区二区| 久久永久视频| 四虎永久免费网站| 免费jizz在线播放| 亚洲一区二区无码视频| 成人国产精品视频频| 一本一道波多野结衣一区二区| 亚洲六月丁香六月婷婷蜜芽| 丁香五月婷婷激情基地| 婷婷亚洲视频| 亚洲精品天堂在线观看| 久久五月天综合|