999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于自動駕駛道路場景的語義分割方法研究*

2024-01-03 07:38:44張佳琪惠永科
機械工程與自動化 2023年6期
關鍵詞:語義特征實驗

張佳琪,袁 駿,惠永科,胡 勇,張 睿

(1.太原科技大學 計算機科學與技術學院,山西 太原 030024;2.中國機械科學研究總院集團有限公司,北京 100044)

0 引言

自動駕駛領域中利用語義分割技術對路況進行分類有助于系統了解路況,進而做出更為精確的路徑規劃以及更為及時地規避障礙物,確保行車的安全,因此關于道路場景的分割對自動駕駛系統來說有著重要的現實意義。

現有的基于語義的圖像分割方法已難以適用于多個目標的分割任務,而基于深度學習的方法為計算機視覺領域的研究帶來了新的突破。與經典的體系結構相比,卷積神經網絡(Convolutional Neural Networks,CNN)圖像語義分割技術[1]能顯示出更好的效率和準確性。陳先昌[2]和Farabet等[3]提出了一種使用從原始像素訓練的多尺度卷積網絡對密集特征向量進行提取,以圖像中每個像素為中心,為多個大小的區域進行編碼的方法;Long等[4]提出的全卷積神經網絡(Fully Convolutional Networks,FCN)的流水線雖然擴展了卷積神經網絡,并且可以預測任意尺寸的輸入圖像,但是FCN預測結果分辨率比較低;Ronneberger等[5]提出的UNet在上采樣部分中具有大量特征通道,使得較高分辨率層能夠接收到上下文信息,通過“U”字網絡形狀獲得深度特征和淺層信息,達到了預測的目的。

隨著大規模公共數據集和進化的高性能圖形處理器(Graphic Process Unit,GPU)技術的發展,出現了一種高效的語義分割網絡CPNet[6],能夠捕捉到類與類之間的語義關系,進而提高了該網絡對道路場景的理解分析能力。而基于像素的縱向位置且有選擇性的突出信息屬性的網絡HANet[7]則可以更好地實現城市街道場景圖像的語義分割。

1 道路場景語義分割的優化算法設計

圖1 改進后的DeepLab 網絡結構

圖2 通道注意力結構

FCA(vh,WC)=σ1{fc2{δ[fc1(vh,WC1)],WC2}}.

(1)

其中:FCA(vh,WC)為進行完激活函數后的輸出;WC、WC1、WC2均為通道注意力模塊中的參數;σ1為Sigmoid操作;fc1、fc2分別為第一個全連接層和第二個全連接層;δ為ReLU函數。

(2)

CA將對響應較高的通道給予較大的加權,為了進一步提高融合性能,將之前輸入圖像中的不同通道進行拼接融合,然后使用1×1卷積來進行維度的降低,與此同時使用CA注意力模塊融合從主干網絡提取出的特征圖,并提取豐富的上下文信息,得到有效的高階特征。

在解碼器端輸入圖像并通過ResNet50模型的輸入層后,首先將兩個特征圖同時提取出來作為解碼器的特征輸入信息,根據遷移殘差連接的思想,將所提取出的兩個特征圖分為兩條路徑,一路經過注意力機制SE(Squeeze-and-Excitation)模塊,在SE模塊中對高階特征進行處理,產生有效的特征圖,從而提高分割結果,另一路不通過SE模塊;接著再將兩路提取出的低級特征分別經過1×1的卷積操作降維后再疊加,之后融合編碼器中四倍上采樣獲取的高級特征,最后經過3×3的卷積和上采樣的方法將其還原到與輸入圖像相同的分辨率,并對特征進行進一步的精細化,進而恢復空間信息。

本文采用了信息論中的重要函數——交叉熵損失函數,交叉熵損失函數計算公式定義為:

L=-yilog2pi-(1-yi)log2(1-pi).

(3)

其中:yi為輸出的真實值,yi=0或yi=1;pi為樣本的預測概率。

2 實驗驗證與結果分析

2.1 數據集

本文采用Cityscapes這一大型的數據集來對實例語義標簽[11]進行訓練和測試。Cityscapes是從50個城市中春、夏、秋季的街頭采集到的各式各樣的三維圖像,其中5 000張圖像是具有高品質的像素級注釋,而另外20 000張圖像則進行了粗略的注釋,這樣就可以更好地使用這些標注過的數據。

2.2 實驗平臺

本實驗是在Windows10操作系統下使用Pycharm平臺以及Python3.9語言開發的,CPU為Intel(R)Core(TM)i9-10900K CPU @ 3.70 GHz;GPU采用NVIDIA RTX 3090。

2.3 實驗評價指標

本實驗使用的評價指標為平均交并比(Mean Intersection over Union,MIoU)和總體精度(Over Accuracy,OA)。MIoU計算公式為:

(4)

其中:n為標簽標記的類別數;n+1為包含空類或者背景的總類別數;pii為模型預測與實際均為i類的像素個數;pij為預測為j類但實際為i類的像素個數;pji為預測為i類但實際為j類的像素個數。

MIoU的取值范圍為[0,1],1表示準確的預測,0表示完全錯誤的預測,MIoU值越高表示模型性能越好。

2.4 改進模型消融實驗

表1 不同模型結構的消融實驗結果

2.5 性能對比實驗

表2 不同網絡模型Cityscapes數據集分割效果對比

圖3 原始模型分割結果和改進后DeepLab 模型分割結果對比

3 結論

猜你喜歡
語義特征實驗
記一次有趣的實驗
語言與語義
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
認知范疇模糊與語義模糊
主站蜘蛛池模板: 亚洲福利片无码最新在线播放| 中文字幕 91| 成人免费黄色小视频| 欧美中文字幕一区二区三区| 天天综合网亚洲网站| 无遮挡一级毛片呦女视频| 91九色国产porny| 伊人婷婷色香五月综合缴缴情| 成人欧美日韩| 国产精品妖精视频| 男女男精品视频| 日韩在线第三页| 亚洲国产欧洲精品路线久久| 国产白浆视频| 亚洲,国产,日韩,综合一区 | 99久久精品免费看国产电影| 日本免费精品| 亚洲综合精品第一页| 毛片久久久| 国产精品福利在线观看无码卡| 91原创视频在线| 99精品高清在线播放| 亚洲国产精品久久久久秋霞影院 | 日本手机在线视频| 国产女人18水真多毛片18精品| 国产成人精品午夜视频'| 日本精品视频一区二区| 日韩高清中文字幕| 69视频国产| 爱色欧美亚洲综合图区| 伊人久久精品无码麻豆精品 | jizz在线免费播放| 狠狠综合久久| 99久视频| 嫩草国产在线| 午夜成人在线视频| 亚洲精品第一页不卡| 国产精品原创不卡在线| 亚洲免费人成影院| 黄色网在线| 国产 在线视频无码| 性69交片免费看| 国产丝袜啪啪| аⅴ资源中文在线天堂| 国产免费久久精品99re不卡 | 国产美女主播一级成人毛片| 亚洲成在线观看| JIZZ亚洲国产| 国产在线观看高清不卡| 最新亚洲人成无码网站欣赏网| 日韩小视频网站hq| 97国产在线播放| 亚洲欧洲国产成人综合不卡| 欧美一级高清免费a| 国产日韩精品一区在线不卡 | 久久情精品国产品免费| 欧美一级在线看| 97人人做人人爽香蕉精品| 国产91九色在线播放| 好吊色国产欧美日韩免费观看| 91小视频在线| 亚洲Va中文字幕久久一区| 亚洲欧洲日本在线| 久久伊伊香蕉综合精品| 国产一二三区视频| 亚洲福利片无码最新在线播放| 成人久久18免费网站| 91伊人国产| 四虎精品国产AV二区| 黄色网站在线观看无码| 露脸真实国语乱在线观看| 精品99在线观看| 亚洲免费黄色网| 制服丝袜无码每日更新| 国产一区二区三区在线观看视频 | 欧美午夜性视频| 亚洲精品国产成人7777| 日本久久免费| 久久青青草原亚洲av无码| 亚洲国产成人超福利久久精品| 特级aaaaaaaaa毛片免费视频| 夜夜爽免费视频|