999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于輕量化U2-Net的車道線檢測算法研究*

2024-12-31 00:00:00鄧歡王健吳孟軍杜若飛費明哲王云靖
汽車工程師 2024年8期

【摘要】針對車道線遮擋、道路陰影等多車道駕駛環(huán)境下提取的車道線特征信息缺失造成預(yù)測車道線模糊、不連續(xù)等問題,提出一種基于輕量化U2-Net的車道線檢測算法。首先,以輕量化U2-Net的殘差U形模塊(RSU)和多特征尺度融合獲得全局信息豐富的車道線特征;其次,對車道線特征進(jìn)行逐像素閾值判斷,并選擇最小二乘法結(jié)合感興趣區(qū)域(ROI)中車道線簇進(jìn)行車道線的擬合,實現(xiàn)多車道線檢測并確認(rèn)自車道線區(qū)域;最后,在圖森(TuSimple)數(shù)據(jù)集上進(jìn)行驗證與分析。驗證結(jié)果表明,所提出的車道線檢測算法的平均準(zhǔn)確率達(dá)到98.4%,相比于其他車道線檢測網(wǎng)絡(luò),該算法的網(wǎng)絡(luò)參數(shù)量較少,準(zhǔn)確率較高。

關(guān)鍵詞:輕量化U2-Net 殘差U形模塊 多車道線檢測 自車道線

中圖分類號:U491. 6" "文獻(xiàn)標(biāo)志碼:A" "DOI: 10.20104/j.cnki.1674-6546.20230435

Research on Lane Line Detection Algorithm Based

on Lightweight U2-Net

Deng Huan1, Wang Jian1, Wu Mengjun2, Du Ruofei1, Fei Mingzhe1, Wang Yunjing1

(1. Shandong Jiaotong University, Jinan 250357; 2. Ningbo Yinzhou DLT Technologies Co., Ltd., Ningbo 315100)

【Abstract】In response to the multilane lines driving environments such as lane line occlusion, road shadows, where the extractes lane line feature information is missing, resulting in blurry and discontinuous predicted lane lines, this paper proposes a lightweight U2-Net network for lane line detection algorithm. Firstly, the Residual U-blocks (RSU) module of the lightweight U2-Net network and multi feature scale fusion are used to obtain globally informative lane line features; secondly, pixel-by-pixel threshold judgment is performed on lane line features, and the least square method is selected combined with the lane line cluster of Region Of Interest (ROI) to fit lane line, to achieve multilane line detection and determine the self lane line area; finally, the proposed lane detection algorithm is validated and analyzed in the TuSimple dataset. The results show that the average accuracy of the proposed lane line detection algorithm reaches 98.4%. Compared with other lane line detection networks, this algorithm has fewer network parameters and higher accuracy.

Key words: Lightweight U2-Net, Residual U-blocks (RSU), Multi-lane line detection, Self lane line

【引用格式】 鄧歡, 王健, 吳孟軍, 等. 基于輕量化U2-Net的車道線檢測算法研究[J]. 汽車工程師, 2024(8): 22-28.

DENG H, WANG J, WU M J, et al. Research on Lane Line Detection Algorithm Based on Lightweight U2-Net[J]. Automotive Engineer, 2024(8): 22-28.

1 前言

環(huán)境感知是無人駕駛技術(shù)的核心技術(shù)之一,其中,復(fù)雜環(huán)境下車道線檢測的實時性和魯棒性對車道偏離預(yù)警系統(tǒng)(Lane Departure Warning System,LDWS)、車道保持系統(tǒng)(Lane Keeping System,LKS)等駕駛輔助系統(tǒng)十分重要,可明顯提高智能車輛的行駛安全性。目前,車道線檢測算法分為傳統(tǒng)車道線檢測算法和基于深度學(xué)習(xí)的車道線檢測算法[1]。傳統(tǒng)車道線檢測算法在車道線標(biāo)記清晰、無遮擋物的道路上檢測效果較好,但難以應(yīng)用于無人駕駛場景。

相比于傳統(tǒng)車道線檢測算法,越來越多的研究者將深度學(xué)習(xí)算法應(yīng)用于圖像處理領(lǐng)域,實現(xiàn)高精度的車道線檢測,以提升遮擋和磨損條件下的車道線檢測性能,但很多基于深度學(xué)習(xí)的車道線檢測算法仍然存在一些問題。針對惡劣天氣和夜間條件,Lee等[2]提出一個端到端的多任務(wù)網(wǎng)絡(luò)模型,即消失點引導(dǎo)網(wǎng)絡(luò)(Vanishing Point Guided Network,VPGNet),可提高車道檢測的實時性;Neven等[3]提出了LaneNet算法進(jìn)行多車道線檢測,該算法基于實例分割的思想,但其檢測精度不高;Gansbeke等[4]提出一種端對端的車道線模型訓(xùn)練方式,通過直接回歸車道參數(shù)提高車道線的檢測效果;針對語義分割網(wǎng)絡(luò)模型檢測效果不佳、計算量大等問題,文獻(xiàn)[5]基于BiSeNet V2網(wǎng)絡(luò)模型優(yōu)化改進(jìn),提高了模型的推理速度,文獻(xiàn)[6]采用壓縮的VGG16網(wǎng)絡(luò)進(jìn)行編碼,通過車道線后處理過程獲得更加精確的車道線,文獻(xiàn)[7]提出融合多分支結(jié)構(gòu)和注意力機(jī)制的車道線檢測模型,解決了特征融合不充分、魯棒性差的問題。因此,面對復(fù)雜多變的駕駛環(huán)境,尋求一種通用、計算量低的輕量化網(wǎng)絡(luò),同時改善神經(jīng)網(wǎng)絡(luò)識別精度不高和缺失多尺度上下文特征等缺陷,是目前無人駕駛技術(shù)環(huán)境感知領(lǐng)域中急需解決的問題。

考慮到基于分割的檢測算法更易于實際應(yīng)用,本文提出一種基于輕量化U2-Net的車道線檢測算法。首先,以輕量化U2-Net語義分割網(wǎng)絡(luò)分割車道線特征,使用殘差U形模塊(Residual U-blocks,RSU)提取深層特征信息,特征圖融合模塊保留全局信息,通過閾值分割進(jìn)行多車道線提取。其次,提出一種簡單的后處理方式,對分割后圖像進(jìn)行感興趣區(qū)域提取,由最小二乘擬合和拋物線模型完成自車道線確認(rèn)。最后,在圖森(TuSimple)數(shù)據(jù)集上進(jìn)行驗證,使用正確率、平均絕對誤差、F度量值等多個指標(biāo)評估算法結(jié)果。

2 車道線語義分割網(wǎng)絡(luò)設(shè)計

針對復(fù)雜環(huán)境下車道線特征提取模型復(fù)雜、效果不佳等問題,本文借鑒圖像語義分割的思路,提出基于輕量化U2-Net的車道線特征分割模型,可以在不使用常規(guī)分類網(wǎng)絡(luò)主干的情況下快速地對預(yù)處理后的車道線圖像進(jìn)行特征分割,將輸入圖像分割為車道線特征和背景特征兩種語義類別,繼而對分割得到的車道線特征進(jìn)行車道線提取,以實現(xiàn)對多車道線的檢測和自車道線區(qū)域的確認(rèn)。本文提出的車道線檢測算法流程如圖1所示。

2.1 輕量化U2-Net的車道線分割

輕量化U2-Net[8]是一種用于顯著對象檢測的網(wǎng)絡(luò)體系結(jié)構(gòu),其架構(gòu)是堆疊嵌套的U型結(jié)構(gòu),包括6級編碼網(wǎng)絡(luò)、5級解碼網(wǎng)絡(luò)、解碼網(wǎng)絡(luò)和編碼網(wǎng)絡(luò)的最后一個階段的特征圖融合模塊3個部分,其網(wǎng)絡(luò)的結(jié)構(gòu)和參數(shù)配置分別如圖2和表1所示,其中I為輸入圖像的通道(Cin)數(shù)量、M為網(wǎng)絡(luò)內(nèi)層通道(Cmid)數(shù)量、O為輸出圖像的通道(Cout)數(shù)量。

2.1.1 編碼、解碼網(wǎng)絡(luò)

在車道線檢測和分割任務(wù)中,局部與整體的上下文信息都是必不可少的,既要擴(kuò)大特征提取的感受野來提取深層特征,又要將淺層特征與深層特征融合。因此,輕量化U2-Net的編碼、解碼網(wǎng)絡(luò)中每一個階段都通過一個新的RSU模塊來捕捉階段內(nèi)的多尺度特征,直接分階段提取多尺度特征,再將每個階段的車道線特征進(jìn)行融合。其中,RSU模塊細(xì)分為RSU-L模塊和RSU-4F模塊。

RSU-L模塊采用U型結(jié)構(gòu),主要包括輸入卷積層、編碼-解碼網(wǎng)絡(luò)、殘差連接3個部分。其中特征圖的長度和高度分別為H和W,RSU網(wǎng)絡(luò)的層數(shù)為L,當(dāng)L=7時,RSU-7模塊如圖3a所示,其中包括卷積層(Conv)、批歸一化(Batch Normalization,BN)層、修正線性單元(Rectified Linear Unit,Relu)激活層,以及下采樣(Dowbsample)、上采樣(Upsample)操作等,k為步幅,d為填充量。車道線特征圖x(H×W×I)經(jīng)過輸入卷積層輸出中間特征圖F1(x)(H×W×O),以提取車道線的局部特征;將F1(x)輸入高度為L的RSU-L模塊,學(xué)習(xí)提取多尺度上下文信息U(F1(x))。在RSU-L模塊中,L越大,RSU模塊越深,池化操作越多,獲得的局部和全局特征越豐富;將獲得的局部信息和全局信息通過殘差連接,進(jìn)行局部特征和多尺度特征的融合,特征融合公式為:

H(x)=F2(F1(x))+x" " " " " " (1)

式中:H(x)為輸入圖像特征x的期望映射,F(xiàn)2、F1為權(quán)值層。

RSU-4F模塊如圖3b所示,與RSU-L模塊的結(jié)果相比,它將池化和上采樣操作替換為擴(kuò)展卷積,使得所有中間特征映射與其輸入特征映射具有相同的分辨率,避免下采樣過程的特征圖過小。

2.1.2 特征圖融合模塊

在編碼網(wǎng)絡(luò)下采樣和解碼網(wǎng)絡(luò)上采樣過程中,En_6、De_5、De_4、De_3、De_2和De_1階段通過3×3卷積層和S型函數(shù)(Sigmoid Function)輸出S(6)、S(5)、S(4)、S(3)、S(2)、S(1)等6個車道線特征圖,特征圖融合模塊就是將輸出的6個車道線特征圖分別上采樣到輸入圖像大小,采用連接操作進(jìn)行特征融合,然后通過1×1卷積層和S型函數(shù)生成最后的車道線特征圖Sfuse,對每一項輸出的車道線特征圖使用二值交叉熵計算損失,故最終的損失函數(shù)包括S(6)、S(5)、S(4)、S(3)、S(2)、S(1)的損失和特征融合輸出車道線特征圖Sfuse的損失,具體計算公式為:

[L=n=1Nw(n)sl(n)s+wfuselfuse] (2)

式中:N=6為輸出的車道線特征圖數(shù)量,ls(n)為車道線特征圖S(n)的二值交叉熵?fù)p失,lfuse為Sfuse的二值交叉熵?fù)p失,ws(n)為ls(n)的權(quán)重系數(shù),wfuse為lfuse的權(quán)重系數(shù)。

2.2 多車道線檢測

本文將車道線檢測任務(wù)視為圖像語義分割問題,經(jīng)輕量化U2-Net語義分割網(wǎng)絡(luò)提取的車道線特征圖Sfuse包括豐富的局部和全局特征信息,可以將模糊、不連續(xù)的車道線特征彌補(bǔ)擬合為完整的車道線形狀,直接進(jìn)行多車道線檢測。

首先通過多次驗證測試,分析不同閾值(Tthreshold)下的車道線檢測效果,如圖4所示,當(dāng)Tthreshold=0.3時獲得的車道線檢測效果較好,檢測到的車道線基本與特征圖中的車道線像素點穩(wěn)合;其次,通過對Sfuse內(nèi)的車道線像素值T進(jìn)行逐像素判斷,當(dāng)T≥Tthreshold時可以提取到完整的車道線簇的坐標(biāo)集合F(x,y);最后,將F(x,y)映射至輸入圖像,實現(xiàn)多條車道線的檢測,解決對遠(yuǎn)端的車道線和彎道預(yù)測效果差以及車道線預(yù)測不連續(xù)的問題。

2.3 自車道確認(rèn)

LDWS、LKS等駕駛輔助系統(tǒng)一般在近視野區(qū)域做出相應(yīng)的駕駛策略,因此,在實現(xiàn)多車道線檢測的基礎(chǔ)上,本文提出以輸入圖像中線為中心,以近視野區(qū)域作為車道線圖片的感興趣區(qū)域(Region Of Interest,ROI),遍歷ROI內(nèi)的車道線簇,將與ROI中線距離最近的左、右兩條連續(xù)車道線作為車輛當(dāng)前行駛車道的左、右邊界,并將上述兩條車道線所包圍的區(qū)域標(biāo)記為車輛當(dāng)前行駛的車道區(qū)域,以實現(xiàn)對行車車道的確認(rèn),為汽車的LDWS、LKS等駕駛輔助系統(tǒng)的決策提供依據(jù),使車輛能夠更加安全高效地行駛。

在前期的多車道線檢測階段已經(jīng)提取到單獨的車道線簇,故車道線擬合階段不存在強(qiáng)噪聲的干擾,為了提取完整的自車道線區(qū)域,選擇最小二乘法結(jié)合ROI中車道線簇進(jìn)行車道線的擬合,具體步驟如下:

a. 以輸入圖像中線為中心,獲取ROI,進(jìn)行逆透視變換;

b. 以ROI的質(zhì)心為中心,取坐標(biāo)距離最近的兩條車道線分別為當(dāng)前行駛車道的左、右邊界,對兩條車道線進(jìn)行采樣,獲得左、右車道線的采樣坐標(biāo)集合,分別為L、R;

c. 使用最小二乘擬合確定擬合參數(shù),使用拋物線模型進(jìn)行車道線擬合,并通過擬合的車道線坐標(biāo)繪制自車道區(qū)域,變換至原圖。拋物線模型和誤差平方和的計算公式為:

y=ax2+bx+c (3)

[e2=i=1n[yi-(ax2i+bxi+c)]2] (4)

式中:a、b、c為拋物線模型參數(shù),y為擬合的車道線模型,yi為真實的車道線模型,xi為車道線簇的橫坐標(biāo)集,n為當(dāng)前車道線簇的坐標(biāo)數(shù)量。

3 驗證準(zhǔn)備

3.1 數(shù)據(jù)集處理

本文對復(fù)雜多變駕駛場景下的車道線進(jìn)行檢測,選取的TuSimple數(shù)據(jù)集包括含不同天氣狀況下多車道線的車道場景,其分辨率為1 280×720,分為訓(xùn)練集、測試集和驗證集,部分輸入圖像如圖5a所示。其中,TuSimple數(shù)據(jù)集的圖像的標(biāo)注文件為json格式,其提供了許多離散的軸坐標(biāo)對應(yīng)的車道線的軸坐標(biāo)值。

本文所提出的車道線檢測網(wǎng)絡(luò)的輸入圖像大小固定,且對應(yīng)的標(biāo)簽應(yīng)為二值分割圖像,故數(shù)據(jù)集預(yù)處理部分包括對json格式的轉(zhuǎn)換和輸入圖像的裁剪。首先,將其標(biāo)簽轉(zhuǎn)換為png格式的二值分割圖像,處理后的部分二值分割標(biāo)簽(Ground-Truth)如圖5b所示;其次,將所有數(shù)據(jù)集中每個圖像調(diào)整大小為512×512,作為網(wǎng)絡(luò)的輸入圖像;最后,為防止訓(xùn)練過程出現(xiàn)過擬合現(xiàn)象,對數(shù)據(jù)集進(jìn)行隨機(jī)垂直翻轉(zhuǎn)并裁剪為480×480,以增大數(shù)據(jù)集,提高訓(xùn)練模型的精度。

3.2 測試參數(shù)

測試所使用的平臺為Windows 10,圖形處理器(Graphics Processing Unit,GPU)為NVIDIA Quadro P4000。在算法實現(xiàn)方面,基于PyTorch深度學(xué)習(xí)框架進(jìn)行神經(jīng)網(wǎng)絡(luò)模型搭建。在網(wǎng)絡(luò)訓(xùn)練前,設(shè)置批處理大小(Batch Size)、迭代次數(shù)(Epoch)、學(xué)習(xí)率、優(yōu)化器、損失函數(shù)等訓(xùn)練參數(shù),如表2所示。

3.3 評價標(biāo)準(zhǔn)

輕量化U2-Net的輸出是與輸入車道線圖像具有相同空間分辨率的預(yù)測車道線圖,為了驗證輕量化U2-Net對車道線特征提取的有效性,本文在TuSimple數(shù)據(jù)集上對其進(jìn)行驗證,并選取正確率(Accuracy,ACC)、平均絕對誤差(Mean Absolute Error,MAE)、F度量值(F1?measure)指標(biāo)來評估算法結(jié)果。

給定一個預(yù)測的車道線特征圖,Mmea表示預(yù)測的車道線與二值分割標(biāo)簽之間的平均每像素差,Aacc表示預(yù)測的車道線中預(yù)測正確的概率,F(xiàn)1?measure是通過加權(quán)調(diào)和參數(shù)β2對精確率(Pprecison)和召回率(Precall)的加權(quán)調(diào)和。其中,召回率Precall、精確率Pprecison、Mmea、F1?measure、Aacc的表達(dá)式為:

Precall=NTP/(NTP+NFN)" " " " " " (5)

Pprecison=NTP/(NTP+NFP)" " " " " "(6)

[Mmea= r=1Hc=1WPr,c-G(r,c)H×W]" " " " (7)

F1-measure=(1+β2)PprecisonPrecall/(β2Pprecison+Precall) (8)

Aacc=(NTP+NTN)/(NTP+NTN+NFP+NFN)" " "(9)

式中:NTP為預(yù)測正確的車道線數(shù)量,NFP為預(yù)測錯誤的車道線數(shù)量,NFN為未檢測到的車道線數(shù)量,NTN為未預(yù)測正確的背景數(shù)量,P(r,c)為預(yù)測的車道線特征圖,G(r,c)為真實的二值分割標(biāo)簽,(r,c)為像素的坐標(biāo),β2設(shè)為0.3。

4 驗證結(jié)果與分析

4.1 訓(xùn)練與優(yōu)化

在模型的訓(xùn)練與優(yōu)化過程中,每兩次迭代進(jìn)行模型驗證,計算一次迭代中Mmea和F1?measure的值,與前一次迭代的參數(shù)進(jìn)行對比,以獲得最優(yōu)化的權(quán)重參數(shù),訓(xùn)練過程中損失(Train Loss)、學(xué)習(xí)率與優(yōu)化過程中的Mmea和F1?measure隨迭代次數(shù)變化的曲線如圖6所示,由圖6a可知,該網(wǎng)絡(luò)模型的收斂速度快,由圖6b可知,在迭代30次的訓(xùn)練后,預(yù)測的車道線效果基本穩(wěn)定。

4.2 可視化分析

本文所提出的車道線檢測算法在TuSimple數(shù)據(jù)集的測試集上進(jìn)行驗證,得到不同環(huán)境下車道線檢測結(jié)果如圖7所示。由圖7a和圖7b可知,本文所提出的基于輕量化U2-Net的車道線檢測算法可以實現(xiàn)多車道線的檢測;由圖7c和圖7d可知,在車道線不連續(xù)、車道線遮擋以及路面陰影條件下,本文算法將斷開的車道線彌補(bǔ)擬合為連續(xù)的車道線。由上述結(jié)果可以看出,本文算法解決了預(yù)測車道線出現(xiàn)模糊、不連續(xù)等問題,特別是對遠(yuǎn)端的車道線和彎道預(yù)測效果較好,但該算法對近端的車道線特征提取效果不明顯,需要進(jìn)一步的后處理操作。

4.3 結(jié)果對比

將本文提出的車道線檢測算法模型的大小及其在TuSimple數(shù)據(jù)集上的車道線檢測準(zhǔn)確率與空間卷積神經(jīng)網(wǎng)絡(luò)(Spatial Convolutional Neural Network,SCNN)[9]、SqueezeNet[10]、GoogLeNet_v2[10]、LaneNet[3]進(jìn)行對比分析,驗證模型檢測效果。在不采用模型量化和深度學(xué)習(xí)推理優(yōu)化器加速的情況下,本文所選取的輕量化網(wǎng)絡(luò)在測試階段的準(zhǔn)確率達(dá)到了98.4%,其推理速度為14.3 幀/s,基本滿足車道線檢測的實時性要求。由圖8可知,相比于其他網(wǎng)絡(luò),本文所提出的車道線檢測算法模型的參數(shù)量較少,相比于參數(shù)量更高的LaneNet和SCNN分別提高了2.02%、1.87%,在保證檢測速度的情況下,其準(zhǔn)確率明顯提高。

5 結(jié)束語

本文提出了一種基于輕量化U2-Net的車道線檢測算法:首先,搭建了輕量化U2-Net,通過RSU模塊和多特征尺度融合提取全局信息和局部信息豐富的車道線特征,解決了遠(yuǎn)端區(qū)域、不連續(xù)的車道線預(yù)測效果較差的問題;其次,通過逐像素閾值比較,實現(xiàn)多車道線檢測;最后,在車道線后處理過程,針對分割后圖像沒有強(qiáng)干擾點的特點,由最小二乘擬合和拋物線模型確認(rèn)自車道線區(qū)域,為車輛高級輔助駕駛系統(tǒng)提供判斷信息。在TuSimple數(shù)據(jù)集上的驗證結(jié)果表明,本文的車道線檢測算法平均準(zhǔn)確率達(dá)到98.4%,推理速度為14.3 幀/s,在車道線遮擋、道路陰影等多車道線的駕駛環(huán)境下具有良好的檢測效果,可對遠(yuǎn)處的車道線和彎道進(jìn)行檢測。

參考文獻(xiàn)

[1]" "時小虎, 吳佳琦, 吳春國, 等. 基于殘差網(wǎng)絡(luò)的彎道增強(qiáng)車道線檢測方法[J]. 吉林大學(xué)學(xué)報(工學(xué)版), 2023, 53(2): 584-592.

SHI X H, WU J Q, WU C G, et al. Enhanced Lane Detection Method for Curves Based on Residual Networks[J]. Journal of Jilin University (Engineering Edition), 2023, 53(2): 584-592.

[2]" LEE S, KIM J, SHIN YOON J, et al. VPGNet: Vanishing Point Guided Network for Lane and Road Marking Detection and Recognition[C]// Proceedings of the IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017: 1947-1955.

[3]" "NEVEN D, DE BRABANDERE B, GEORGOULIS S, et al. Towards End-to-End Lane Detection: An Instance Segmentation Approach[C]// IEEE Intelligent Vehicles Symposium(IV). Changshu, China: IEEE, 2018: 286-291.

[4]" "VAN GANSBEKE W, DE BRABANDERE B, NEVEN D, et al. End-to-End Lane Detection through Differentiable Least-Squares Fitting[C]// Proceedings of the IEEE/CVF International Conference on Computer Vision Workshops. Seoul, Korea: IEEE, 2019.

[5]" "王碧瑤, 韓毅, 崔航濱, 等. 基于圖像的道路語義分割檢測方法[J]. 山東大學(xué)學(xué)報(工學(xué)版), 2023, 53(5): 37-47.

WANG B Y, HAN Y, CUI H B, et al. Image Based Road Semantic Segmentation Detection Method[J]. Journal of Shandong University (Engineering Edition), 2023, 53(5): 37-47.

[6]" "鄧天民, 蒲龍忠, 萬橋. 改進(jìn)FCN的車道線實例分割檢測方法[J]. 計算機(jī)工程與設(shè)計, 2022, 43(10): 2935-2943.

DENG T M, PU L Z, WAN Q. Improved Lane Line Instance Segmentation Detection Method for FCN[J]. Computer Engineering and Design, 2022, 43(10): 2935-2943.

[7]" "蒯曉, 丁飛, 張登銀. 多分支融合注意力機(jī)制的車道線檢測模型[J]. 電子測量與儀器學(xué)報, 2023, 37(4): 35-43.

KUAI X, DING F, ZHANG D Y. A Lane Line Detection Model Based on Multi Branch Fusion Attention Mechanism[J]. Journal of Electronic Measurement and Instrumentation, 2023, 37(4): 35-43.

[8]" "QIN X B, ZHANG Z C, HUANG C Y, et al. U2-Net: Going Deeper with Nested U-Structure for Salient Object Detection[J]. Pattern Recognition, 2020, 106.

[9]" "PAN X G, SHI J P, LUO P, et al. Spatial as Deep: Spatial CNN for Traffic Scene Understanding[C]// Proceedings of the AAAI Conference on Artificial Intelligence. New Orleans, Louisiana, USA: AAAI, 2018.

[10] CHEN Z P, LIU Q F, LIAN C F. PointLaneNet: Efficient End-to-End CNNs for Accurate Real-Time Lane Detection[C]// 2019 IEEE Intelligent Vehicles Symposium (IV). Paris, France: IEEE, 2019: 2563-2568.

(責(zé)任編輯 斛 畔)

修改稿收到日期為2023年10月21日。

主站蜘蛛池模板: 国产日韩AV高潮在线| 国产精品短篇二区| 2021天堂在线亚洲精品专区| 国产精品入口麻豆| 国产精品原创不卡在线| 国产在线视频二区| 日日噜噜夜夜狠狠视频| 成年人久久黄色网站| 99久久国产综合精品2023| 欧美h在线观看| 久久久久人妻精品一区三寸蜜桃| 欧美啪啪网| 亚洲精品无码久久久久苍井空| 国产精品自在拍首页视频8 | jizz在线免费播放| 欧美国产日韩另类| 九月婷婷亚洲综合在线| 97se亚洲综合在线| 亚洲aⅴ天堂| 色天天综合久久久久综合片| 青青青国产精品国产精品美女| 亚洲人精品亚洲人成在线| 日韩国产一区二区三区无码| 一本大道东京热无码av| 成年人福利视频| 5555国产在线观看| 97精品伊人久久大香线蕉| 无码电影在线观看| 亚洲国产高清精品线久久| 99久久精品久久久久久婷婷| 国产一二视频| 亚洲成人网在线播放| 国产亚洲精品在天天在线麻豆 | 久久中文字幕不卡一二区| 国产精品xxx| 老司机精品久久| 午夜视频www| 成人噜噜噜视频在线观看| 午夜少妇精品视频小电影| 91口爆吞精国产对白第三集| 欧美成一级| 亚洲婷婷丁香| 成人免费网站久久久| 国产一区二区三区日韩精品| 亚洲中文字幕在线观看| 国产美女无遮挡免费视频| 亚洲有无码中文网| 免费高清自慰一区二区三区| 亚洲精品午夜无码电影网| 国产三级毛片| 亚洲丝袜中文字幕| 成人福利在线视频免费观看| 免费观看成人久久网免费观看| 四虎永久在线| 亚洲欧洲免费视频| 99色亚洲国产精品11p| av在线5g无码天天| 欧美亚洲另类在线观看| 中文字幕1区2区| 欧美日韩国产在线播放| 在线播放国产一区| 丁香婷婷久久| 精品无码国产自产野外拍在线| 亚洲成人播放| 91福利在线观看视频| 呦视频在线一区二区三区| 黄色在线不卡| 亚洲综合精品第一页| 欧美一区国产| 精品国产电影久久九九| 国产日韩欧美中文| 亚洲a级在线观看| 欧美 亚洲 日韩 国产| 国产最新无码专区在线| 亚洲天堂网2014| 日本影院一区| h视频在线观看网站| 亚洲午夜天堂| 夜夜操国产| 成人午夜视频网站| 国产欧美日韩精品第二区| 国产无码制服丝袜|