999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于車道目標引導的車輛軌跡預測*

2023-08-25 01:01:08李碩賢劉一荻楊東方李琳輝
汽車工程 2023年8期
關鍵詞:特征智能融合

連 靜,李碩賢,劉一荻,楊東方,李琳輝

(1.大連理工大學,工業(yè)裝備結(jié)構(gòu)分析國家重點實驗室,大連 116024;2.大連理工大學汽車工程學院,大連 116024;3.重慶長安汽車股份有限公司,重慶 400023)

前言

為了使自動駕駛車輛能在各種交通場景中作出正確決策,提前預測周圍車輛的意圖或運動軌跡是必要的。車道線作為車輛行駛的參考線,對于準確預測車輛未來的運動軌跡具有重要意義。

傳統(tǒng)軌跡預測模型由于受到硬件水平的制約,模型容量較小,因此通常需要結(jié)合知識或規(guī)則系統(tǒng)來推理出車道參考線。例如文獻[1]中,作者提出通過隱馬爾科夫模型與知識推理得到車輛的動作意圖,然后根據(jù)動作意圖查詢得到車輛的目標路段區(qū)域,并生成車輛到達該區(qū)域的目標軌跡。而在文獻[2]中,作者以通過知識推理得到的車道參考線來引導長短時神經(jīng)網(wǎng)絡(LSTM)生成未來軌跡,利用深度學習在一定程度上降低了文獻[1]中對于知識系統(tǒng)的依賴,但其中的知識系統(tǒng)仍需要隨各種環(huán)境因素的變動來反復更新和維護。

近些年來隨著圖神經(jīng)網(wǎng)絡(GNN)、注意力網(wǎng)絡的發(fā)展,研究者常將車道線以及車道拓撲轉(zhuǎn)換為利于編碼的向量化結(jié)構(gòu),并通過這類網(wǎng)絡來將車道線信息引入到車輛運動特征中[3-5],與傳統(tǒng)方法不同,這類方法通常將周圍所有車道進行編碼,并讓網(wǎng)絡自適應地融合與駕駛目標或局部參考線相關聯(lián)的車道特征,有效地編碼及融合車道特征,并減少信息損失,是這類模型研究的發(fā)展趨勢。例如VectorNet[6]提出將車道段視為向量,采用池化來聚合向量中各個分段的幾何與位置信息,并用圖網(wǎng)絡來融合車道段特征,HiVT[5]、LaneGCN[7]、LaneRCNN[8]將各個車道分段視為獨立的圖節(jié)點,相比VectorNet 提高了車道節(jié)點特征的空間精度,并發(fā)揮注意力網(wǎng)絡所具有的靈活感受野的優(yōu)勢,由此更細致地感知周圍車道信息。MMPT[9]則將車道分段與車道同時用一個多尺度模型編碼,由此學習不同層次的車道特征。LaneGCN 沿地圖拓撲結(jié)構(gòu)建立了車道圖網(wǎng)絡,使場景信息能夠沿車道各個可能的行駛方向傳播,而LaneRCNN 在此基礎上拓展了候選車道范圍的定義(LaneRoI),由此增強對車道與車輛運動的關聯(lián)性的建模。這類在車道拓撲結(jié)構(gòu)上應用圖網(wǎng)絡的模型雖然有效地融合了車道信息,但在車道拓撲結(jié)構(gòu)復雜的場景下,會消耗較多計算資源。

一些研究在利用上述方法實現(xiàn)車道信息融合的基礎上,引入額外的監(jiān)督信號,提高與車輛運動相關聯(lián)車道特征的影響。例如PGP[10]基于對道路拓撲結(jié)構(gòu)的編碼結(jié)果,預測未來車輛經(jīng)過某個道路點時的移動方向,根據(jù)概率沿道路方向采樣并聚合道路特征。另外一些研究對運動目標進行預測,例如DSP[11]、DenseTNT[12]中預測道路中的稠密目標點,并融合與目標點相關聯(lián)的車道特征,由此提高車道信息融合的有效性,但DenseTNT 與DSP因為僅預測最終目標點,對連續(xù)時間關聯(lián)下的車道信息建模不足,且對于稠密道路目標點的編解碼,消耗運算資源較多。PGP 則考慮到對連續(xù)時間內(nèi)的車道信息監(jiān)督,使車道采樣在時間上前后關聯(lián),但在特征聚合的過程中弱化了這種時間前后關聯(lián)的影響,且其采樣過程增加了不確定性,使訓練效果受限。

以高效融合車道信息提升多樣化交通場景下車輛軌跡預測的精度和質(zhì)量為目標,本文所作出的主要創(chuàng)新點在于:

(1)提出一種基于注意力的車道目標點預測分支,由此監(jiān)督編碼器高效地融合與智能體局部運動目標相關聯(lián)的車道特征。

(2)構(gòu)建車道時空特征。基于圖網(wǎng)絡來感知車道與智能體間的空間聯(lián)系,并采用Transformer 來感知智能體連續(xù)運動對應的車道目標點的時序關聯(lián)信息。

(3)基于隨機深度與層縮放改進Transformer 的殘差結(jié)構(gòu),提高Transformer對測試數(shù)據(jù)的泛化能力。

本文所提出的模型結(jié)構(gòu)如圖1 所示,通過時序編碼器A 編碼得到淺層智能體特征。然后在各個歷史時間步下,通過車道特征融合模塊與車道目標點預測模塊,融合與車輛連續(xù)運動目標直接關聯(lián)的車道特征,并將車道特征融合模塊更新的智能體特征送入時序編碼器B,感知車道目標在時間尺度下的前后關聯(lián)信息,更新得到深層智能體特征,之后通過交互融合模塊,提取智能體間的交互特征,同時使局部車道目標信息在全局場景中產(chǎn)生進一步關聯(lián)。最后由軌跡預測模塊解碼得到多模態(tài)運動軌跡。

1 軌跡預測問題定義

對于一個場景,記[t=-h:0]為場景的歷史時刻,[t=0:f]記為場景的未來時刻,相鄰時刻間的時間間隔恒定。軌跡預測問題的定義是:已知場景中每一個智能體Ai在[t=-h:0]內(nèi)的位置點Hi,t,需要預測Ai在[t=0:f]內(nèi)的位置點Fi,t,同時考慮K種可能運動模式,則運動模式k∈[0,K]下的運動位置點為Fk,i,t,運動模式k對應整個未來時間段下的軌跡為Fk,i,F(xiàn)k,i的置信度為Pk,i,[t=0:f]內(nèi)的真實運動軌跡記為Li,t。

2 時序編碼器

近年來Transformer在自然語言處理領域的成功證明了其對于時間序列的表征能力,其全局感受野對于提取不同尺度的時序特征較為有利。本文采用Transformer 來編碼智能體的運動特征,首先由智能體的歷史位置序列Hi,t求出步長為1 的坐標增量ΔHi,t,由此表示車輛的瞬時方向、瞬時速度信息,為避免軌跡填充引起ΔHi,t中出現(xiàn)異常值,通過軌跡有效時間戳來將ΔHi,t中的無效位置處理為零。然后通過一組MLP 將H投影到維度為d的特征空間作為初始的智能體序列特征ei,t。考慮到Transformer 的置換不變性而無法感受到不同元素的相對位置關系,本文通過初始化一組帶有梯度的參數(shù)作為時間嵌入ωt,其長度為h,維度為d,并通過與ei,t拼接及維度變換得到新的智能體序列特征ei,t。MultiPath++[13]中提出用一組與輸入無關的可學習參數(shù)來建立一種智能體特征樣本庫,并建立智能體特征與這組參數(shù)之間的映射關系,從中查詢得到智能體特征,本文在此基礎上進行簡化,將可學習參數(shù)ξ拼接在智能體序列特征ei,t的尾部,使序列特征長度擴展至h+1,然后來實現(xiàn)上述特征映射的過程。本文構(gòu)建如圖2所示的Transformer模塊來實現(xiàn)時間序列編碼。

參考原始的Transformer 模型構(gòu)建兩個殘差模塊,分別計算自注意力特征與全連接特征,在自注意力特征的計算中,通過層歸一化與MLP 將智能體序列特征映射為Qt、Kt和Vt特征:

然后由Qt和Kt計算序列中元素t1相對于其余任一元素t2的注意力系數(shù)αt1,t2,其中t1、t2∈t,t=-h~0:

根據(jù)有效時間戳序列構(gòu)造填充掩膜來將式(2)所得到的注意力系數(shù)中的無效位置替換為負無窮,通過Softmax 使這些位置的注意力系數(shù)趨近于0,由此消除無效數(shù)據(jù)對序列特征的影響,然后計算得到新的序列特征:

本文采用多頭注意力來穩(wěn)定訓練,即將Qt、Kt、Vt特征均分為g組,使批大小(batch size)擴大為g倍,每組特征的維度為1,在完成注意力計算后,通過拼接多頭特征來得到最終的注意力特征。接下來,通過層歸一化與MLP 依次對注意力特征進行變換,得到全連接特征:

最后引入殘差求出新的智能體特征:

為了減少過擬合效應,本文在殘差路徑上引入隨機深度[14]與層縮放[15],其中的隨機深度(stochastic depth)是Dropout 在殘差路徑上的擴展,即訓練過程中的殘差路徑有一定的概率被遺棄,該概率隨著層數(shù)加深而增加,即

式中:pl為第l層的遺棄概率;L為總層數(shù);pL為最后一層的遺棄概率。通過設置隨機深度,可以使淺層網(wǎng)絡中對于學習有幫助的特征從更短的路徑傳到深層網(wǎng)絡中。而層縮放(layer scale)是對每一層的殘差特征在特征維度上進行獨立的縮放,使不同通道特征的差異更豐富,即

式中:e、e′分別為原始殘差特征與更新的殘差特征;wls為的可學習權(quán)重。通道數(shù)為d。

本文通過級聯(lián)多個Transformer模塊來構(gòu)建時序編碼器A 與時序編碼器B,并以t=0 的智能體序列特 征ei,t|t=0 作為智能體嵌 入bi,由此參與后續(xù)的編碼。

3 場景信息融合模塊

3.1 融合模塊的網(wǎng)絡結(jié)構(gòu)

對于鄰域元素信息的融合,圖網(wǎng)絡的顯著優(yōu)勢在于在不同的批次下,待融合元素的數(shù)量可以不同,因此使用圖網(wǎng)絡結(jié)構(gòu)能夠滿足車輛周圍的有向車道段、周圍智能體數(shù)量動態(tài)變化的特點。本文構(gòu)建如圖3 所示的圖網(wǎng)絡來融合車道特征與周圍智能體特征。

圖3 圖網(wǎng)絡結(jié)構(gòu)

以一種簡單情況解釋本文所構(gòu)建的圖網(wǎng)絡:假設車輛Ai周圍存在3 個鄰域元素Aj,j∈[j1,j2,j3],將Ai節(jié)點特證ei經(jīng)過MLP 投射為Qi,將Ai與Aj之間的邊特征eΦi,j與Aj節(jié)點特征ej拼接并經(jīng)過另一個MLP投射為Kj和Vj特征,通道數(shù)為d,根據(jù)式(1)得到Aj對Ai的注意力值:

將注意力系數(shù)αj作為權(quán)重,對Vj加權(quán)求和來將鄰域元素Aj(j∈[j1,j2,j3])的特征融合到Ai中,得到殘差特征eresi,即

本文采用了基于點乘的注意力計算方式來對不同長度的鄰域元素實現(xiàn)并行編碼,相比于原始的圖注意力網(wǎng)絡的注意力模塊,無額外的網(wǎng)絡權(quán)重,計算效率更高。

接下來添加全連接層來提高模型的表達能力,并將注意力特征與全連接特征構(gòu)建為殘差形式來提高泛化性能,得到更新后的Ai的特征:

式中:η1、η2表示層歸一化;?表示全連接層的MLP網(wǎng)絡結(jié)構(gòu)。

3.2 車道特征融合模塊

車道拓撲結(jié)構(gòu)能夠為軌跡預測提供多模態(tài)先驗信息。為此,基于3.1 節(jié)中的圖網(wǎng)絡結(jié)構(gòu)來融合智能體周圍的有向車道段特征。

隨著車輛的行進,特定距離內(nèi)的有向車道段會發(fā)生變化,因此對各個歷史時刻t,按照有向車道段對應線段中點到該時刻智能體位置點間的距離來篩選出一定范圍的有向車道段Nj,t,根據(jù)有向車道段向量坐標經(jīng)MLP 得到節(jié)點特征ej,t,而一系列連續(xù)的有向車道段包含了車道方向、車道分支、彎道曲率半徑等信息。為了進一步使網(wǎng)絡感知到有向車道段的連續(xù)性,并提取其與智能體之間的相對關系,根據(jù)有向車道段Nj,t對應的線段中點在智能體Ai局部坐標系下的坐標經(jīng)MLP 得到智能體與車道段間的邊特征eΦi,j,t,智能體Ai的節(jié)點特征為時序編碼器A 輸出的特征ei,t。這樣便得到如圖4所示的有向車道段與智能體間的時空圖結(jié)構(gòu),即

圖4 t時刻下智能體與周圍車道段間的圖結(jié)構(gòu)

接下來將3.1節(jié)中的圖網(wǎng)絡結(jié)構(gòu)擴展為h組,對Gi,t進行編碼,得到新的智能體特征e′i,t。在此之后,采用圖1 中所述的時序編碼器B 來進一步使有向車道段特征與智能體運動特征融合,并以t=0 的智能體序列特征ei,t|t=0作為智能體嵌入bi。

3.3 交互融合模塊

智能體間的交互與即將發(fā)生的行為直接關聯(lián),因此在車輛之間進行特征的融合與傳遞,更有助于網(wǎng)絡提取場景層面的信息。一方面經(jīng)過時序編碼器B 的編碼,智能體的自身運動特性被充分提取,并需要通過全局交互編碼來融入更多高層次的決策信息學習;另一方面因為融合了有向車道段特征,可通過全局交互編碼來進一步感知出全局的道路拓撲結(jié)構(gòu),并補充對智能體軌跡預測有利的額外特征。

本文選取當前時刻來進行全局交互編碼,即在當前時刻下,建立任意兩個智能體Ai與Aj之間的連接,與3.2 節(jié)所述類似,以某個智能體自身以及鄰域智能體的嵌入bi與bj分別作為節(jié)點特征ei與ej,根據(jù)鄰域智能體Aj在智能體Ai下的相對坐標經(jīng)MLP 得到各智能體間的邊特征eΠi,j,t,至此得到如圖5 所示的智能體間的交互圖結(jié)構(gòu):

圖5 智能體與周圍車輛間的圖結(jié)構(gòu)

經(jīng)過3.1 節(jié)中的圖網(wǎng)絡編碼,實現(xiàn)全局交互特征的提取,得到更新后的智能體嵌入b′i。

4 多任務預測模塊

4.1 車道目標點預測模塊

在多數(shù)融合車道信息的車輛軌跡預測模型中,車道編碼器參數(shù)由間接的監(jiān)督信號計算梯度,并由優(yōu)化器更新,即按照反向傳播的原理,軌跡預測回歸與分類產(chǎn)生的梯度依次通過車道編碼器與軌跡解碼器中間的各層反向傳遞至車道編碼器,使編碼器難以直接高效地表征車道結(jié)構(gòu)與未來車輛運動的關聯(lián),且使車道信息的融合過程不再具有可解釋性。本文提出一種能夠通過預測目標有向車道段,由此使車道編碼器學習車輛未來運動目標處的車道信息的監(jiān)督分支方法。車道目標點預測模塊見圖6。

圖6 車道目標點預測模塊

由圖6 可見,在車道數(shù)據(jù)預處理階段,處理得到未來候選目標向量掩膜以及車道目標向量標簽,其中候選目標向量掩膜根據(jù)車輛當前的行駛方向來進行篩選,即沿車輛行駛方向查詢距離該向量一定距離范圍之內(nèi)的有向車道段,作為未來候選目標向量,并在未來候選目標向量中計算與各個時刻軌跡點最接近的目標向量標簽,然后為未來候選路段生成一組特征嵌入eΔi,j,并與原始的有向車道段特征ej,t拼接,經(jīng)過MLP 維度變換來更新有向車道段特征。之后根據(jù)3.2 節(jié)中的車道特征融合模塊進行編碼,對th=n(n=-h~0)時刻下智能體對周圍車道段的多頭注意力系數(shù)進行求和以及Softmax 運算,得到未來時刻tf=f+n(n=-h~0)下的目標點,即以連續(xù)歷史時刻下的車道段注意力系數(shù)αj,th作為未來相同長度連續(xù)時刻的目標車道點的分類得分μj,tf。然后,基于交叉熵計算目標分類損失lossgoal來監(jiān)督網(wǎng)絡融合車輛目標點附近的車道特征。

車道目標點預測分支能夠監(jiān)督車道特征融合模塊自適應地學習與車輛局部運動目標相關聯(lián)的車道信息,因此后續(xù)時序編碼器B 能夠進一步編碼智能體不同時刻局部目標點之間的時序特征,同時交互融合模塊能夠使不同智能體之間與車道目標相關聯(lián)的特征在全局范圍內(nèi)充分傳播,進一步實現(xiàn)車道目標的引導作用。

4.2 軌跡預測模塊

為了獲得多模態(tài)預測軌跡,將3.3 節(jié)中更新的智能體嵌入輸入K組MLP 進行解碼,得到K個模態(tài)的未來軌跡及對應的置信度。由于同時預測多個模態(tài),損失函數(shù)需要引導網(wǎng)絡預測得盡可能接近真實的軌跡,同時為最接近真實軌跡的模態(tài)賦予最高的置信度。因此本文采用廣泛應用于多模態(tài)軌跡預測的軌跡回歸與分類監(jiān)督方式,以平均距離最接近真值的軌跡對應的模態(tài)為最佳模態(tài),然后對該條軌跡與真實軌跡作SmoothL1回歸損失lossreg,使預測結(jié)果其盡可能接近真實軌跡。并對該模態(tài)作交叉熵分類損失losscls,使該模態(tài)對應的置信度盡可能高。

4.3 訓練損失

最終的訓練損失為在4.1 和4.2 節(jié)中所述3 種損失的線性組合,即

其中的線性系數(shù)α與β在初期實驗測試階段分別設置為0.2與0.8,由此使車道目標點預測達到輔助軌跡預測的效果。

5 實驗結(jié)果及分析

5.1 實驗設置

本文應用Argoverse 運動預測數(shù)據(jù)集[16]來進行訓練和測試,并與主流模型進行對比,該數(shù)據(jù)集覆蓋了多樣化的城市交通場景,并且提供了矢量存儲的高精度地圖,其中訓練集與驗證集分別包含205 942、39 472 個樣本。該數(shù)據(jù)集提供2 s 歷史軌跡,并預測6 種模態(tài)下的3 s 未來軌跡,時間間隔為0.1 s。采用Argoverse 運動預測數(shù)據(jù)集定義的性能指標,即用最小軌跡終點偏移誤差(minimum final displacement error,minFDE)、最小平均軌跡偏移誤差(minimum average displacement error,minADE)和錯失率(miss rate,MR)來評估模型的性能。

為了進一步驗證模型的泛化性能,本文在長安汽車數(shù)據(jù)集下訓練及測試,長安汽車數(shù)據(jù)集涵蓋國內(nèi)多個地區(qū)的城市道路、結(jié)構(gòu)化公路場景中車輛的軌跡數(shù)據(jù),用于訓練及驗證的數(shù)據(jù)集分別包含67 117、16 857 個樣本。軌跡數(shù)據(jù)的時間間隔為0.1 s,時長為12 s,其中前4 s作為觀測歷史,選擇預測3 及8 s 的未來時長進行軌跡預測,采用最小軌跡終點偏移誤差minFDE與錯失率MR兩個指標進行評估,與Argoverse 實驗設置不同的是,選擇預測模態(tài)數(shù)為1來滿足實際下游任務的需求。

本文中在RTX3090 GPU 上訓練所提出的模型,在Argoverse 數(shù)據(jù)集下采用的特征通道數(shù)d=128 或d=256,分別用GSA-S 和GSA-L 表示,在長安汽車數(shù)據(jù)集下采用d=128。兩個時序編碼器中采用的Transformer 數(shù)量均為3,Transformer 與圖網(wǎng)絡中的注意力頭數(shù)均為8,隨機深度數(shù)值為0.1。訓練的優(yōu)化器為AdamW[17],除歸一化層、偏置參數(shù)以及正余弦時間序列嵌入?yún)?shù)外,其余參數(shù)設置權(quán)重衰減系數(shù)均為1.0E10-3,以減輕訓練集過擬合。學習率設置為0.000 1,并采用余弦衰減策略調(diào)整學習率。

5.2 驗證精度與主流方法的對比實驗

在Argoverse 驗證集下對所提出的GSA 方法進行測試,定量測試結(jié)果如表1 所示。GSA-L 在minADE、minFDE、missRate指標上均優(yōu)于目前主流模型,與DSP 相比,minADE降低7.3%,minFDE降低6.1%,missRate降 低20.0%,與LaneGCN 相 比,minADE降低9.9%,minFDE降低15.6%,missRate降低27.3%。因此本文所提出的GSA 模型在預測精度、預測整體質(zhì)量上具有明顯優(yōu)勢。

表1 Argoverse驗證集下預測性能指標對比

GSA-L 與GSA-S 相比具有更大的模型容量,從表1可知,GSA-L比GSA-S性能進一步提升。

表2 是長安汽車數(shù)據(jù)集下不同預測時長的測試結(jié)果,K=1 為下游任務通常實際所用到的模態(tài)數(shù)量。在該條件下,預測模型面臨的不確定性因素增加,GSA 模型在3 s 的情況下有81%的場景預測結(jié)果未漏失,而在8 s 情況下,有44%的場景預測結(jié)果未漏失,對應的minFDE分別為2.12、9.18 m。由長安汽車數(shù)據(jù)集下的實驗結(jié)果表明,GSA 在路況更為復雜的國內(nèi)交通場景下仍保持了良好的有效性。

本文選取Argoverse 驗證集中的3個典型場景對預測結(jié)果進行定性分析,如圖7 所示。圖中的行表示不同的交通場景,圖中的列表示不同模型的推理結(jié)果,第一列對應GSA 模型,第二列對應DSP 模型,第三列對應LaneGCN 模型。圖中的道路拓撲及其邊界由灰色區(qū)域表示,待預測智能體過去2 s的觀測軌跡由橙色軌跡表示,未來3 s的預測軌跡由紅色軌跡表示,多模態(tài)預測結(jié)果由綠色表示。在場景1 中,目標車輛位于左轉(zhuǎn)與直行車道上,即將通過路口,此時GSA 相比于LaneGCN 模型更準確地預測出直行軌跡,而DSP 模型未能給出準確預測。對于可能出現(xiàn)的左轉(zhuǎn),GSA給出了更為合理的內(nèi)切軌跡,而另外兩個模型預測的軌跡傾向于外切。在場景二中,目標車輛從道路一側(cè)出發(fā),調(diào)整方向后駛向路口。此時GSA 相對準確地預測出直行軌跡,另外兩個模型未能準確預測直行軌跡,且GSA 預測結(jié)果中的各種可能性分布較為分散,多模態(tài)特性更為顯著。在場景3 中,待預測目標在路口處加速,并由于某種路況原因靠近道路左邊界,此時GSA 模型捕獲了路況變化,并預測出這種情況下的目標軌跡,而且對于可能的左轉(zhuǎn)GSA 預測出更為合理的內(nèi)切軌跡。另外兩種模型未捕獲到路況的變化,因此直行模態(tài)僅預測出車輛一直加速的軌跡。表明GSA 模型中所采用的分階段時序編碼器能夠充分提取歷史運動信息,因此能夠相對準確地推理出車輛的低層次運動特征,例如準確推理出直線加速時的最終位置;而連續(xù)車道目標點預測輔助下的車道特征融合則能夠更為直接地融合與智能體運動相關聯(lián)的車道信息,例如能夠預測出左轉(zhuǎn)時多數(shù)駕駛員會采取的內(nèi)切軌跡,此外,交互融合模塊能夠融合場景中的動態(tài)交通信息,例如捕捉到場景3 中的動態(tài)路況變化,來適當?shù)卣{(diào)整完全沿道路中心行駛的軌跡,使預測結(jié)果更合理。

圖7 典型場景下的預測結(jié)果對比

5.3 GSA中主要模塊的消融實驗

本文通過消融實驗來驗證GSA 中各主要模塊的作用。消融訓練過程中驗證指標隨輪次的變化如圖8 所示。圖8 中模型1 表示未進行消融的GSA-S模型,在模型2中,去除GSA-S 中的車道目標點預測模塊;在模型3中,將GSA-S 中的交互融合模塊中的圖網(wǎng)絡替換為采用互注意力的Transformer結(jié)構(gòu)。可以看到,各個模型在前半部分中的差距不明顯,在后半部分則逐漸顯示出差距,并收斂到不同值,模型2與模型3 最終收斂時的minADE、minFDE均大于模型1的收斂值,模型2的曲線說明車道目標點預測模塊對精度指標有小幅度的影響。

模型3 的曲線說明對于交互融合模塊,圖網(wǎng)絡相比于Transformer具有更好的性能。一方面本文所構(gòu)建的圖網(wǎng)絡具有與Transformer類似的全連接層與殘差結(jié)構(gòu),提高了圖網(wǎng)絡自身的泛化性能,另一方面,圖網(wǎng)絡可以對智能體間的相對關系進行顯式的表達與編碼,即將智能體相對位置坐標作為有向邊的屬性進行編碼,更適合于具有明顯交互屬性的動態(tài)交通場景,并實現(xiàn)智能體特征的聚合與傳播。消融實驗結(jié)果證明本文所提出的主要模塊均對驗證精度具有正向作用。

為了進一步驗證車道目標點預測模塊的作用,在Argoverse 數(shù)據(jù)集下選取兩個場景,可視化最終時刻預測出的車道目標點。如圖9 所示,藍色的星形表示預測出的車道目標點,顏色越深表示得分越高,紅色與黃色軌跡分別表示觀測的未來與歷史軌跡,從這兩個場景中可以看出,在目標車輛轉(zhuǎn)彎情況下,車道目標點預測模塊能夠準確預測車道目標點,因此,可進一步通過本文所提出的車道目標引導機制,融合與運動目標直接相關的車道目標信息。

圖9 轉(zhuǎn)彎場景中模型預測出的車道目標

6 結(jié)論

針對車輛軌跡預測任務中如何高效提取車道特征的問題,本文提出了一種基于目標車道引導的軌跡預測方法,該方法基于注意力網(wǎng)絡構(gòu)建有效且直接的目標預測分支,從而引導網(wǎng)絡融合與運動目標直接關聯(lián)的車道信息,并在連續(xù)時間范圍內(nèi)編碼車道拓撲信息變化,通過Transformer 提取車輛低層運動信息,以及融合車道特征在時間尺度下的前后關聯(lián)信息,其中Transformer的殘差層經(jīng)過改進,提高多層編碼時的性能。在Argoverse 下的實驗結(jié)果表明,本文所提出的方法在各個指標上顯著優(yōu)于目前主流預測模型,同時在長安汽車數(shù)據(jù)集下的實驗結(jié)果證明本文方法對于實際復雜路況場景具有較好的泛化能力。

猜你喜歡
特征智能融合
村企黨建聯(lián)建融合共贏
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
《融合》
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
智能前沿
文苑(2018年23期)2018-12-14 01:06:06
智能前沿
文苑(2018年19期)2018-11-09 01:30:14
智能前沿
文苑(2018年17期)2018-11-09 01:29:26
智能前沿
文苑(2018年21期)2018-11-09 01:22:32
主站蜘蛛池模板: 久草视频精品| 中文字幕在线欧美| 无码aaa视频| 亚洲欧美日韩另类在线一| 午夜欧美理论2019理论| 亚洲国产综合精品一区| 一区二区三区四区日韩| 国产高清不卡视频| 91亚洲精品国产自在现线| 伊人天堂网| 亚洲精品成人片在线观看| 国产丝袜一区二区三区视频免下载| 免费一级成人毛片| 国产97公开成人免费视频| 亚洲综合香蕉| 四虎成人在线视频| 中文字幕va| 国产女人在线观看| 精品欧美视频| 91福利国产成人精品导航| 亚洲香蕉在线| 色婷婷久久| 国产欧美又粗又猛又爽老| 久久久久亚洲Av片无码观看| 色综合天天视频在线观看| 国产鲁鲁视频在线观看| 人妻丰满熟妇AV无码区| 亚洲AⅤ无码日韩AV无码网站| AⅤ色综合久久天堂AV色综合| 91精品小视频| 国产激情在线视频| 亚洲欧洲日韩久久狠狠爱| 欧美成a人片在线观看| 色男人的天堂久久综合| 国产黄色片在线看| 这里只有精品在线| 精品小视频在线观看| 精品久久国产综合精麻豆| 一本久道久久综合多人| 福利在线不卡一区| 亚洲精品久综合蜜| 无遮挡一级毛片呦女视频| 国产精品男人的天堂| 99久久精品国产综合婷婷| 免费又黄又爽又猛大片午夜| 亚洲高清中文字幕| 亚洲人成色77777在线观看| 国产精品尤物铁牛tv| 亚洲欧美在线看片AI| 国产精品女在线观看| 天天色天天操综合网| 日本草草视频在线观看| 伊人天堂网| 四虎在线观看视频高清无码| 亚洲综合二区| 91啪在线| 91精品国产91久久久久久三级| 国产第一页屁屁影院| 午夜国产精品视频| 久久96热在精品国产高清| 人妻精品久久久无码区色视| 乱码国产乱码精品精在线播放| 91青草视频| 免费va国产在线观看| 亚洲毛片在线看| 天堂网亚洲系列亚洲系列| 亚洲精品黄| 在线观看国产精品一区| 亚洲福利一区二区三区| 亚洲无码视频一区二区三区| 午夜精品久久久久久久无码软件 | 国产精品99一区不卡| 色偷偷一区二区三区| 亚洲人在线| 免费人成网站在线观看欧美| 国产精品无码AV中文| 国产精品免费福利久久播放| 国产中文一区a级毛片视频| 波多野结衣的av一区二区三区| 国产一区二区三区免费观看| 亚洲一欧洲中文字幕在线| 国产精品999在线|