999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于圖時空注意力的多車交互軌跡預測模型

2025-03-27 00:00:00張新鋒趙娟劉國華劉鵬菲
汽車技術 2025年3期
關鍵詞:模型

【摘要】為有效提取高速交通場景下車輛間的交互特征,從而準確預測動態障礙軌跡,基于編-解碼框架,提出基于圖時空注意力的多車交互軌跡預測模型。結合斥力場和圖模型建立車-車圖交互場,利用節點和鄰接特征矩陣表征車輛之間的動態交互,通過圖空間注意力和時間多頭注意力提取深層時空交互,獲取圖時空融合編碼;將車輛橫縱向行為意圖獨熱編碼與其拼接,實現目標車輛多模態軌跡預測。利用NGSIM數據集進行驗證,相較于其他6種模型,該模型RMSE和NLL值最低;通過消融實驗進一步驗證圖交互場的有效性,結果表明,該模型能夠有效提高車輛軌跡預測精度。

主題詞:多車交互 斥力場 注意力機制 圖模型 軌跡預測

中圖分類號:TP399" "文獻標志碼:A" "DOI: 10.19620/j.cnki.1000-3703.20240734

Multi-Vehicle Interaction Trajectory Prediction Model Based on Graph Spatial-Temporal Attention

Zhang Xinfeng1,2, Zhao Juan1, Liu Guohua1, Liu Pengfei1

(1. School of Automobile, Chang’an University, Xi’an 710064; 2. School of Transportation and Logistics Engineering, Xinjiang Agricultural University, Urumqi 830052)

【Abstract】In order to effectively extract interaction features among vehicles in high-speed traffic scenarios, thus accurately predict the trajectories of dynamic obstacles, this paper proposes a multi-vehicle interaction trajectory prediction model using the coding-decoding framework based on the graph spatial-temporal attention mechanism. The vehicle-to-vehicle graph interaction field is established by combining the repulsive force field and the graph model, the node feature matrix and the adjacency feature matrix are used to characterize the dynamic interaction between the vehicle and the surrounding vehicles, and the deep spatial-temporal interaction features are extracted by the graph spatial attention and temporal polytope attention to obtain the graph spatial-temporal fusion coding features. The one-hot encoding of the longitudinal and lateral behavior intentions of the vehicles is concatenated with the encoding to achieve multimodal trajectory prediction for the target vehicles. Validation using the NGSIM dataset shows that, compared with 6 other models, the proposed model achieves the lowest RMSE and NLL values. Ablation experiments further validate the effectiveness of the graph interaction field, demonstrating that the model can significantly improve the accuracy of vehicle trajectory prediction.

Key words: Multi-vehicle interaction, Repulsive fields, Attentional mechanisms, Graph modeling, Trajectory prediction

1 前言

準確預測交通參與者未來運動軌跡有助于自動駕駛系統更好地適應復雜動態交通場景,提高決策準確性和駕駛安全性[1]。

針對自動駕駛軌跡預測,已有大量研究。Carvalho等[2]提出綜合環境建模和隨機模型預測控制(Model Predictive Control,MPC)框架,利用交互式多模型和卡爾曼濾波預測目標車輛軌跡,但依賴當前狀態迭代計算。Danielsson等[3]使用蒙特卡洛方法預測交通場景中的潛在危險,但需消耗大量計算資源生成隨機樣本,且結果準確性過于依賴樣本數量和質量。

Mandalia等[4]首次利用支持向量機(Support Vector Machine,SVM)通過軌跡坐標、速度等特征實現車輛換道意圖預測識別。Izquierdo等[5]采用SVM實現對車輛未來動作的預測,且預測精度得到顯著提升。Deng等[6]通過模糊邏輯對駕駛場景分類,并針對不同駕駛場景實現車輛駕駛行為的預測。Gao等[7]采用隱馬爾可夫模型(Hidden Markov Model,HMM)對車輛軌跡進行預測。然而,這類方法忽略了環境和交互因素,并不適用于所有交通環境。

隨著深度學習的應用,車輛軌跡預測方法取得顯著進展。Dai等[8]考慮車輛時空特征利用長短期記憶網絡(Long Short-Term Memory,LSTM)實現車輛軌跡預測,并通過NGSIM數據集進行驗證。季學武等[9]利用LSTM編碼器將車輛軌跡信息編碼為上下文向量,并將其未來位置表示為概率分布,實現了車輛軌跡的多模態預測。Messaoud等[10]利用注意力機制為周車分配權重,提出基于多頭注意力機制的LSTM軌跡預測模型。Phan-Minh等[11]將圖像作為輸入,通過卷積神經網絡(Convolutional Neural Network,CNN)生成車輛未來軌跡。近年來,圖神經網絡發展迅速,Sheng等[12]利用圖卷積網絡提取車輛間時空交互特征,實現車輛未來軌跡預測。盡管當前深度學習軌跡預測方法已取得較為理想的預測效果,但多數模型直接將車間歐式距離和相對運動狀態拼接輸入注意力機制提取潛在特征變量,忽視了動態車輛間相對運動的影響機理。

因此,本文引入斥力場和圖模型表征動態車輛之間的空間相互作用機理,并結合時空注意力機制,基于圖神經網絡和長短時記憶網絡提出基于圖時空注意力機制的多車交互軌跡預測模型(Graph Spatial-Temporal Attenntion Mechanism,GSTAM)。

2 車輛軌跡預測問題描述

自動駕駛汽車在行駛過程中受到周圍車輛的影響,目標車輛未來軌跡的準確預測是自動駕駛汽車規劃未來路徑和確保行駛安全的基礎。本文通過獲取車輛行駛時的交通信息以及目標車輛與周圍車輛之間的交互關系,來生成準確、安全的未來軌跡。

車輛軌跡預測問題描述為:在t時刻,將目標車輛與周圍車輛的歷史軌跡特征作為模型的輸入,包括車輛橫縱坐標、速度及加速度等,得到目標車輛未來預測時刻橫縱坐標。將車輛i的歷史軌跡[Xi]表示為:

[Xi=p1i, p2i, …, pTi] (1)

式中:T為觀測歷史軌跡序列的長度,[pti=xti,yti,vti,ati]為車輛i在時刻t的橫坐標、縱坐標、速度及加速度。

將車輛i在H預測時長內的軌跡真值Yi與預測值[Yi]表示為:

[Yi=pT+1i, pT+2i, …, pT+Hi] (2)

[Yi=pT+1i, pT+2i, …, pT+Hi] (3)

式中:[pti=xti,yti]為車輛i在時刻t的預測值。

把目標車輛與周圍車輛1~T時刻的歷史運動狀態輸入網絡模型,可得到目標車輛在(T+1)~(T+H)時刻的未來預測軌跡坐標[Yi]。

3 基于圖時空注意力機制的多車交互軌跡預測模型架構

本文所提出的車輛軌跡預測模型主要包括編碼器和解碼器兩部分,其模型架構如圖1所示,編碼器由斥力場模塊、車-車圖交互場模塊、圖時空注意力編碼模塊組成,主要對車輛節點和車輛歷史運動信息進行編碼,形成特征向量。解碼器通過對特征向量進行解碼處理,最終生成多模態預測軌跡。

3.1 車-車圖交互場構建

3.1.1 斥力場模塊

人工勢場模型是一種用于路徑規劃和避障的算法,其基本原理是通過構建一個虛擬的力場,使車輛能夠自動避開障礙物并朝向目標點移動[13]。其中障礙物被視為斥力源,對車輛產生排斥力,迫使車輛避開周圍障礙物。當車輛處于多車交互的復雜交通環境時,通過這種斥力機制可以揭示其潛在的碰撞風險,對軌跡進行調節,從而保證自車安全的行車空間。

周圍車輛對目標車輛的影響隨距離的增加而逐漸變小,這種影響與車輛運動狀態信息高度相關。本文結合斥力場理論,采用改進二元正態分布將目標車輛與周圍車輛的交互作用表示為:

[Frep=R?eacosβ-xt-xi22σ2x+yt-yi22σ2y] (4)

[R=λLt+Wt1.566v6.687×10-14+0.334 5] (5)

式中:[xt、yt、xi、yi]分別為目標車輛與周車的橫、縱坐標;[R]為目標車輛的危險度函數;[Lt、Wt]分別為目標車輛的長度和寬度;[β]為周車與目標車輛中心點的連線與[x]軸正方向的夾角;[σx、σy]為交互作用力場橫縱分布因子,與目標車輛[x、y]方向的速度和加速度[vx、vy、ax、ay]以及速度和加速度影響因子[γ、δ]相關,計算公式如下:

[σx=Lt1+γa2x+δv2x+δx] (6)

[σy=Wt1+γa2y+δv2y+δy] (7)

3.1.2 車-車圖交互場

圖模型是一種采用圖形來表示對象之間的關系或結構的數學模型,其中節點表示對象,邊表示它們之間的關系。采用圖結構來表征多車交互交通場景下目標車輛與周圍車輛之間的交互作用,建立的車-車圖交互場如圖2所示。

利用節點特征矩陣和鄰接特征矩陣對車輛節點以及車-車之間的交互關系進行表征,時刻t車輛節點特征矩陣[HtV]為:

[HtV=nodetii∈Θtvehicle] (8)

[nodeti=xti-xt-1i,yti-yt-1i,vti] (9)

式中:[Θvehicle]為當前場景下所有車輛,[xti、yti、vti]為t時刻目標車輛節點i的橫、縱坐標和速度,[xti-xt-1i、yti-yt-1i]為時刻t目標車輛節點i的橫、縱軸軌跡向量分量。

對于鄰接特征矩陣,結合斥力場模塊,可得時刻t鄰接特征矩陣[XtV]為:

[XtV=Aji?etj→ii∈Θv, j?Θinbr] (10)

[etj→i=Fj→irep, xtj-xti, ytj-yti] (11)

式中:[Θinbr]為目標車輛節點i的所有鄰接車輛節點;[Fj→irep]為鄰接車輛節點j與目標車輛節點i的斥力場值,由3.1.1節計算得到;[Aji]為鄰接矩陣。

在車-車圖交互場構建中,車輛節點之間的交互作用通過算法實現自動標注。斥力場根據車輛間的距離及其相對速度和加速度量化交互強度,當斥力場值[Frep]超過模型損失最小的斥力場值[F*rep](由模型訓練得到)時,即判定兩車間存在交互作用,模型將鄰接矩陣的相應元素置為1,否則為0。鄰接矩陣計算公式如下:

[Aji=1, 節點 j到i存在交互0, 節點 j到i沒有交互] (12)

3.2 圖時空注意力編碼模塊

圖注意力(Graph Attention)能夠對圖結構數據進行有效處理,并利用注意力機制來改進圖神經網絡[14](Graph Neural Network,GNN)的消息傳遞方式,每個節點根據其鄰接節點的重要性來計算加權平均特征。本文利用圖時空注意力編碼模塊,深度提取被預測車輛與周圍車輛之間的時空耦合交互。

3.2.1 空間圖注意力編碼模塊

在多車交互的交通場景下,目標車輛的駕駛行為與周圍車輛的駕駛行為高度相關。在空間維度上,設計空間圖注意力編碼模塊,如圖3所示,用于提取目標車輛與周圍車輛在空間維度的高度關聯性。

首先,將車-車圖交互場得到的目標車輛節點特征[nodeti]與鄰接車輛節點特征[nodetj]進行緯度變換,以確保后續圖空間注意力機制能夠深度提取車輛之間的空間交互關系,具體公式如下:

[hti=?centernodeti] (13)

[htij=?nbrnodetj,etj→i] (14)

式中:[?center]、[?nbr]為特征向量經過連續的全連接層、層歸一化及ReLU激活變換,[hti]為t時刻目標車輛節點特征編碼,[htij]為t時刻目標車輛節點i與其鄰接車輛節點j的交互特征編碼。

在研究目標車輛與周圍車輛的空間交互作用時,僅考慮它們之間的歐式距離是不夠合理的。雖然歐式距離是一個基本的衡量標準,但它忽略了影響車輛交互的動態信息。因此,本文基于建立的車-車圖交互場模型,結合注意力機制[15],形成空間圖注意力機制,深度提取車輛在空間上的交互行為。將目標車輛節點特征編碼[hti]和交互特征編碼[htij]輸入至空間注意力模塊,注意力機制通過Query(查詢)與Key(鍵)的注意力匯聚實現對Value(值)的注意力權重分配,生成最終的輸出結果,其具體的實現過程為:

[Qt=Wq?hti, Kt=Wk?htij, Vt=Wv·htij] (15)

式中:[Qt]、[Kt]、[Vt]為t時刻注意力機制的查詢、鍵、值,[Wq、Wk、Wv]為空間注意力中對應的線性權重矩陣。

計算[htij]對[hti]的注意力值為:

[Zti=softmaxQtdkKtT·Vt] (16)

將維度d等分m份,d/m=dk,利用門控函數對目標車輛節點與鄰接車輛節點的交互信息進行更新與聚合,具體的實現過程為:

[gateti=sigmoidWcenterhti+Wnbr·Zti] (17)

[Zti=gateti⊙Wself·hti+1-gateti⊙Zti] (18)

式中:[gateti]為t時刻門控機制的輸出,[Zti]為更新聚合后的目標車輛節點特征,[Wcenter]、[Wnbr]、[Wself]為對應的權重矩陣,[⊙]為矩陣的乘積。

將歷史軌跡時長內的車輛運動特征通過空間圖注意力編碼模塊可得目標車輛與周圍車輛的空間交互特征[Senc?RN×T×D],[N]為當前交通場景所含車輛節點數量總和,[T]為歷史軌跡時長,[D]為特征維度。

3.2.2 時間多頭注意力模塊

在當前時刻,車輛自身狀態與其過去的狀態緊密相關,且車輛在行駛中與周圍車輛的空間交互隨時間動態變化。因此,設計時間多頭注意力模塊,如圖4所示,用于捕捉車輛之間隨時間推移而變化的空間交互的內在相關性。

首先,將空間交互特征編碼[Senc]作為輸入,并引入時間掩碼矩陣,以此確保僅計算當前時刻的時間依賴特征。定義時間掩碼矩陣為上三角矩陣,設置需要掩蓋的位置為負無窮或者極小值,使得其在后續操作中注意力權重趨近于零。此外,構建位置編碼以便模型理解輸入歷史軌跡特征的順序性,采用三角函數對位置編碼,可表示為:

[PoEt,2i=sint10 0002iD] (19)

[PoEt,2i+1=cost10 0002iD] (20)

式中:[PoEt,2i]和[PoEt,2i+1]分別為時刻t歷史軌跡空間特征在[2i]和[2i+1]維度的位置編碼。

將位置編碼與空間交互特征編碼結合,結合多頭注意力機制,提取車輛在時間維度上的交互變化。具體步驟如下:

[Qi=WQ1Senc+PoE, Ki=WK1Senc+PoE, Vi=WV1Senc+PoE ] (21)

式中:[WQ1、WK1、WV1]為時間注意力機制中的線性權重矩陣。

計算時刻t的注意力值[headi]:

[headi=softmaxQidkKiT·Vi] (22)

多頭注意力機制能夠避免注意力過度集中在自身位置,并對軌跡時間特征從不同層面進行提取,因此將式(22)平行計算h次,Con為拼接操作,將h個注意力頭進行合并:

[MhAqt,kt, vt=Conhead1, head2, …, headh] (23)

在特征維度上對[Qi]、[Ki]、[Vi]均分并求其注意力值[headi],隨后進行拼接并經過層歸一化、殘差連接及MLP得到其完整的圖時空融合特征編碼[STenc?RN×D],[N]為當前交通場景所含車輛節點數量總和。

3.3 解碼器

車輛行駛軌跡通常呈現多模態特征,通過將駕駛員的意圖建模為橫向與縱向行為來進行表征。橫向行為包括當前車道行駛、左換道、右換道,而縱向行為則涵蓋恒定速度、加速、減速。將橫向和縱向行為類型組合構成駕駛行為集N,即:N={ni|i=1,2,…,9}。

將圖時空注意力編碼模塊輸出的圖時空融合特征STenc經過含Softmax激活函數的全連接(Fully Connected,FC)層,可得橫向行為和縱向行為意圖概率PH、PV,進一步計算每種駕駛行為意圖的概率分布P(ni|X)。具體可表示為:

[PH=SoftmaxSTencWH+bHPV=SoftmaxSTencWV+bV] (24)

式中,PH、PV為車輛橫、縱向行為意圖概率;STenc為圖時空注意力編碼模塊輸出的圖時空融合特征;Softmax為一種激活函數,[WH]、[WV]為對應的權重矩陣,[bH]、[bV]為對應的偏置。

利用二元高斯分布對未來軌跡的不確定性進行建模,可表示為:

[PY|X=iPRY|niPni|X,ni∈N] (25)

式中:R=[Rt+1,…,Rt+tf]為二元高斯分布參數,[Rt=μt,Σt]為車輛未來位置在時刻t的均值和協方差。

然后,將橫縱向行為意圖的獨熱編碼向量與圖時空注意力編碼模塊的輸出STenc拼接,通過LSTM解碼器得到目標車輛的未來預測軌跡,具體表示為:

[et=FCeConcatSTenc,PH,PV,We] (26)

[htd=LSTMet,ht-1d,Wdecoder] (27)

[θt=μt,σt, ρt=FCθhtd,Wθ] (28)

式中:We和[Wθ]為對應FC層的可學習權重矩陣,Wdecoder為解碼器的可學習權重矩陣,[μt]、[σt]、[ρt]分別為未來軌跡預測值的均值、方差和相關系數。

[μt]和[Σt]為車輛在未來時刻的坐標位置和不確定性程度,可表示為:

[μt=μtxμty, Σt=σtx2σtxσtyρtσtxσtyρtσty2] (29)

3.4 損失函數

均方誤差(Mean Squared Error,MSE)反映了模型預測值與實際觀測值之間的差異程度,是衡量模型預測性能的重要指標。在模型訓練前n輪次的初期階段,由于模型參數尚未收斂,使用MSE能夠幫助模型快速優化,減少初始的預測誤差,因此將均方誤差作為模型初始訓練損失函數。MSE損失函數可表示為:

[M=t=1Tfxtte-xtpd2+ytte-ytpd2] (30)

式中:[xtte,ytte]和[xtpd,ytpd]分別為車輛在時刻t的實際坐標和預測坐標。

車輛軌跡預測問題本質上是一個多模態問題,第n輪次之后,單純的MSE難以刻畫軌跡的多樣性和不確定性。而極大似然估計的負對數似然(Negative Log-Likelihood,NLL)可以通過對預測軌跡的概率分布建模,更好地處理多模態輸出,提高預測的準確性和穩定性。通過對訓練損失值和驗證集的監測,當模型的MSE損失在約10輪訓練后趨于穩定,因此將NLL作為模型訓練后期階段的損失函數。NLL損失函數可表示為:

[L=-logPRY|nte, XPnte|X] (31)

這種根據不同階段選擇合適的損失函數的訓練策略,提高了模型的預測精度和收斂速度。

4 基于NGSIM數據集的實驗驗證與分析

4.1 數據集及其衡量方式

本文采用美國聯邦公路管理局(Federal Highway Administration,FHWA)收集的下一代仿真[16](Next Generation Simulation,NGSIM)數據集,選取其中的US101、I-80高速公路路段車輛軌跡數據集驗證第3節提出的軌跡預測模型性能,數據集中以10 Hz的頻率統計了車輛及前后車輛的詳細運動信息,包括車輛尺寸、橫縱坐標、車道信息、速度以及加速度等,研究區域路段如圖5所示。

由于I-80和US-101數據集是從高速公路上方多個攝像頭采集的視頻中提取得到,因此存在一定的噪聲和誤差。首先利用多步濾波法和對數指數平均對車輛軌跡數據進行預處理,并利用處理后的位置數據重構速度、加速度等信息[17]。利用預處理后的數據集提取車輛軌跡,其中每條軌跡被分為8 s的片段,前3 s為輸入模型的歷史軌跡時長,后5 s則用于未來軌跡的預測。將數據集按7∶1∶2的比例劃分為訓練數據、評估數據和測試數據。

4.2 訓練參數設置

利用Pytorch深度學習框架對本文提出的基于圖時空注意力的多車交互軌跡預測模型進行訓練與評估。模型的超參數根據文獻[18]~文獻[22]選取,設置批量大小為128,初始學習率為0.000 5,丟棄率為0.1,權重衰減為0.000 1,并通過Adam優化器對模型進行參數優化。

4.3 試驗結果與分析

采用以下兩種指標對模型軌跡預測質量與效果進行合理評估。

均方根誤差(Root Mean Square Error,RMSE)是車輛軌跡預測的常用評價指標之一,時刻[t]的RMSE計算公式為:

[R=1Ni=1Nxti-xti2+yti-yti2] (32)

式中:N為車輛樣本數,[xti,yti]和[xti,yti]分別對應車輛i在時刻t的預測位置和地面真實位置。

真實軌跡的NLL側重于評估多模態軌跡預測的準確性。計算公式為:

[N=-logiPθY|mi,XPmi|X,mi∈M] (33)

4.3.1 測試集實驗結果

在完成模型訓練后,采用測試數據對模型的預測效果進行評估,模型在1~5 s預測時長內的RMSE和NLL指標值如表1所示。

對表1進行分析可知,在1~5 s的預測時長上所提出的預測模型均具有較低的RMSE和NLL值,這表明該模型可以對車輛軌跡進行較為準確的預測,此外,可以看出,在5 s的長時預測中,該模型依然展現出良好的性能。

4.3.2 模型對比實驗結果

為了驗證模型的預測精度,選擇CV、CS-LSTM[18]、PiP[19]、S-LSTM[20]、ADI-DCS-GRU(M)[21]、TSMHA[22]6種模型與GSTAM模型進行對比分析,所有模型的超參數與4.2節相同。對比模型如下:

a. CV:通過恒速卡爾曼濾波器得到車輛的未來預測軌跡;

b. CS-LSTM:利用編-解碼結構,并疊加卷積和池化層捕捉車輛時空交互,生成目標車輛的多模態軌跡預測;

c. PiP:考慮自車和周圍目標車輛的空間關系,利用注意力機制實現軌跡預測;

d. S-LSTM:利用LSTM編-解碼器預測車輛未來軌跡;

e. ADI-DCS-GRU(M):利用注意力機制和深度交互GRU算法實現車輛未來軌跡的多模態預測;

f. TSMHA:考慮時空維度特征影響,利用多頭注意力機制實現車輛未來軌跡的預測。

利用RMSE和NLL兩個指標對本文模型與6種模型的結果[18-22]進行對比分析,結果如圖6、圖7所示。

對圖6、圖7分析可知,本文提出的模型擁有最低的RMSE和NLL值,相較于其他模型,能夠更加準確地對目標車輛的未來軌跡進行預測。

4.4 消融實驗

消融實驗通過逐步剔除或更改模型的特定組成部分,驗證各個模塊對模型整體性能的重要性程度。

將組成該預測模型的車-車圖交互場、空間圖注意力交互、時間多頭注意力模塊分別進行消融,選用5 s長時多模態預測效果進行評估,其結果如表2所示。

對表2進行分析可得,車-車圖交互場、空間圖注意力交互、時間多頭注意力模塊對該模型軌跡預測性能的提高均表現為積極作用。對車-車圖交互場進行消融,模型具有最高的RMSE和NLL值,其模型預測性能降低最為明顯,這是因為車-車圖交互場能夠有效表征目標車輛與周圍車輛的交互作用,為模型的后續模塊學習車輛歷史軌跡之間的時空交互提供了豐富的先驗知識;相較于其他兩個模塊,空間圖注意力交互模塊對于模型預測性能的貢獻程度較低,這是因為車-車圖交互場在此之前已經對車輛之間的空間交互作用進行了有效提取;除此之外,時間多頭注意力模塊對模型的預測性能也具有較大的影響,這主要是因為車輛運動狀態不斷隨著時間進行變化,且車輛當前時刻的運動狀態與其歷史運動狀態高度相關。

4.5 預測結果可視化

為了更加直觀地評估該預測模型的性能,對多車交互場景下的多模態軌跡預測結果進行可視化操作。選用NGSIM數據集中擁擠程度不同的交通場景和換道交通場景,對預測結果進行可視化分析。將目標車輛作為坐標原點,黑色虛線為車輛歷史軌跡,紅色虛線為目標車輛的多模態預測軌跡,黑色實線為目標車輛的真實軌跡。

4.5.1 輕度擁擠交通場景

從數據集中提取輕度擁擠場景對多模態的預測結果進行可視化,結果如圖8所示。

從得到的多模態預測軌跡中提取最優預測軌跡,對測試集中直行、左換道、右換道的交通場景進行可視化,結果如圖9所示。

由圖9分析可得,在輕度擁擠交通場景下,分布在目標車輛的周圍車輛較少,無論是直行場景,還是換道場景,GSTAM模型均能夠精確預測目標車輛的未來軌跡。

4.5.2 中度擁擠交通場景

從數據集中提取中度擁擠場景對多模態的預測結果進行可視化,結果如圖10所示。

從得到的多模態預測軌跡中提取最優預測軌跡,對測試集中直行、左換道、右換道的交通場景進行可視化,結果如圖11所示。

在中度擁擠交通場景下,車輛分布較為密集,由圖11a可知,在當前直行場景下,目標車輛左側與右側均有車輛行駛,對于目標車輛,此時最好的行駛策略為保持當前車道行駛,預測出的未來軌跡與目標車輛的真實軌跡基本吻合。在換道場景下,分析圖11b和圖11c可知,在當前左換道場景下,周圍車輛主要分布在目標車輛左后方和右前方,此時目標車輛進行左換道,預測出的未來軌跡與其歷史軌跡一致。同理,右換道場景下,目標車輛的未來預測軌跡與其真實軌跡依然保持一致。

4.5.3 重度擁擠交通場景

從數據集中提取重度擁擠場景對多模態的預測結果進行可視化,結果如圖12所示。

從得到的多模態預測軌跡中提取最優預測軌跡,對測試集中直行、左換道、右換道的交通場景進行可視化,結果如圖13所示。

在重度擁擠交通場景下,目標車輛周圍分布的車輛十分密集,目標車輛趨向于跟馳行駛。由圖13可得,在直行場景下,此時目標車輛左側與右側車輛十分密集,目標車輛無法進行換道,目標車輛保持當前車輛行駛,預測出的車輛軌跡與真實軌跡一致。在換道場景下,預測出的目標車輛未來軌跡與真實軌跡也基本一致。

分析圖8~圖13的可視化結果可知,在3種不同擁擠程度的交通場景下,本文提出的模型均能對目標車輛的未來軌跡進行較為精確地預測。

5 結束語

本文針對多車交互場景下自動駕駛車輛軌跡預測問題,利用斥力場和圖模型表征車輛之間的交互關系,且結合時空注意力機制深度提取目標車輛與周圍車輛的動態時空交互特征,并將其與車輛橫縱向行為意圖融合,提出了GSTAM車輛軌跡預測模型,基于NGSIM數據集對模型進行驗證與分析,結果表明:

與CS-LSTM、S-LSTM、ADI-DCS-GRU(M)、TSMHA等模型相比,GSTAM模型具有最低的RMSE和NLL值,表明該模型能夠對自動駕駛車輛軌跡進行更為精確地預測。

對模型進行消融實驗,發現移除車-車圖交互場模型性能降低明顯,可見GSTAM模型引入的車-車圖交互場能夠為軌跡預測模型后續提取車輛間時空交互提供豐富的先驗知識,有效提高了軌跡預測的精確度。

選用不同擁擠程度下的場景對預測結果進行可視化,包括直行、左換道以及右換道,模型預測出的未來軌跡能夠切合目標車輛的真實軌跡。

參 考 文 獻

[1] 郭景華, 肖寶平, 王靖瑤, 等. 基于Residual BiLSTM網絡的車輛切入意圖預測研究[J]. 汽車工程, 2021, 43(7): 971-977.

GUO J H, XIAO B P, WANG J Y, et al. Study on Vehicle Cut-in Intention Prediction Based on Residual BiLSTM Network[J]. Automotive Engineering, 2021, 43(7): 971-977.

[2] CARVALHO A, GAO Y, LEFEVRE S, et al. Stochastic Predictive Control of Autonomous Vehicles in Uncertain Environments[C]// 12th International Symposium on Advanced Vehicle Control. Tokyo: Society of Automotive Engineers of Japan, 2014: 1-9.

[3] DANIELSSON S, PETERSSON L, EIDEHALL A. Monte Carlo Based Threat Assessment: Analysis and Improvements[J]. Intelligent Vehicles Symposium. Istanbul: IEEE, 2007: 233-238

[4] MANDALIA H M, SALVUCCI M D D. Using Support Vector Machines for Lane-Change Detection[C]// Proceedings of the Human Factors and Ergonomics Society Annual Meeting. Los Angeles: SAGE Publications Sage CA, 2005: 1965-1969.

[5] IZQUIERDO R, PARRA I, MUNOZ-BULNES J, et al. Vehicle Trajectory and Lane Change Prediction Using Ann and Svm Classifiers[C]// 2017 IEEE 20th International Conference on Intelligent Transportation Systems (ITSC). Yokohama: IEEE, 2017: 1-6.

[6] DENG Q, SOFFKER D. Improved Driving Behaviors Prediction Based on Fuzzy Logic-Hidden Markov Model (Fl-Hmm)[C]// 2018 IEEE Intelligent Vehicles Symposium (IV). Changshu, China: IEEE, 2018: 2003-2008.

[7] GAO H, QIN Y, HU C, et al. An Interacting Multiple Model for Trajectory Prediction of Intelligent Vehicles in Typical Road Traffic Scenario[J]. IEEE Transactions on Neural Networks and Learning Systems, 2023, 34(9): 6468-6479.

[8] DAI S, LI L, LI Z. Modeling Vehicle Interactions via Modified LSTM Models for Trajectory Prediction[J]. IEEE Access, 2019: 38287-38296.

[9] 季學武, 費聰, 何祥坤, 等. 基于LSTM網絡的駕駛意圖識別及車輛軌跡預測[J]. 中國公路學報, 2019, 32(6): 34-42.

JI X W, FEI C, HE X K, et al. Intention Recognition and Trajectory Predicton for Vehicles Using LSTM Network[J].China[J]. China Journal of Highway and Transport, 2019, 32(6): 34-42.

[10] MESSAOUD K, YAHIAOUI I, VERROUST-BLONDET A, et al. Attention Based Vehicle Trajectory Prediction[J]. IEEE Transactions on Intelligent Vehicles, 2020, 6(1): 175-185.

[11] PHAN-MINH T, GRIGORE E C, BOULTON F A, et al. CoverNet: Multimodal Behavior Prediction Using Trajectory Sets[C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle: IEEE, 2020: 14074-14083.

[12] SHENG Z, XU Y, XUE S, et al. Graph-Based Spatial-Temporal Convolutional Network for Vehicle Trajectory Prediction in Autonomous Driving[J]. IEEE Transactions on Intelligent Transportation Systems, 2022, 23(10): 17654-17665.

[13] KHATIB O. Real-Time Obstacle Avoidance for Manipulators And Mobile Robots[J]. The International Journal of Robotics Research, 1986, 5(1): 90-98.

[14] GORI M, MONFARDINI G, SCARSELLI F. A New Model for Learning in Graph Domains[C]// 2005 IEEE International Joint Conference on Neural Networks. Montreal: IEEE, 2005, 2: 729-734.

[15] VASWANI A, SHAZEER N, PARMAR N, et al. Attention Is All You Need[J]. Advances in Neural Information Processing Systems, 2017: 1-15

[16] ALEXIADIS V, COLYAR J, HALKIAS J, et al. The Next Generation Simulation Program[J]. Institute of Transportation Engineers ITE Journal, 2004, 74(8): 22-26.

[17] 張新鋒, 王萬寶, 柳歡, 等. 高速動態交通場景下自動駕駛車輛換道意圖識別模型研究[J]. 汽車技術, 2023(4): 8-15.

ZHANG X F, WANG W B, LIU H, et al. Research on Lane Change Intention Recognition Model of Automated Vehicle in High-Speed Dynamic Traffic Scenario[J]. Automobile Technology, 2023(4): 8-15.

[18] TRIVEDI M M, DEO N. Convolutional Social Pooling for Vehicle Trajectory Prediction[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Salt Lake City, UT, USA: IEEE, 2018: 1468-1476.

[19] SONG H, DING W, CHEN Y, et al. Pip: Planning-Informed Trajectory Prediction for Autonomous Driving[C]// Computer Vision - ECCV 2020 16th European Conference. Glasgow, UK: Springer, 2020: 598-614.

[20] ALAHI A, GOEL K, RAMANATHAN V, et al. Social LSTM: Human Trajectory Prediction in Crowded Spaces[C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Seattle, WA: IEEE, 2016: 961-971.

[21] 田彥濤, 黃興, 盧輝遒, 等. 基于注意力與深度交互的周車多模態行為軌跡預測[J]. 吉林大學學報(工學版), 2023(5): 1474-1480.

TIAN Y T, HUANG X, LU H Q, et al. Multi?Mode Behavior Trajectory Prediction of Surrounding Vehicle Based on Attention and Depth Interaction[J]. Journal of Jilin University (Engineering and Technology Edition), 2023(5): 1474-1480.

[22] 宋秀蘭, 董兆航, 單杭冠, 等. 基于時空融合的多頭注意力車輛軌跡預測[J]. 浙江大學學報(工學版), 2023, 57(8): 1636-1643.

SONG X L, DONG Z H, SHAN H G, et al. Vehicle Trajectory Prediction Based on Temporal-Spatial Multi-Head Attention Mechanism[J]. Journal of Zhejiang University (Engineering Science), 2023, 57(8): 1636-1643.

(責任編輯 王 一)

修改稿收到日期為2024年10月28日。

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 色屁屁一区二区三区视频国产| 71pao成人国产永久免费视频 | 国产精品视频第一专区| 欧美日韩中文国产va另类| 四虎永久免费地址| 国产激爽大片高清在线观看| 国产欧美日韩在线在线不卡视频| 亚洲欧美不卡视频| 一级毛片基地| 精品国产Av电影无码久久久| 亚洲va在线观看| 亚洲另类色| 老色鬼久久亚洲AV综合| 成人精品午夜福利在线播放| 精品久久人人爽人人玩人人妻| 亚洲激情区| 国产浮力第一页永久地址 | 久久久久免费精品国产| 亚洲品质国产精品无码| 国产高清无码麻豆精品| 国产不卡国语在线| 亚洲天堂区| 国产青榴视频| 激情在线网| 亚洲欧洲免费视频| 免费不卡在线观看av| 国产精品久久久久久久久kt| 欧美在线黄| 久久黄色一级视频| 国产精品免费电影| 日韩欧美成人高清在线观看| 国产精品久线在线观看| 91精品人妻互换| 国产福利一区视频| 九九九精品视频| 熟女日韩精品2区| 亚洲视频色图| 亚洲美女操| 91亚洲免费视频| 一级爱做片免费观看久久| 久久久久久尹人网香蕉 | 天天色综合4| 日韩天堂视频| 欧美日本一区二区三区免费| 国产精品妖精视频| 国产精品免费露脸视频| 日韩AV无码免费一二三区| 成人免费视频一区| www.日韩三级| 中文无码影院| 亚洲五月激情网| 国产在线八区| 欧美国产在线看| 91亚洲精品第一| 亚洲av日韩av制服丝袜| 国产91全国探花系列在线播放| 久久久成年黄色视频| 99热亚洲精品6码| 国产精品va| 免费国产在线精品一区| 女人18毛片一级毛片在线 | 国产综合网站| 幺女国产一级毛片| 色香蕉影院| 国产青榴视频在线观看网站| 免费毛片视频| 伊人网址在线| 在线另类稀缺国产呦| 国内精品九九久久久精品| 无码不卡的中文字幕视频| 三上悠亚一区二区| 欧美精品伊人久久| 99精品免费欧美成人小视频 | 国产尤物视频网址导航| 91麻豆国产在线| 99久久精品国产麻豆婷婷| 四虎国产在线观看| 亚洲精品无码AV电影在线播放| 99青青青精品视频在线| 国产精品手机视频一区二区| 欧美亚洲激情| 欧美国产精品不卡在线观看|