999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于動態圖注意力的車輛軌跡預測研究

2024-05-17 00:00:00陳曉偉李煊鵬張為公
汽車技術 2024年3期
關鍵詞:模型

【摘要】針對目前軌跡預測研究中交互建模方法使用的圖注意力網絡(GAT)為靜態注意力,無法有效捕捉復雜道路場景中車輛間交互的問題,提出了一種基于編碼器-解碼器架構的動態圖注意力網絡(ED-DGAT)預測高速公路環境中運動車輛的未來軌跡。編碼模塊使用動態圖注意力機制學習場景中車輛間的空間交互,采用狀態簡化動態圖注意力網絡建模解碼階段車輛運動的相互依賴,最后使用NGSIM數據集評估所提出的模型,并與長短時記憶(LSTM)、聯合社交池化與長短時記憶(S-LSTM)、聯合卷積社交池化與長短時記憶(CS-LSTM)算法模型進行對比分析,結果表明,預測軌跡的均方根誤差(RMSE)降低了25%,且模型的推理速度為CS-LSTM模型的2.61倍。

主題詞:軌跡預測 注意力機制 圖神經網絡 多目標交互

中圖分類號:U461.91 " 文獻標志碼:A " DOI: 10.19620/j.cnki.1000-3703.20230582

Research on Vehicle Trajectory Prediction Based on Dynamic Graph Attention

Chen Xiaowei, Li Xuanpeng, Zhang Weigong

(Southeast University, Nanjing 210096)

【Abstract】In current research on vehicle trajectory prediction, the existing Graph Attention Network (GAT), which is based on a static attention mechanism, fails to effectively capture interactions between vehicles in complex road conditions. To address this issue, this paper proposed an Encoder-Decoder Dynamic Graph Attention Network (ED-DGAT) to predict future trajectories of highway vehicles. In this model, the encoding module incorporates a dynamic graph attention mechanism to learn spatial interactions among vehicles. Simultaneously, a simplified dynamic graph attention network is adopted to model the interdependencies of vehicle movements during the decoding phase. This paper evaluated the proposed algorithm using the NGSIM dataset and conducted comparative analysis with other models such as LSTM, Social-LSTM (S-LSTM), and CS-LSTM. The results show that the Root Mean Squared Error (RMSE) of predicted trajectory has been reduced by 25%, and the inference speed is 2.61 times of the CS-LSTM model.

Key words: Trajectory prediction, Attention mechanism, Graph neural networks, Multi-objective interaction

【引用格式】 陳曉偉, 李煊鵬, 張為公. 基于動態圖注意力的車輛軌跡預測研究[J]. 汽車技術, 2024(3): 24-30.

CHEN X W, LI X P , ZHANG W G. Research on Vehicle Trajectory Prediction Based on Dynamic Graph Attention[J]. Automobile Technology, 2024(3): 24-30.

1 前言

為實現安全高效行駛,自動駕駛汽車需自主且合理地估計周圍目標的運動軌跡。然而,車輛的行為決策不僅與駕駛員的駕駛風格、道路環境相關,還受到周圍車輛間交互行為的影響,故預測復雜道路場景中車輛的運動軌跡極具挑戰性。

傳統方法基于運動物理學[1]或結合概率論[2-4]估計車輛的運動軌跡。隨著人工智能技術的發展,許多研究人員開始采用基于循環神經網絡(Recurrent Neural Network,RNN)及其變體的編碼器-解碼器架構進行時序數據的預測研究[5-6]。然而,RNN無法捕捉運動車輛間的空間相關性。

文獻[7]~文獻[9]引入了一種名為“社交池化”的機制,該方法將道路中相鄰車輛的運動特征聚合到統一的空間網格,并利用池化和卷積等方法融合車輛的運動特征。文獻[10]~文獻[13]基于圖神經網絡(Graph Neural Network,GNN)建模車輛間的交互關系,其中圖的節點表示運動車輛,圖的邊表示車輛間的空間交互,并利用圖卷積網絡(Graph Convolutional Network,GCN)聚合相鄰車輛的特征。文獻[14]~文獻[16]基于注意力機制加權聚合鄰近車輛的相互影響,重點關注對目標車輛具有更高影響力的鄰近車輛。與“社交池化”方法和基于圖的方法相比,基于注意力機制的方法可以更好地解釋運動車輛間的空間交互。

此外,上述所有方法只考慮歷史軌跡編碼階段車輛間的交互,而在預測階段建模鄰近車輛的影響至關重要。

文獻[17]、文獻[18]利用基于注意力機制的GNN變體——圖注意力網絡(Graph Attention Network,GAT)建模道路目標間的交互。Brody等[19]從概念上證明了GAT計算的是靜態注意力,并提出了基于動態注意力機制的GATv2(本文稱為動態圖注意力網絡)。與GAT相比,動態圖注意力網絡(Dynamic Graph Attention Network,DGAT)具備更強的圖表示能力。受此啟發,本文提出一種基于編碼器-解碼器架構的動態圖注意力網絡(Encoder-Decoder Dynamic Graph Attention Network,ED-DGAT)預測車輛軌跡,模型基于RNN的變體-循環門控單元(Gate Recurrent Unit,GRU)編碼單一車輛運動的時間相關性,設計基于DGAT的交互建模模塊,利用DGAT聚合GRU的隱藏狀態并以此編碼相鄰車輛的歷史運動狀態,在GRU解碼階段的每一時間幀使用狀態簡化DGAT捕獲車輛間的空間交互。

2 軌跡預測問題描述

本文的目標是根據高速公路場景中目標車輛與鄰近車輛的歷史軌跡信息,預測得到車輛的未來軌跡。車輛的歷史軌跡可以使用一系列離散的點描述,本文所提出算法模型的輸入為:

[X=xTobs-th,xTobs-th+1,…,xTobs] " " " " " " " " " "(1)

式中:n為道路中車輛數量,Tobs為道路場景的觀察時刻,th為歷史軌跡時長,xt=(x0t,x1t,…,xnt)為t時刻道路所有車輛的位置信息,xit為車輛i在t時刻的坐標。

與之前的工作[5,7]只預測單一車輛的未來軌跡不同,本文選擇一次性預測道路場景中所有車輛的未來軌跡:

[Y=y1,y2,…,ytf] " " " " " " " " " " " " " " (2)

式中:tf為預測時長,yt=(y0t,y1t,…,ynt)為未來時刻t道路中所有車輛的位置信息,yit為車輛i在t時刻的坐標。

相應地,使用[Y=y1,y2,…,ytf]表示模型的輸出,其中,[yt]為未來時刻t道路中所有車輛位置的預測值,使用[yti]表示t時刻車輛i坐標的預測值。

3 模型設計

本文所提出的算法模型ED-DGAT由歷史軌跡編碼模塊、交互編碼模塊和預測解碼模塊組成,具體結構如圖1所示。歷史軌跡編碼模塊基于GRU編碼單一車輛的歷史軌跡,交互編碼模塊利用DGAT提取可變數量的鄰近車輛之間的交互特征,預測解碼模塊結合單一車輛的歷史軌跡編碼與鄰近車輛的交互編碼,生成車輛的未來軌跡。

3.1 歷史軌跡編碼模塊

ED-DGAT模型使用雙層GRU編碼單一車輛的運動特征,所有車輛共享同一個GRU,GRU的隱藏維度為64。對于Tobs時刻,使用多層感知機(Multi-Layer Perceptron,MLP)編碼最近th幀的車輛軌跡,然后按時間順序輸入GRU中,最后得到隱藏狀態矩陣H:

H=(h0,h1,…,hn) " " " " " " " " " " " " " " " "(3)

式中:hi為車輛i的運動特征。

3.2 交互編碼模塊

在道路場景中,車輛的運動受周圍車輛的影響,這和人與人之間的社交網絡相似,研究人員常使用圖神經網絡建模人與人之間的社交網絡,受此啟發,本文選擇使用圖神經網絡的最新方法DGAT建模車輛間的交互。DGAT為不同的鄰近車輛分配不同的權重,在此基礎上加權聚合鄰近車輛的特征,從而更加合理地考慮周圍車輛對目標車輛的影響。

3.2.1 圖的構建

DGAT的計算過程基于圖結構,因此圖的結構將顯著影響模型的計算效率和預測性能。考慮到車輛間的影響互不相同,本文使用有向圖G={V,E}表示道路場景中的車輛關系,其中V、E分別為圖的節點集和邊集。

定義1(有向圖):對于圖G={V,E},設圖中節點數量為m,則節點集V={1,…,m},邊集E={e0,0,e0,1,…,ei,j,…,em,m}?V×V表示V中任意2個節點之間的邊,其中ei,j表示從節點i到節點j的邊。若從節點i到節點j的邊與從節點j到節點i的邊不相等,則圖G為一個有向圖。

如果圖只包含自連接,模型的性能理論上應與無交互建模的模型相似。而如果采用全連接的方式,將會導致冗余連接,隨著圖中節點的數量增加,冗余連接將呈指數增長,嚴重影響模型的計算效率。因此,本文所構建的圖神經網絡為鄰居節點指向中心節點的星形結構。

節點集合V中的節點表示道路場景中的運動車輛,節點特征vi為車輛i的歷史軌跡編碼。此外,本文使用圖的第1個節點表示被預測車輛,其余節點{1,2,…,m}表示鄰近車輛,因此邊集合表示為:

E={ej,0}(j=0,…,m) " " " " " " " " " " " (4)

式中:ej,0表示圖中的節點j和節點0之間存在有向邊連接,節點j是節點0的鄰居。

道路場景中,車輛的距離靠近就會產生交互,因此本文采取距離閾值Dclose判斷2個節點間是否存在邊連接,如果節點所表示的車輛在Tobs時刻的距離小于閾值,則認定節點間存在邊連接,設Dclose=50 m。圖1中,圓圈內中心處的車輛認定為與圈內其他車輛存在空間交互。

3.2.2 DGAT計算方法

DGAT基于自注意力機制加權聚合鄰居節點的特征,并用于更新節點自身。DGAT的輸入為歷史軌跡的編碼H,模型輸出為[H′=(h′0,h′1,…,h′n)]。圖神經網絡中節點對(節點i與節點j)間的注意力系數為:

[αi,j=soft max(e(hi,hj))=exp(e(hi,hj))k∈Niexp(e(hi,hk))] " " " " " (5)

式中:αij為節點i對節點j的注意力系數;Ni為圖神經網絡中節點i的鄰居節點集合;e為評分函數,用于計算每條邊的初始分數;softmax函數用于歸一化節點i所有鄰居節點的初始注意力系數。

評分函數的定義為:

[e(hi,hj)=aT?σWhiWhj] " " " " " " " " " " (6)

式中:||表示向量的拼接,W∈RF×F′為應用于每個節點的共享線性變換的權重矩陣,F、F′分別為DGAT輸入、輸出的維度,a∈R2F′為單層前饋神經網絡的權重矩陣,σ為非線性激活函數LeakyReLU。

得到節點對其鄰居節點的注意力系數后,DGAT通過加權求和鄰居節點的特征更新中心節點的特征:

[h′i=σk∈Niaij?Whj] " " " " " " " " " " " " "(7)

式(5)~式(7)展示了單層DGAT的計算方法。本文采用單層DGAT構建車輛間的交互,DGAT的輸出[h′i]為鄰近車輛對車輛i的空間交互特征。此外,模型中使用了多頭注意力機制提升DGAT的性能,多頭注意力機制的數量為8。

3.3 預測解碼模塊

預測解碼模塊的輸入為單一車輛的動態特征與鄰近車輛的交互特征。將歷史軌跡編碼模型的輸出H與交互編碼模塊的輸出H′輸入到2個不同的MLP中,并將輸出拼接,以此融合車輛的運動模式與空間交互特征。具體計算流程為:

[hi=δ1(hi)] " " " " " " " " " " " " " " " " "(8)

[gi=δ2(h′i)] " " nbsp; " " " " " " " " " " " " " "(9)

[di=higi] " " " " " " " " " " " " " " " "(10)

式中:δ1、δ2分別為編碼H與H′的3層MLP,使用ReLU激活函數,δ1的隱含層維度為128和64,δ2的隱含層維度為256和128;[hi]、gi分別為δ1、δ2的編碼輸出,維度分別為32和64;di為車輛i的解碼輸入。

與歷史編碼器相似,本文采用雙層GRU作為預測解碼模塊的骨干網絡,同時采用狀態簡化的DGAT(使用D-DGAT表示解碼模塊所使用的DGAT)建模預測階段車輛間的交互。與編碼動態圖注意力(Encoder Dynamic Graph Attention Network,E-DGAT)不同,解碼動態圖注意力(Decoder Dynamic Graph Attention Network,D-DGAT)不再計算目標節點對鄰居節點的注意力系數,而是直接采用E-DGAT計算的注意力系數。D-DGAT的輸入為t時刻目標車輛與鄰近車輛的坐標。具體計算流程為:

[γt-1i=η1(yt-1i)] " " " " " " " " " " " " " " "(11)

[γt-1i=σk∈Niaij?Wdγt-1i] " " " " " " " " " " "(12)

[gt-1i=δ3(γt-1i)] " " " " " " " " " " " " " " "(13)

式中:η1為與歷史軌跡編碼模塊中相同的單層MLP,使用ReLU激活函數,輸出維度為32;γjt-1為鄰近車輛j在(t-1)時刻位置的編碼;Wd為線性變換函數的權重矩陣;[γt-1i]為車輛i在(t-1)時刻的空間交互特征;δ3為3層MLP,使用ReLU激活函數,隱含層維度為256和128;[gt-1i]為δ3的輸出,維度為64。

解碼GRU的隱藏狀態初始化為零,輸入包括編碼GRU的隱藏狀態、交互編碼模塊的輸出、上一時間幀目標車輛的位置坐標、上一時間幀鄰近車輛的交互編碼。當前時刻解碼模塊的計算方法為:

[mti=Φ(di,yt-1i,gt-1i)] " " " " " " " " " " " " "(14)

[yti=η2(mti)] " " " " " " " " " " " " " " " " "(15)

式中:Ф為解碼GRU,隱藏維度為128;mit為車輛i在時刻t的GRU隱藏狀態;η2為單層MLP。

具體而言,第1個解碼步驟中使用Tobs時刻的車輛坐標作為輸入,當前時間步的輸出用作下一時間步解碼GRU的輸入。對應的解碼步驟循環tf次,得到所有車輛的未來軌跡。

3.4 模型訓練策略

本文使用Adam作為優化器訓練網絡,學習率為0.001,模型每次訓練1個駕駛場景,即批大小(Batchsize)設置為1,共訓練5代(Epoch)。

3.5 損失函數

本文提出的模型使用預測得到的軌跡輸出和軌跡真值計算損失。與文獻[7]相似,本文使用均方誤差作為損失函數:

[L=1ni∈nYi-Yi2] " " " " " " " " " (16)

式中:Y為車輛i的真實未來軌跡,[Yi]為模型預測結果。

4 試驗分析

4.1 環境配置

本文所有試驗均在同一服務器上完成,具體硬件配置如表1所示。所有試驗均基于Python語言和深度學習框架Pytorch實現,其中圖神經網絡相關試驗基于深度圖譜庫(Deep Graph Library,DGL)[20]開源框架實現。

4.2 數據集

本文選擇在NGSIM數據集上評估所提出的算法模型。NGSIM數據集廣泛用于車輛軌跡預測,分為us-101[21]和i-80[22]2個部分,分別在長度為640 m和503 m的高速公路中以10 Hz的頻率采集的總時長為45 min的真實車輛軌跡。將數據集分為訓練集、驗證集和測試集,比例為7∶1∶2。從數據集中選取連續的8 s片段,前3 s用作觀察的軌跡歷史,后5 s作為被預測的真實軌跡。與Deo等[6-7,11]相同,對數據進行下采樣,采樣頻率為5 Hz。

4.3 評價指標

本文試驗采用均方根誤差(Root Mean Squared Error,RMSE)評估模型性能:

[ermse=i∈nt∈1,2,…,tfyti-yti2n?tf] " " " " " " " " " (17)

4.4 定量結果與分析

將本文提出的ED-DGAT模型與對比模型進行對比驗證。對比模型包括單一長短時記憶(Vanilla LSTM,V-LSTM)、聯合社交池化與長短時記憶(Social LSTM,S-LSTM)[23]、聯合卷積社交池化與長短時記憶(LSTM with Convolutional Social pooling,CS-LSTM)、E-DGAT、編碼-解碼圖卷積(Encoder-Decoder Graph Convolutional Network,ED-GCN)、編碼-解碼圖注意力(Encoder-Decoder Graph Attention Network,ED-GAT),表2提供了上述模型在NGSIM數據集上預測時長分別為1~5 s的RMSE指標。

由表2可知,與CS-LSTM模型相比,預測的車輛軌跡在5 s時長上的RMSE評價指標降低了25%。比較使用GAT作為圖聚合方式的ED-GAT模型與使用池化方案的S-LSTM模型、CS-LSTM模型和使用GCN作為圖聚合方式的ED-GCN模型,ED-GAT模型的RMSE最低,驗證了基于注意力機制的交互建模方法可以更好地理解運動車輛間的空間交互。使用DGAT作為圖聚合方式的ED-DGAT模型的預測誤差進一步下降,原因在于:道路場景中車輛間空間交互的復雜程度高,DGAT的圖表示能力更強,更加適用于車輛軌跡預測領域。ED-DGAT模型與E-DGAT模型的試驗結果表明,在預測階段建模車輛之間的交互可以有效提升模型的預測性能。

4.4 定性結果與分析

為了更好地理解DGAT在提高車輛間空間交互建模方面的貢獻,本文對同一道路場景下不同車輛ED-DGAT模型的預測結果進行可視化,如圖2所示。由圖2可知,在高速公路場景中,同一車道的后方車輛跟隨前方車輛行駛,對于變道車輛而言,以避免碰撞為原則匯入目標車道。圖2中,對于直行車輛,ED-DGAT模型能有效捕捉車輛間的跟隨行為,對于變道車輛,ED-DGAT模型能有效識別車輛的變道意圖。對于直行車輛和變道車輛,ED-DGAT模型都能捕獲車輛軌跡的細節,得到更加貼近真實場景的預測結果。

4.5 消融試驗

本文將Dclose設置為不同值,探討其對模型性能的影響,試驗結果如圖3所示。從圖3中可以看出,相較于Dclose=0,Dclosegt;0時預測結果的5 s RMSE顯著降低,原因在于:Dclose=0時目標車輛不考慮鄰近車輛的影響,模型等同于使用單一GRU的編碼器-解碼器結構。上述結果表明,建模車輛間的交互能有效降低模型的預測誤差。對比Dclose=100 m與Dclose=50 m模型的性能,Dclose=100 m時模型的RMSE較低,原因在于:考慮較大的Dclose閾值,模型會考慮更多鄰近車輛對目標車輛的影響。然而,Dclose為100 m時RMSE只在Dclose為50 m的基礎上略有降低,原因在于:當Dclosegt;50 m時,模型已經充分考慮了對目標車輛影響最大的鄰近車輛,此時再增大Dclose,模型雖然會考慮更多的鄰近車輛對目標車輛的影響,但這些車輛距離目標車輛較遠,對目標車輛的影響遠低于近距離車輛。此外,考慮更大的Dclose,DGAT的計算量將會大幅度增長。綜合考慮,本文采用Dclose=50 m作為試驗的基本設置。

4.6 實時性分析

衡量車輛軌跡預測模型的標準除預測軌跡的誤差外,還應關注模型的計算效率。石振周[24]等驗證了模型推理時間在40 ms內即可滿足實時性要求。考慮到自動駕駛應用場景中,一般使用嵌入式平臺運行模型,計算資源有限,本文在單塊GPU上驗證算法模型,模擬實際駕駛場景中的車輛軌跡預測。表3為本文所用模型的推理時長,本文所提出的ED-DGAT模型推理速度是CS-LSTM模型推理速度的2.61倍。

5 結束語

本文提出了一種基于DGAT建模車輛交互的ED-DGAT模型,用于預測高速公路場景中車輛的未來軌跡。DGAT基于動態注意力機制,有效解決了GAT無法有效捕捉車輛間空間交互的問題。定量試驗驗證所提出模型的性能,并探究了在模型解碼階段同時建模車輛間交互對預測結果的影響。定性試驗結果表明,本文所提出的模型能夠預測得到更加真實的車輛未來運動軌跡。NGSIM數據集上的試驗結果表明,本文提出的模型與現有軌跡預測方法CS-LSTM相比RMSE評價指標下降了25%,并且推理速度為CS-LSTM模型的2.61倍。

參 考 文 獻

[1] AMMOUN S, NASHASHIBI F. Real Time Trajectory " " " "Prediction for Collision Risk Estimation between Vehicles[C]// 2009 IEEE 5th International Conference on Intelligent Computer Communication and Processing. Cluj-Napoca, " Romania: IEEE, 2009: 417-422.

[2] LAUGIER C, PAROMTCHIK I E, PERROLLAZ M, et al. Probabilistic Analysis of Dynamic Scenes and Collision Risks Assessment to Improve Driving Safety[J]. IEEE " " " " Intelligent Transportation Systems Magazine, 2011, 3(4): 4-19.

[3] EIDEHALL A, PETERSSON L. Statistical Threat Assessment for General Road Scenes Using Monte Carlo Sampling[J]. IEEE Transactions on Intelligent Transportation " " " " Systems, 2008, 9(1): 137-147.

[4] AOUDE G S, DESARAJU V R, STEPHENS L H, et al. " "Driver Behavior Classification at Intersections and Validation on Large Naturalistic Data Set[J]. IEEE Transactions on Intelligent Transportation Systems, 2012, 13(2): 724-736.

[5] DEO N, TRIVEDI M M. Multi-Modal Trajectory Prediction of Surrounding Vehicles with Maneuver Based LSTMs[C]// 2018 IEEE Intelligent Vehicles Symposium (IV). Changshu, China: IEEE, 2018: 1179-1184.

[6] ALTCHé F, DE LA FORTELLE A. An LSTM Network for Highway Trajectory Prediction[C]// 2017 IEEE 20th " " " " " International Conference on Intelligent Transportation " " "Systems (ITSC). Yokohama, Japan: IEEE, 2017: 353-359.

[7] DEO N, TRIVEDI M M. Convolutional Social Pooling for " Vehicle Trajectory Prediction[C]// 2018 IEEE/CVF " " " " " Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Salt Lake City, UT, USA: IEEE, 2018: 1468-1476.

[8] CHEN L, ZHOU Q Y, CAI Y F, et al. CAE-GAN: A Hybrid Model for Vehicle Trajectory Prediction[J]. IET Intelligent Transport Systems, 2022, 16(12): 1682-1696.

[9] 黃玲, 崔躦, 游峰, 等. 適用于多車交互場景的車輛軌跡預測模型[J/OL]. 吉林大學學報(工學版): 1-10(2022-12-07)[2023-08-21]. https://doi.org/10.13229/j.cnki.jdxbgxb20220728.

HUANG L, CUI Z, YOU F, et al. Vehicle Trajectory " " " " Prediction Model for Multi-Vehicle Interaction Scenario[J/OL]. Journal of Jilin University (Engineering and Technology Edition): 1-10(2022-12-07)[2023-08-21]. https://doi.org/10.13229/j.cnki.jdxbgxb20220728.

[10] LIANG M, YANG B, HU R, et al. Learning Lane Graph Representations for Motion Forecasting[C]// European " "Conference on Computer Vision. Glasgow, Scotland, UK: Springer, Cham, 2020: 541-556.

[11] LI X, YING X W, CHUAH M C. Grip++: Enhanced Graph-Based Interaction-Aware Trajectory Prediction for " " " " " "Autonomous Driving[EB/OL]. (2020-05-19)[2023-08-22]. https://arxiv.org/abs/1907.07792.

[12] GILLES T, SABATINI S, TSISHKOU D, et al. GOHOME: Graph-Oriented Heatmap Output for Future Motion " " " "Estimation[C]// 2022 International Conference on Robotics and Automation (ICRA). Philadelphia, PA, USA: IEEE, 2022: 9107-9114.

[13] 趙樹恩, 蘇天彬, 趙東宇. 基于圖神經網絡的交互車輛駕駛意圖識別及軌跡預測[J]. 汽車技術, 2023(7): 24-30.

ZHAO S E, SU T B, ZHAO D Y. Interactive Vehicle " " "Driving Intention Recognition and Trajectory Prediction Based on Graph Neural Network[J]. Automobile " " " " " " " Technology, 2023(7): 24-30

[14] ZHOU Z K, YE L Y, WANG J P, et al. HiVT: Hierarchical Vector Transformer for Multi-Agent Motion Prediction[C]// 2022 IEEE/CVF Conference on Computer Vision and " " Pattern Recognition. New Orleans, LA, USA: IEEE, 2022: 8823-8833.

[15] 李文禮, 韓迪, 石曉輝, 等. 基于時-空注意力機制的車輛軌跡預測[J]. 中國公路學報, 2023, 36(1): 226-239.

LI W L, HAN D, SHI X H, et al. Vehicle Trajectory " " " " Prediction Based on Spatial-Temporal Attention " " " " " "Mechanism[J]. China Journal of Highway and Transport, 2023, 36(1): 226-239.

[16] 連靜, 丁榮琪, 李琳輝, 等. 基于圖模型和注意力機制的車輛軌跡預測方法[J]. 兵工學報, 2023, 44(7): 2162-2170.

LIAN J, DING R Q, LI L H, et al. Vehicle Trajectory " " "Prediction Method Based on Graph Models and Attention Mechanism[J]. Acta Armamentarii, 2023, 44(7): 2162-2170.

[17] KOSARAJU V, SADEGHIAN A, MARTíN-MARTíN R, et al. Social-BiGAT: Multimodal Trajectory Forecasting " " "Using Bicycle-GAN and Graph Attention Networks[C]// Advances in Neural Information Processing Systems 2019. Vancouver, British Columbia, Canada: IEEE, 2019.

[18] 曾偉良, 陳漪皓, 姚若愚, 等. 時空圖注意力網絡在交叉口車輛軌跡預測的應用[J]. 計算機科學, 2021, 48(增刊1): 334-341.

ZENG W L, CHEN Y H, YAO R Y, et al. Application of Spatial-Temporal Graph Attention Networks in Trajectory Prediction for Vehicles at Intersections[J]. Computer " " " Science, 2021, 48(S1): 334-341.

[19] BRODY S, ALON U, YAHAV E. How Attentive Are Graph Attention Networks?[EB/OL]. (2022-01-31)[2023-08-22]. https://arxiv.org/abs/2105.14491

[20] WANG M J, ZHENG D, YE Z H, et al. Deep Graph " " " " "Library: A Graph-Centric, Highly-Performant Package for Graph Neural Networks[EB/OL]. (2020-08-25)[2023-08-22]. https://arxiv.org/abs/1909.01315v2.

[21] COLYAR J, HALKIAS J. US Highway 101 Dataset: " " " " FHWA-HRT-07-030[R]. Washington, DC: U.S. " " " " " " " "Department of Transportation (USDOT), 2007.

[22] COLYAR J, HALKIAS J. US Highway I-80 Dataset: " " " FHWA-HRT-07-030[R]. Washington, DC: U.S. " " " " " " Department of Transportation (USDOT), 2007.

[23] ALAHI A, GOEL K, RAMANATHAN V, et al. Social LSTM: Human Trajectory Prediction in Crowded Spaces[C]// 2016 IEEE Conference on Computer Vision and " " Pattern Recognition. Las Vegas, NV, USA: IEEE, 2016: 961-971.

[24] 石振周. 基于車道線信息的多目標軌跡預測[D]. 大連: 大連理工大學, 2022.

SHI Z Z. Multi-Objective Trajectory Prediction Based on Lane Information[D]. Dalian: Dalian University of " " " " " Technology, 2022.

(責任編輯 斛 畔)

修改稿收到日期為2023年8月22日。

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 国产精品香蕉| 91区国产福利在线观看午夜| 欧美另类精品一区二区三区| 日本尹人综合香蕉在线观看 | 青青久久91| 伊人成人在线| 性欧美精品xxxx| 久久国语对白| 国内丰满少妇猛烈精品播| 国产男人天堂| 国产一区二区三区精品久久呦| 欧美第九页| 欧美一级专区免费大片| 国产农村妇女精品一二区| 国产三级a| 成人在线观看一区| 国产91高跟丝袜| 久久综合结合久久狠狠狠97色| 免费xxxxx在线观看网站| 国产办公室秘书无码精品| av一区二区三区在线观看| 新SSS无码手机在线观看| 18禁高潮出水呻吟娇喘蜜芽| 小13箩利洗澡无码视频免费网站| 成人在线不卡视频| 国产欧美日韩综合一区在线播放| 久久久久青草大香线综合精品 | 国产麻豆精品在线观看| 欧美一级在线| 超级碰免费视频91| 久久国产精品77777| 亚洲一级毛片| 欧美三级视频网站| 四虎永久在线| 日本午夜视频在线观看| 91久久夜色精品国产网站| 国产乱人视频免费观看| 99热免费在线| 国产欧美综合在线观看第七页| 热伊人99re久久精品最新地| 国产肉感大码AV无码| 91精品啪在线观看国产| 亚洲成人高清在线观看| 香蕉伊思人视频| 国产99热| 黄色网站不卡无码| 国产高清毛片| 亚洲爱婷婷色69堂| www.精品国产| 欧美成人影院亚洲综合图| 免费国产好深啊好涨好硬视频| 亚洲色精品国产一区二区三区| 免费观看亚洲人成网站| 国产成人狂喷潮在线观看2345| 国产69精品久久久久孕妇大杂乱 | 国产成人亚洲精品色欲AV| 无码日韩视频| 国产精品无码一二三视频| 成人精品视频一区二区在线| 亚洲一区网站| 欧美精品v欧洲精品| 8090成人午夜精品| 成人午夜久久| 女人18毛片水真多国产| 久久香蕉国产线看精品| 青草国产在线视频| 无码电影在线观看| 欧美成人在线免费| 亚洲va精品中文字幕| 国产精品成人观看视频国产 | 毛片免费在线视频| 午夜无码一区二区三区在线app| 最新亚洲人成无码网站欣赏网| 欧美一区中文字幕| 成人国产小视频| 91亚洲精品国产自在现线| 成人在线综合| 国产幂在线无码精品| 又爽又大又光又色的午夜视频| 日本免费一级视频| 亚洲无码免费黄色网址| 亚洲AV成人一区国产精品|