999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

多模型融合的換道意圖識別研究

2024-01-30 13:00:06方藝潔廖祝華黃浩楷李彥君
計算機工程與應用 2024年2期
關鍵詞:模型

方藝潔,廖祝華,黃浩楷,李彥君

1.湖南科技大學 計算機科學與工程學院,湖南 湘潭 411100

2.湖南科技大學 元宇宙創新研究院,湖南 湘潭 411100

3.浪潮云信息技術股份公司,北京 100085

隨著自動駕駛汽車興起,車輛高級駕駛輔助系統(ADAS)和自動駕駛系統(ADS)因對防止交通事故的發生、緩解城市交通擁堵、解放司機的手腳等方面具有重要的意義和價值,從而成為科研院所和企業界的研究熱點。目前高級別自動駕駛汽車雖然還未完全面世,但據估計2030年自動駕駛車端系統的市場規模將達到5 000億元[1],2040年自動駕駛汽車整體市場份額將增加到車輛行駛總量的40%左右[2]。這說明自動駕駛技術具有非常大的市場前景以及需求的緊迫性。然而,自動駕駛系統既要控制車輛快速行駛,又要及時避免車輛之間的碰撞。尤其為了能夠安全有效地在復雜、快速變化的交通中行駛,自動駕駛系統需要準確及時地控制車輛的直行、換道及速度。例如決定何時改變車道、超車或減速以允許其他車輛駛入該車道。這就需要自動駕駛汽車提前了解周圍車輛未來的運動情況,準確地識別出周圍車輛的駕駛意圖,以及時有效地做出正確決策、規避風險和減少車輛之間的碰撞。

車輛駕駛意圖識別方法一般分為三大類[3]:(1)基于物理的預測模型。它是最簡單的預測模型,主要基于運動學和動力學建立車輛的運動模型,然后將一些控制參數(如車輛的方向盤轉向角、加速度和重量等)輸入模型并與車輛的狀態聯系起來[4]。(2)基于機動的預測模型。該模型假設道路上的車輛彼此獨立,然后通過與收集的大量軌跡數據進行對比找出最有可能的軌跡數據機動狀態,或者通過比較找出多個相似的軌跡數據進行加權求和得出最可能的機動狀態。支持向量機[5-6]、隱馬爾科夫模型[7-8]以及人工神經網絡[9]等已被廣泛用于基于機動的駕駛意圖識別研究。(3)基于交互感知的預測模型。該模型考慮車輛之間的相互作用[10-12],即假設車輛的運動會受場景中周圍車輛運動的影響。基于物理的預測模型只考慮了簡單的車輛運動參數,他們非常依賴當前時刻的狀態特征,因此很難對車輛進行長期的狀態預測,一般預測時長少于1 s,而且沒有考慮道路結構以及周圍環境對車輛狀態的影響。相比于基于物理的預測模型,機動預測模型具有先驗性,因此該預測模型更可靠,但其需要大量軌跡數據,且忽略了車輛之間的相互作用,因此模型的魯棒性不強。而基于交互感知的預測模型,考慮了車輛之間的相互作用,是具有一定車輛密度的交通場景中考慮最為合理的預測模型。

目前,針對車輛駕駛意圖的識別問題,Xu等人[13]提出一種基于貝葉斯網絡以及支持向量機的混合模型用于識別駕駛員行為。畢勝強等人[14]以支持向量機SVM為原型,通過駕駛模擬器采集樣本數據,學習得到一個分離超平面對換道意圖進行識別。Mccall等人[15]基于稀疏貝葉斯建立駕駛人換道意圖模型。姜順明等人[16]提出一種基于貝葉斯網絡的旁車并線意圖識別模型,對并線樣本和直行樣本均具有較高的識別率。劉志強等人[17]提出了基于HMM和SVM級聯算法建立駕駛員駕駛意圖識別模型,對比單一的意圖識別模型,準確率有所提高。以上基于傳統模型的方法主要通過建立動力學或運動學模型來進行意圖識別。

而隨著技術的發展,大量數據的采集以及計算機計算能力的提高,基于機動的預測模型方法逐漸完善。張海倫等人[18]分別提出了兩種行為識別模型以及意圖預測模型,雖然行為識別上BiLSTM具有較高的準確率,但是作為意圖預測模型,卻不能較早地進行預測。王亞倫等人[19]提出了一種基于條件隨機場的駕駛意圖識別模型,取得了較好的結果,但因沒有考慮車輛之間的互動從而影響駕駛意圖識別。季學武等人[20]設計了一種基于長短時記憶(LSTM)網絡的駕駛意圖識別及車輛軌跡預測模型,與基于機動的預測模型相比,具有明顯的優勢,其雖然考慮到了車輛之間的相互作用,但是考慮的參數并不充分,如沒有考慮車輛間的相對速度。

根據車輛駕駛意圖的方向,研究人員通常還可將其分解為車道行駛中的換道、車道保持和路口區域中左轉、右轉、直行、停車等橫向駕駛意圖,以及加速、減速、勻速行駛等縱向駕駛意圖[21]。其中換道意圖識別具有較大挑戰,尤其是在高速行駛條件下則需在極短時間內進行預判。為此,本文在基于交互感知的預測模型基礎上,主要研究車輛橫向駕駛意圖中的換道與保持車道駕駛意圖。在以往的研究基礎上,本文不僅考慮左右車道中距離目標車輛最近的車輛,還將考慮目標車輛一定范圍內六個方位的全部車輛,并計算目標車輛與鄰域車輛的空間相對距離以及相對速度,充分考慮車輛之間的交互作用。具體將車輛以及車輛之間的軌跡數據輸入到本文所提框架中,利用在時間序列預測上占優勢的BiLSTM方法學習數據,并結合注意力機制對輸入的軌跡數據進行權重賦值,讓模型重點計算對換道意圖識別準確率影響較大的特征值上,有效降低計算成本,加快運行速度,最后考慮到車輛運動規律的前后依賴性,引入條件隨機場進行優化,使得結果更加準確。

1 整體框架

針對高速行駛條件下車輛換道意圖識別模型的構建問題,本文先給出識別范圍內關于不同特征的車輛的定義:

(1)主車:處于道路識別范圍內核心位置,且具有獲取相應數據的傳感器(主車的速度、加速度、地理位置以及周圍車輛的速度、加速度等)以及配有換道意圖識別模型的車輛。

(2)周圍車輛:主要指以主車為圓心,半徑為一定長度(如100 m)的圓內同向車道上的所有車輛。

(3)目標車輛:主要指某時刻處于裝有預測換道意圖識別模型的主車周圍車輛,可以是周圍車輛中的任意一輛。

(4)鄰域車輛:指與目標車輛相鄰的周圍車輛。實驗只考慮目標車輛的正前方、正后方、左前方、左后方以及右前方右后方距離目標車輛最近的6輛車輛。

圖1為本文提出的換道預測模型的整體框架,該模型由兩部分組成,分別是數據輸入處理模塊和換道意圖識別模塊的BiLSTM-F模型。數據輸入處理模塊主要用來清洗數據,提取數據中有利于預測換道意圖的特征值,如目標車輛橫向以及縱向速度vx、vy,鄰域車輛速度vi(i=1,2,3,4,5,6,分別表示6個方位的鄰域車輛),目標車輛與鄰域車輛的相對速度Δvyi,目標車輛與鄰域車輛的橫向相對距離Δxi以及縱向相對距離Δdi。而換道意圖識別模塊,則是將輸入模塊提取出來的主要特征值作為輸入,經過雙向長短期記憶網絡層更好地捕捉輸入信息中時間間隔序列數據的前后依賴性,接著經過注意力層完成各個時刻的輸出信息的自適應權重分配,最后通過條件隨機場層輸出考慮了周圍環境瞬變影響的、全局最優的目標車輛的換道意圖。

圖1 整體框架圖Fig.1 Overall frame diagram

2 輸入數據處理

2.1 數據預處理

通常在車輛行駛道路上需要采集包含必要的關鍵特征信息的數據,才有可能準確實時地識別換道意圖。表1為一種典型數據集所提供的數據類型。

表1 數據集數據類型說明Table 1 Data type description of dataset

針對該典型數據集,首先對單位進行標準化,然后利用以下公式,計算得到數據集中未直接提供的車輛橫向速度、目標車輛與鄰域車輛的相對速度、相對橫向以及縱向距離。

其中,x、y為目標車輛的地理坐標,vx、vy分別為目標車輛的橫向和縱向速度,vi表示鄰域車輛的縱向速度,Δvyi為目標車輛相對鄰域車輛的縱向相對速度。Δxi、Δyi分別為目標車輛相對鄰域車輛的相對橫向以及縱向距離。

2.2 換道意圖階段標記

本文需要對車輛的換道意圖進行識別,但數據集中沒有代表車輛換道意圖的特征值,因此需要對數據的換道意圖進行標記。

換道意圖階段如圖2所示,其中黑白小車為目標車輛,灰色小車為鄰域車輛。曲線AC為換道意圖階段,左、右換道標記分別為1、2,車道保持標記為0。

圖2 軌跡序列標記圖Fig.2 Trace sequence marker diagram

換道意圖階段的定義[22]:由換道點A以及從A到C的這段時間里第一個橫向速度小于0.3 m/s的點記為B(車輛進行換道的時候,橫向速度必然變大),與B點前2 s的點C一起組成換道意圖階段。

2.3 數據提取

對處理后的數據集,需要提取出必要的關鍵特征信息,如圖3所示。

圖3 場景示意Fig.3 Schematic scenario

基于該典型場景,本文將基于預處理的數據提取以下關鍵特征信息,以作為車輛換道意圖識別模型的輸入:

(1)目標車輛的橫向速度vx、縱向速度vy以及縱向加速度vacc。

(2)鄰域車輛的橫向速度vix以及縱向速度vi(i=1,2,3,4,5,6)。

(3)目標車輛與鄰域車輛的相對縱向距離Δdi與相對橫向距離Δxi。

(4)目標車輛與鄰域車輛的相對縱向速度Δvyi。

(5)目標車輛位于的某個車道lane_id。

(6)大型車輛位于目標車輛的某個方位bci(bci=0 or 1,沒有大型車輛即為0,位于哪些方位就標1)。

(7)目標車輛的換道意圖標簽label=(0,1,2)。

3 換道意圖識別BiLSTM-F模型

BiLSTM-F模型的輸入序列表示為X=(X1,X2,…,Xn),X1=(vx,vy,vacc,bci,vix,laneid,vi,Δdi,Δxi,Δvyi,label),其中label為車輛意圖階段標記,label=(0,1,2),分別表示為保持車道、左換道以及右換道。將序列輸入到雙向長短期記憶網絡層(BiLSTM),讓BiLSTM自主學習,提取有用的信息,避免長時間導致的信息遺忘。除此之外,本文結合了注意力機制,通過注意力機制對特征序列進行權重劃分,充分利用計算能力,將注意力放在對本文所研究的換道意圖識別更有作用的隱藏狀態上,減少不必要的迭代次數,最后引入條件隨機場(CRF),進一步考慮換道問題的前后依賴性和全局最優。

3.1 基于BiLSTM的換道規律學習

BiLSTM(bi-directional long short-term memory)是LSTM的一種改進方法,被廣泛用于自然語言處理的情感分類任務中。相比于LSTM,BiLSTM不僅可以避免CNN的長期依賴問題,還可以更好地捕捉輸入信息的前后依賴性。本文主要對換道意圖進行預測,屬于時間序列預測,因此本文選用BiLSTM用來建立換道意圖識別模型,相比于傳統的機器學習算法,它可以更加準確地提取有效信息,盡可能地避免信息的遺忘。BiLSTM由前向LSTM和后向LSTM組成,如圖4所示。圖5展示了LSTM內部結構圖。

圖4 BiLSTM結構圖Fig.4 BiLSTM structure diagram

圖5 LSTM內部結構圖Fig.5 LSTM internal structure diagram

其中x1,x2等為輸入模塊的輸入信息,a1,a2等為前向LSTM神經網絡層和后向LSTM神經網絡層結合之后的當前時刻的隱藏狀態。LSTM由遺忘門ft、輸入門it、輸出門ot組成。遺忘門的作用是用來“忘記”某些信息,它決定了上一時刻的細胞狀態ct-1有多少信息可以保留到當前時刻的細胞狀態ct。輸入門的作用決定了當前時刻網絡的輸入xt有多少可以保留到ct,輸出門的作用決定了ct中有多少信息輸出到ht中。LSTM主要公式如下:

其中,Wxi,Whi,Wxf,Whf,Wxo,Who為權重參數,bi,bf,bo為偏置參數。當前時間步的記憶細胞Ct,和隱藏狀態ht,可由公式(8)~(10)得:

Wxc,Whc是權重參數,bc是偏置參數。

3.2 基于注意力機制的權重分配

注意力機制被廣泛用于圖像識別,語義識別等領域。本文引入注意力機制可以將BiLSTM模型各個時刻的輸出進行權重分配,將模型的注意力放在對提高換道意圖識別的準確率有較大幫助的參數上,不僅可以減少程序的運行時間,還可以提高模型的準確率。圖6為注意力機制的基本原理圖。

圖6 注意力機制原理圖Fig.6 Schematic diagram of attention mechanism

首先,輸入模塊向換道意圖模塊輸入車輛軌跡序列X1=(x1,x2,…,xt),序列長度為t,xi代表在i時刻的車輛狀態信息。經過BiLSTM模型后,輸出了各個時刻的狀態信息A=(a1,a2,…,an),an表示n時刻隱藏層的狀態信息,不同時刻的狀態信息對當前時刻的狀態具有不同的影響,將A作為注意力機制的輸入,計算出i時刻對當前時刻狀態的影響程度:

然后利用Softmax函數對歸一化得到最終的權重,即:

最終采用加權平均的方法得到當前時刻的總權重因子:

3.3 基于條件隨機場的前后依賴性學習

條件隨機場(conditon random field,CRF)[23]的提出解決了隱馬爾可夫模型只考慮當前狀態的問題,以及最大熵馬爾可夫模型的標注偏置問題,常應用于圖像分類、語義分類等分類問題。CRF充分考慮上下文信息和狀態,非常適合應用于時間序列預測任務。

對于注意力機制的輸出,很多研究者直接利用Softmax函數將注意力層的輸出轉換為概率,然后將概率最高的標簽作為最終的模型預測結果。但是,實際上車輛換道意圖具有明顯的前后依賴性,因而本文利用車輛行駛軌跡數據集建立意圖轉移矩陣,如表2中的數據是從實際數據集統計所得。從表2可以看出,當t-1時刻車輛為左換道時,下一時刻t有99.36%的可能性會繼續保持車輛左換道,而從左換道變為右換道的可能性為0%。為此本文引入條件隨機場,充分學習換道意圖識別的前后依賴性。

表2 意圖轉移矩陣Table 2 Intention transfer matrix

條件隨機場的計算公式如下:

其中,O和Y均為線性表示的隨機變量序列。在本文的車輛換道意圖識別模型中,O=(O1,O2,…,Ot)為輸入序列,Y為對應的軌跡序列標記,其中yt屬于M,M由0、1、2三個標記組成,分別代表保持車道、左換道和右換道:

計算整個序列的得分為:

其中,O為分數矩陣,表示第i個時刻,第yi個意圖的得分。A為轉移矩陣,表示為標簽yi轉移為標簽yi+1的概率。在訓練數據時,CRF采用對數最大似然估計計算損失函數使正確的序列的概率最大,再解碼得到最大分數的輸出序列。

其中,Yall為觀測序列X對應的所有可能狀態輸出序列,L為損失函數。

其中,為最優狀態輸出序列,=(,,…,),于是得出t時刻的換道意圖。

4 實驗與結果分析

4.1 數據集

為了驗證本文提出模型的準確性,本文使用聯邦公路管理局提供的NGSIM數據集中的US-101車道軌跡數據進行訓練與評估。標簽為0、1、2的個數分別為58 463、38 985、15 296,其中每20個數據進行切割,將切割完的完整數據段中的70%作為訓練集用于模型訓練數據,30%作為測試集。圖7為NGSIM數據集中US-101大道的俯拍圖,US-101大道為高速公路道,車道長為640 m,由5個主車道與一個輔車道組成。為了排除道路靜態結構的影響,本文主要考慮自由換道,不考慮強制換道,即車輛為到達目的地必須進行的換道行為。因此主要選取1至5車道的軌跡數據。

圖7 US-101道路俯拍圖Fig.7 View of US-101 from above

4.2 模型評價性能指標

為證明所提出模型的實用性,本文利用測試集對訓練好之后的模型進行評估,性能指標選擇如下:

(1)測試集損失loss:

(2)準確率Acc:模型預測出來正確的樣本個數占測試集的總樣本比例,如公式(21)。式中TP為標簽為正且預測為正類的標簽個數,TN為標簽為負且預測也為負類的標簽個數。FP為標簽為負類但預測為正類的標簽個數,FN為標簽為正類但預測為負類的標簽個數。

(4)換道意圖提前識別準確率Accahead:表示在換道點A前2 s正確識別車輛的換道意圖的準確率。

4.3 不同時間序列長度預測分析

理論上說,輸入的數據越長,預測的準確率會越高,但從模型處理角度出發,輸入大量的數據中摻雜了更多的無用信息,會影響預測精度,而且換道意圖受到駕駛場景的影響,會隨著時間變化而變化,因此輸入過長的歷史時間序列最終起決定性作用的還是意識產生的前幾秒數據。為此本文選取2 s的時間序列長度,既可以充分包含有效信息,也可以避免無用信息的干擾影響模型預測的準確性。為了更加直觀表明所選歷史序列長度的有效性,本文使用LSTM模型進行驗證。如表3所示,可以看出ht=2 s時,相比于ht=1 s雖然運行時間有所增加,但是測試集的準確率提高了5.67個百分點,但當ht>2 s時,模型的運行時間增加卻不能帶來測試集準確率的增加,反而比ht=1 s時的測試集準確率更低了。

表3 基于LSTM的不同時間序列結果Table 3 Results of different time series based on LSTM

4.4 模型對比分析

本文選取了門控循環單元(GRU),BiLSTM以及本文自建注意力機制結合GRU(GRU-AT)與本文提出的換道意圖識別模型BiLSTM-F進行對比,結果如表4所示。可以看出,本文提出的BiLSTM-F與這三個基線模型相比,準確率分別高出5.99、3.77和3.48個百分點,損失為0.018 2是四個模型中最小的,除此之外,各方面相比都較優于其他基線模型。同時,本文測試了各模型對于提前換道點0.5、1、1.5、2、2.5、3 s的準確率,結果如圖8所示。從圖8可以看出,GRU和BiLSTM兩個單一基線模型雖然在臨近換道點的準確率比較高,但是隨著預測時間提前,準確率卻開始下降,其中尤為明顯的是GRU模型,從一開始就急速下降。而BiLSTM模型剛開始還可以穩定較高的準確率,但當t到達2 s之后,準確率開始下跌。由此得出,GRU和BiLSTM泛化能力比較差。相比之下,GRU-AT能夠在預測時間提前的情況下準確率保持在90%左右,具有一定的泛化能力,而本文提出的BiLSTM-F模型的準確率則可達到97.19%,并且具有最好的泛化能力。

圖8 模型準確率對比Fig.8 Comparison of model accuracy

表4 模型性能對比Table 4 Model performance comparison

除本文提出的基線模型之外,為了保證模型比較的公平性,以及進一步證明本文提出的模型具有較高的意圖識別準確率,文本選取了使用相同數據集的HLCIUM(隱馬爾可夫(HMM)結合注意力機制模型)模型[24]和GM-HMM模型(高斯混合隱馬爾可夫)[25],將這些模型結果直接與本文提出的模型進行比較。

從圖9中可以看出,相比Xia等人提出的HLCIUM模型,以及Jin等人提出的GM-HMM模型,本文提出的模型準確率最高,分別高出9.58和1.79個百分點。

圖9 模型對比結果圖Fig.9 Model comparison results

4.5 預測結果分析

為了充分證明模型考慮車輛之間交互作用的普遍適用性,除了對比基線模型以驗證BiLSTM-F具有更高的準確率和較好的泛化能力之外,還選取了8:20—8:35這一時段的數據集進行驗證。圖10為8:20—8:35時段未考慮車輛交互特征的預測結果,其中本文選取了換道點前后各8 s的軌跡數據,車輛軌跡數據每0.1 s進行一次采樣,黑色虛線為車道線,虛線框的放大部分位于圖的最下方,可見模型在未考慮車輛交互影響,而只考慮目標車輛本身的運動狀態時,其在距離換道點前1.9 s的時候能預測出目標車輛具有左換道意圖。

圖10 未考慮交互特征場景示意圖Fig.10 Schematic diagram not considering interactive features

圖11(a)為考慮車輛交互特征的場景示意圖,其中虛線框所示的放大部分在圖11(b)中顯示。黑白色小車為目標車輛,灰色小車為目標車輛周圍的鄰域車輛(以目標車輛為圓心,50 m為半徑)。圖中展示了目標車輛位于換道點時刻前后各8 s的行駛路線以及鄰域車輛在目標車輛到達換道點前8 s的行駛路線。當模型考慮車輛交互對換道意圖的影響之后,模型可以在換道點前5 s識別出換道意圖,相比于未考慮車輛交互的情況還要提前3.1 s。未考慮車輛交互影響的模型主要學習目標車輛的自我狀態數據變化,從圖10的放大區域可以看出,車輛在換道前1.9 s時刻的軌跡點稀疏,橫向速度明顯變大。而在圖11中,在換道點前5 s時刻目標車輛的橫向速度還未明顯變化,但是模型考慮了周圍車輛對目標車輛的影響,預測出來目標車輛的左換道意圖。

圖11 考慮交互特征的目標車輛場景示意圖Fig.11 Schematic diagram of target vehicle scene considering interaction features

為了進一步分析該結果,本文將目標車輛換道點前5 s這一時刻的數據提取出來,如表5所示。經過分析發現,在該時刻圖11中的右前方車輛還未出現在目標車輛半徑范圍內,因此只有目標車輛周圍三輛車的交互數據。可以推斷,右前方車輛經過了提速階段。而由表可知,后方以及右后方車輛相對速度較慢,右后方車輛與目標車輛的縱向相對距離較近,為7.21 m,而在50 m之外的右后方又有車輛加速行駛過來,由于范圍內車輛速度相差不大,但是密度過大,并且右后方有一輛加速行駛的車輛,為了駕駛的舒適性以及安全性,目標車輛產生了左換道的想法。

表5 預測時刻車輛狀態數據Table 5 Vehicle state data at forecast time

針對整個數據集的換道選擇問題,將數據集分成三個時間段,分別為7:50—8:05,8:05—8:20以及8:20—8:35。其中,7:50—8:05時間段的換道車輛選擇情況如表6所示,La為開始車道,Ld為最終目標車道。而每個時間段每個車道的平均速度如表7所示。由表6可知,第一個時間段共有461輛車進行換道,其中有55、92、129、134、51輛經過一次或多次換道,分別到達1、2、3、4、5號車道。由表7可以看出來,第一個時間段中除了1號車道平均速度較小,其余4個車道的平均速度相差不大,因此換道車輛中超過88%的車輛選擇換道至其余4個車道。但是由于2、3、4、5這四個車道平均速度非常接近,因此車輛在這四個車道上進行換道的主要原因是考慮周圍車輛交互的影響,用換道來提高駕駛舒適性以及安全性。而位于1號車道上的換道車輛,超過85%的車輛選擇了其他道路,只有5輛最終還是回到了1號車道。并且從1號車道換至2號車道的車輛占絕大多數,其可能原因是減少換道時間和提高車速。由表7可以看出,第一個時間段的整體速度都要大于后兩個時間段,并且最后一個時間段的整體平均速度是最小的。因此可以看出8:05至8:35為車輛高峰期。這個時間段里每個車道的平均速度也相差不大,因此在這個時間段車輛換道的主要原因應該是考慮駕駛的舒適性及安全性。

表6 7:50—8:05時間段車輛換道選擇Table 6 Lane change options during 7:50—8:05單位:輛

表7 車道平均速度Table 7 Average lane speed 單位:m/s

圖12為本文提出模型在各個時間節點的左右換道預測準確率對比圖,可以看出,該模型在左換道意圖識別預測方面準確率要略高于右換道意圖識別預測,主要原因是由于數據集中右換道序列較少,而神經網絡需要大量數據學習其中的規律,因此模型右換道的準確率相比于左換道要低。盡管如此,本文的模型提前2 s識別換道意圖的準確率仍然能保持在94%以上。

圖12 左右換道預測結果對比Fig.12 Comparison of left and right lane changes of model

此外,為了更直觀地證明本文模型中各部分模型的有效性,本文對模型進行了消融實驗。從表8可以看出各部分對模型的準確率均有貢獻,注意力層和CRF層對模型準確率的貢獻分別為1.47%和2.01%。

表8 模型消融對比Table 8 Model ablation comparison

5 結語

針對現有換道意圖識別模型未充分考慮車輛之間的交互作用以及車輛意圖的時序性和前后依賴性特點,本文提出了一種多模型融合的換道意圖識別模型。該模型主要利用BiLSTM學習輸入軌跡序列的規律,并引入注意力機制將BiLSTM各個時刻的隱藏狀態進行加權求和,最后加入條件隨機場充分考慮車輛意圖的時序性和前后依賴性。通過真實數據集提供的車輛軌跡數據來驗證本文提出的模型,并與當前常用的多種基線模型進行了對比。實驗結果表明,結合車輛交互信息和注意力機制、條件隨機場的換道意圖識別方法可以顯著提高預測準確度,該模型量化了周圍車輛對目標車輛的意圖影響以及目標車輛歷史數據隨著時間變化的影響。本文提出的模型在各項評估數據方面均優于基線模型,尤其是在換道點前2 s的意圖識別準確率仍可達到94.16%,證明了所提模型具有較好的泛化能力和較高的識別準確率。

本文所提模型是基于高速公路的數據訓練得出的,主要適用于車輛高速行駛的狀態。而車輛行駛的實際場景中還存在中低速度行駛的狀態,如在城市車道上的行駛等。因此后續研究中還將考慮其他場景的換道意圖識別預測,以及在高級自動駕駛輔助系統中為自動駕駛車輛研究提供更精細的軌跡預測和安全隱患提前預防等方法。

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 91青青在线视频| 国产成人狂喷潮在线观看2345| 奇米影视狠狠精品7777| 国产探花在线视频| 四虎国产精品永久一区| 先锋资源久久| 国产成人精品免费视频大全五级| 国产av无码日韩av无码网站 | 91久久偷偷做嫩草影院精品| 自拍偷拍一区| 无码aaa视频| 久久一日本道色综合久久| 狠狠亚洲五月天| 一级毛片免费观看不卡视频| 亚洲欧美激情小说另类| 国产综合精品一区二区| 国产欧美自拍视频| 一级黄色网站在线免费看| 中文字幕人成人乱码亚洲电影| 免费日韩在线视频| 亚洲欧美自拍中文| 国产幂在线无码精品| AV网站中文| 国产幂在线无码精品| 亚州AV秘 一区二区三区| 手机精品福利在线观看| 国产成人综合网在线观看| 极品私人尤物在线精品首页 | 伊人久久青草青青综合| 任我操在线视频| 99精品在线看| 爱爱影院18禁免费| 免费人成在线观看视频色| 精品伊人久久久香线蕉| 狠狠色婷婷丁香综合久久韩国| 国产在线97| 精品国产aⅴ一区二区三区| 久久青草免费91观看| 99这里只有精品免费视频| 国产a在视频线精品视频下载| 午夜毛片免费观看视频 | 国产日韩av在线播放| 内射人妻无套中出无码| 国产一级毛片网站| 国产簧片免费在线播放| 91国语视频| 91精品国产91久无码网站| 国产在线观看91精品| 777国产精品永久免费观看| 成人免费视频一区二区三区 | 97视频在线精品国自产拍| 国产在线观看一区二区三区| 国产免费福利网站| 亚洲香蕉伊综合在人在线| 中文精品久久久久国产网址| 国产欧美日韩在线一区| 丁香婷婷激情网| 国产无遮挡猛进猛出免费软件| 99re在线观看视频| 国产精品自在拍首页视频8| 色综合久久88| 精品成人一区二区三区电影| 无码'专区第一页| 婷婷色中文网| 97久久精品人人做人人爽| 激情综合网激情综合| 国产亚洲成AⅤ人片在线观看| 青青国产视频| a亚洲天堂| 一级毛片在线播放| 欧美日韩在线成人| 国产97视频在线观看| 国产精品免费露脸视频| 久久久久青草大香线综合精品 | 亚洲精品动漫| 国产精品视频系列专区| 一级毛片在线免费看| 91精品国产无线乱码在线| 国产人人乐人人爱| 精品国产欧美精品v| 真实国产精品vr专区| 免费A∨中文乱码专区|