黃昆 劉興亮 武一民 朱世豪 張曉坤
(1.河北工業大學,天津 300401;2.中國汽車技術研究中心有限公司,天津 300300)
主題詞:跟車 場景挖掘 道路試驗 智能網聯汽車
目前,智能駕駛汽車的研發與驗證方法主要分為4類,即實車路試、場地測試、臺架測試和仿真模擬。通過技術的不斷提升和道路試驗的積累,可以實現人、車、環境等要素的數據化,隨著要素虛擬程度的提高,智能車輛研發與驗證的速度也不斷加快。
根據部分知名廠商智能車輛研發與驗證的經驗,從實車路試到仿真模擬的發展需要經歷3個步驟:道路數據信息化、場景提取與挖掘、場景生成與重構。其中,道路數據信息化為要素的數據化提供原始數據,需要進行大量的道路試驗。場景提取與挖掘為車輛研發驗證過程中的虛擬仿真提供豐富的素材,如歐洲大型實車路試(European Field Operational Test,EuroFOT)項目[1]和中國大型實車路試(China Field Operational Test,China-FOT)項目[2]。場景生成與重構是要素虛擬化成熟的標志,可以極大地提高智能駕駛汽車研發與驗證的速度。
本文設計跟車場景動態要素的挖掘系統,依托VECTOR 公司的CANape 軟件對跟車場景的本車速度、相對速度、車頭間距、橫向距離、轉向盤轉角、車頭時距(Time Head Way,THW)、即時碰撞時間(Time to Collision,TTC)等進行挖掘,并留有并聯接口,可以通過輸入信號及時間處理器增加工程應用中所需要的信號,既可以實現離線跟車場景挖掘,又可以實現在線數據挖掘,以期完成跟車場景數據庫的搭建,為自適應巡航控制(Adaptive Cruise Control,ACC)系統跟車部分的數學模型搭建提供數據支持。
如圖1所示,跟車場景挖掘的系統架構由數據采集層、數據接收層和數據后處理層組成。其中,Mobileye ME630 用于檢測本車的跟隨目標和判斷目標物的車道位置信息,攝像頭用于記錄本車前向、左向和右向的視頻數據信息,作為人工評判的依據。存儲在數據接收層的信號及視頻數據通過CANape 的I/O 口實現CANape到Simulink間的信息傳遞,通過主程序對采集到的信號進行跟車場景挖掘和輸出。

圖1 跟車場景挖掘系統構架
該跟車場景挖掘系統在離線狀態下可通過CANape和Simulink 聯合仿真挖掘提取跟車場景的動態要素信息,在道路試驗中,將程序嵌入與總線連接的VECTOR工控機,能夠實時進行跟車場景挖掘的工作。
數據后處理層由車輛空間位置模塊、跟車目標選擇模塊、跟車約束模塊、信號及時間片斷處理模塊組成。其中,空間位置模塊和跟車目標選擇模塊通過目標與本車的空間位置篩選出跟車目標,并通過跟車約束模塊對跟車場景進行實時的跟車中斷判定,得到跟車的時間片段,信號及時間片斷處理模塊通過對輸入信號進行時間片段處理,保留跟車場景數據,刪除非跟車場景數據。
本文設計的跟車場景挖掘程序將目標車輛與本車的空間位置作為主要的車輛跟馳判定參數,包括車頭間距和相對橫向距離,可通過毫米波雷達采集的數據計算獲得。定義空間位置輔助系數r,當目標滿足跟車的空間位置條件時,取r=1,否則取r=0。車輛空間位置模塊如圖2所示。

圖2 車輛空間位置模塊
車輛空間位置模塊的輸入參數為本車與目標物的相對距離R和偏航角α,可通過毫米波雷達和角毫米波雷達進行數據采集,模塊的輸出量為本車與目標的車頭間距Ry、相對橫向距離Rx以及空間位置輔助系數r,計算如下:

當Rx和Ry同時滿足跟車的空間位置約束時,即目標車輛位于本車所在車道前方0~150 m的范圍內[3],r的輸出值為1,否則為0。
跟車目標選擇模塊對滿足跟車空間位置要求的所有目標車輛的車頭間距進行比較,選擇車頭間距最小的目標車輛作為跟車目標,確保所選的跟車目標為同一車道內的相鄰前車。
跟車目標的選擇判斷流程為:輸入目標i(i=1,2,3,…,64,毫米波雷達可以探測目標的最大數量為64)的空間位置輔助系數r,若r=1,則輸出目標與本車的車頭間距,否則進行下一目標的判斷,篩選輸出所有滿足空間位置要求的目標后,通過比較獲得具有最小車頭間距的目標i,即為最終選擇的跟車目標。
跟車場景挖掘系統利用跟車約束模塊對車輛的行駛狀態進行實時監控,通過位置、速度、車頭時距等跟車參數對跟車是否中斷進行實時判定。定義跟車約束輔助系數k,作為模塊對跟車判定的輸出變量,當且僅當場景滿足所有跟車約束條件時,k的輸出值為1,否則輸出0。跟車約束模塊如圖3 所示,輸入量包括本車速度v、目標車速度vobj、目標與本車的車頭間距Ry、橫向距離Rx、相對速度vr、車頭時距th、車道位置l,模塊的輸出量為跟車約束輔助系數k。

圖3 跟車約束模塊
跟車約束的判定條件如下:
a.為了避免本車或目標車在擁堵路段或信號燈路口處于靜止狀態,對本車和目標車的速度進行判定:

b.為了確保滿足縱向的空間位置約束條件,對目標車與本車的車頭間距進行判定:

式中,y=150 m為跟車的車頭間距閾值[3-5]。
c.為了確保本車與目標車處于穩定跟車狀態,對目標與本車的車頭時距進行判定:

式中,thmax=5 s為跟車場景車頭時距的閾值[6-11]。
d.為了確保本車與目標車處于穩定的跟車狀態,對目標車與本車的相對速度進行判定:

式中,vrmax=4 m/s為前車與本車的相對速度閾值。
e.在結構化道路,即有車道線的道路上,通過判定目標的橫向位置是否在左、右車道線之間[12-16]對目標車是否變道進行判定:

式中,ll、lr分別為左、右側車道線的位置。
f.在非結構化道路,即無車道線道路上,通過目標與本車的橫向距離判斷目標車是否變道:

式中,x=1.2 m 為跟車狀態下目標車與本車的最大橫向距離[17-18]。
信號及時間片斷處理模塊用于記錄跟車的時間片段和輸出場景動態信息。定義跟車場景挖掘系數a,用以判斷當前時刻是否屬于跟車場景,當且僅當目標i的空間位置輔助系數r和跟車約束輔助系數k的值均為1時,取a=1,否則取a=0。
如圖4所示,場景的動態信息(如本車速度、本車加速度、轉向盤轉角、橫擺角速度、縱/橫向距離、縱/橫向加速度等)以場景挖掘系數a為依據進行篩選,保留屬于跟車場景(a=1)的片段信息,去除非跟車場景(a=0)的片段信息并將信息數據置0。
許多道路試驗過程中并未進行跟車場景挖掘,為了提取和挖掘這些行程的跟車場景數據,將離線信號輸入跟車場景挖掘系統進行處理,離線跟車場景挖掘實現流程如圖5所示。

圖4 信號及時間片斷處理模塊

圖5 離線場景跟車景挖掘流程
如圖6 所示,樣本1 為一段行程的部分原始數據(由于一段數據時間較長,此處僅截取一部分片段),在第1 408 s時,目標34和目標14同時滿足跟車的空間位置要求,通過跟車目標選擇模塊確定本車的跟車目標為目標34,在第1 520 s 時,目標34 進行變道,跟車中斷,目標34 在該時間段內空間位置輔助系數r和跟車約束輔助系數k的值均為1,因此,場景挖掘系數a的值為1,如圖7所示。

圖6 樣本1的原始數據

圖7 樣本1的場景挖掘系數
樣本1 的跟車場景挖掘結果如圖8 所示,場景時間為第1 408~1 520 s,輸出的動態要素信息包括本車速度、車頭間距、相對速度和車頭時距(在工程應用中可以根據實際需求增加或減少參數的數量)。
道路試驗有效時間為6 天,行駛里程為1 633 km,測試地為天津。試驗車為一款B 級車,如圖9 所示,數據采集設備包括:激光雷達、毫米波雷達,用于監測車輛位置、姿態等信息;Mobileye ME630,用于識別靜態場景要素和動態目標車輛信息;攝像頭,用于記錄行程的視頻信息;VECTOR 工控機,用于連接車輛總線、雷達、攝像頭等設備。

圖8 樣本1的跟車場景挖掘結果

圖9 道路試驗設備及場景
限于篇幅,在跟車場景挖掘系統的在線場景挖掘結果中選取3段自然駕駛行程,行程的靜態要素信息如表1所示。

表1 行程靜態要素信息
如圖10 所示,行程1 的總時長為16 min,輸出的參數為目標與本車的縱向相對距離Ry,共挖掘出14 個跟車場景的信息,其中系統漏判定1 次(毫米波雷達未檢測到目標),誤判定0次。
如圖11 所示,行程2 的總時長為35 min,輸出的參數為目標與本車的車頭時距th,共挖掘出13個跟車場景的信息,其中系統漏判定0次,誤判定0次。
如圖12 所示,行程3 的總時長為28 min,輸出的參數為目標與本車的相對速度vr,共挖掘出10個跟車場景的信息,其中系統漏判定0次,誤判定0次。

圖10 行程1跟車場景挖掘結果

圖11 行程2跟車場景挖掘結果

圖12 行程3跟車場景挖掘結果
本文通過研究跟車場景中目標的空間位置特征和跟車的約束條件,并結合國內外的研究成果,設計了能夠提取所需動態信息的跟車場景挖掘系統。經離線仿真和道路測試驗證,該系統能高效、準確地完成離線和在線跟車場景挖掘工作。其中,在線場景挖掘通過工控機將道路試驗與跟車場景的挖掘良好地集成在一起,提高了跟車場景挖掘的效率。