閆曉雷,邵毅明,曾俊延
(重慶交通大學 交通運輸學院,重慶 400074)
智能汽車技術已成為國內外眾多汽車廠商的研發熱點。其中,車輛操縱穩定性是智能汽車技術中的重要一環,需針對汽車行駛軌跡和姿態中的關鍵變量,如航向角和中心線偏移量進行實時反饋控制,實現電子穩定性控制,這些狀態變量均可由傳感器直接測量或通過控制算法取得。隨著汽車市場競爭的加劇、傳感器成本造價的降低、種類和數量的不斷增多,為了提高整體數據精度和可靠性,多傳感器數據融合顯得尤為重要。
若已知傳感器誤差的先驗概率分布和關聯概率分布,則可利用最優統計決策法[1],通過聯合多傳感器后驗概率分布進行最優融合。當系統具有線性動力學模型和正態分布的系統噪聲和測量噪聲,則可以使用卡爾曼濾波[2]。本文的車輛航向角研究,先驗知識是未知的,在該場景下的數據融合,消除數據融合算法依賴先驗知識則是解決數據融合的重要環節[3-4]。
車輛航向角定義:車輛行駛方向與地球正北極的順時針夾角。車輛航向角和橫向位移偏差對車輛轉向控制尤為重要;基于“預瞄-跟隨”這一駕駛員模型,實時反饋控制車輛航向角和橫向偏移量,可使車輛跟隨任意復雜路徑[5]。航向角也是計算車輛側向加速度所必需的。
本研究采用車載VBox和司南高精度定位儀作為車輛附加傳感器。其中,VBox的CAN數據接口與車輛CAN總線連接能夠實時讀取車輛數據。因此,一共有3個數據融合源,分別為VBox(數據采樣間隔為0.01 s)、司南高精度定位儀(數據采樣間隔為0.02 s)和車輛CAN總線數據(數據采樣間隔為0.01 s),3個數據源實時采集車輛的行駛信息。VBox和司南高精度定位儀均基于衛星定位,在信號被遮擋時,由于鎖定衛星數量不足,造成采集數據偏離正常值而形成噪點,數據融合前必須進行濾波預處理以去除噪聲[6]。同時,數據采樣間隔不一致,可將司南高精度定位數據進行線性插值,以實現相同采樣間隔下的數據融合。節選10 s內的數據見表1。

表1 數據融合源(節選10 s的數據)
目前常用的數據融合方法多數需要先驗知識的支撐,而對于大部分車輛行駛場景,先驗知識是未知的,因此消除對于先驗知識的依賴是首要前提。多傳感器數據融合的同時也要考慮傳感器測量數據的一致性和可靠性。基于相似度的數據融合算法,評估同質傳感器測量結果之間的關聯度,量化相似度和構建相似度矩陣,從相同時刻上測度一致性和在整個測量的時間序列上測度可靠性,對觀測值進行加權[7],從而得到最終的融合估計值。基于相似度的數據融合整體流程如圖1所示。

圖1 基于相似度的數據融合整體流程
設數據融合源集為(s1,s2,s3),其中s1,s2,s3分別表示司南高精度定位、VBox和CAN總線。Zi(k)表示k時刻數據融合源si的測量值(i=1, 2, 3),系統的狀態方程無法得出時,可使用Zi(k)來計算相似度[4]。定義Sij為反映傳感器測量值之間的相似度,表示傳感器i和傳感器j之間的相似性。Sij越大表示傳感器i和j之間的相似性越強,反之則相似性越弱。相似度和相似度矩陣如式(1)和(2)所示。

式中:n為數據融合源頭的個數n=3;Sk為k時刻構造的相似度矩陣,傳感器與自身的相似度為1,且由于得出該矩陣為對稱矩陣。
一致性測度表示傳感器在k時刻時測量值之間的一致性。其公式為:

式(3)僅考慮了某一時刻的數據一致性,而在整個測量時間序列中,數據的一致性并不統一。因此,需要對其可靠性進行評估[8],以便在整個測量過程中表現出很好的一致性。表示傳感器i在時刻0至時刻k之間的一致性測度的時間序列,并引入一致性測度的平均值和方差評估傳感器的可靠性[9],如式(4)和式(5)所示。

對于一致性測度平均值E[ci(k)]}越大,方差(k)越小的傳感器,其測量性能表現越穩定,因此,在接下來的數據融合過程中,可占據較大的權重。
設傳感器i在k時刻的權重系數為wi(k),由一致性測度的平均值E[ci(k)]}和方差(k)可知,wi(k)與E[ci(k)]}呈現正相關關系,wi(k)與σi2(k)呈負相關關系。同時,為避免wi(k)值非負,引入一個線性定義的映射關系,如式(6)所示。

式中:β為自定義系數,取值范圍為0<β≤1,其中,β的值越大,一致性測度的方差σi2(k)對權重系數的影響越大。在數據處理過程中發現方差一般小于0.01,為擴大方差的影響,β的值可取1。權重系數得到后,引入以下最終的數據融合公式:

式中:df(k)為k時刻傳感器集測量數據融合后的最終值。
融合數據源為:VBox測量數據、司南高精度定位儀數據和CAN總線數據。數據融合過程中缺乏目標真實值的先驗知識,為此可引入一個整個時間序列的數據融合源平均值作為參考目標值。式(8)為引入的參考目標值。

式中:Zref(k)為參考目標值;Zi(k)為傳感器在k時刻的測量值。
司南高精度定位儀的航向角數據與參考目標值之間的對比和誤差分析,如圖2所示。由圖2a可知,在10 s車輛行駛過程中,司南高精度定位儀的數據與參考目標值較為貼合,數據曲線反映數據逐步遞增的趨勢。由圖2b可知,司南高精度定位儀的航向角最大誤差值為0.784 2°,最小誤差值為-0.276°,識別誤差限在0.8°范圍內。司南高精度定位儀基于GPS衛星天線和手機SIM卡運營商的基站定位,理論上的定位精度高于VBox單衛星天線定位(VBox支持Racelogic基站以進一步提高精度,但測試道路并無安裝基站)。由圖3~5的對比結果可知:司南高精度定位在鎖定衛星數量滿足要求時,測量精度最好。數據融合結果也符合司南高精度定位儀的精度優于CAN總線和VBox測量數據這一傳感器特性。


圖2 司南高精度定位數據與參考目標值的關系

圖3 VBox數據與參考目標值的關系
VBox數據與參考目標值之間的對比和誤差分析如圖3所示。由圖3a可知,在10 s車輛行駛過程中,兩種數據曲線均具有逐步遞增的趨勢。由圖3b可知,VBox航向角的最大誤差值為2.027 6°,最小誤差值為0.486 5°,識別誤差限在2.1°范圍內。誤差限大于司南高精度定位儀的識別時,可知測量精度低于后者。在計算該傳感器的一致性測度方差時,小于司南高精度定位儀的一致性測度方差,說明VBox測量數據波動小,比司南高精度定位儀的測量性能更可靠,與傳感器特性相符。

圖4 CAN總線數據與參考目標值的關系
CAN總線數據與參考目標值之間的對比和誤差分析如圖4所示。由圖4a可知,CAN總線測量數據雖具備逐步遞增的特性,但測量精度不高。由圖4b可知,CAN總線航向角的最大誤差值為-0.539 4°,最小誤差值為-2.696 4°,識別誤差限在2.7°范圍內。其中,識別誤差限為上述3種傳感器中的最大值,但該傳感器的一致性測度方差一般處于三者最小的狀態。綜上所述,CAN總線測量數據雖然在三者之中的可靠性最好,但測量精度卻最低。
數據融合最終值與參考目標值之間的對比和誤差分析如圖5所示。由圖5a~d可知,在選取時間段內車輛行駛過程中,數據融合最終值與參考目標值緊密貼合;數據曲線反映數據逐步遞增的趨勢。由圖5e可知,數據融合算法的航向角最大誤差值為0.226 9°,最小誤差值為0.012 4°;識別誤差限在0.23°范圍內。對比結果可知,誤差限最小,數據融合算法精度明顯高于3種數據融合源的識別精度。


圖5 數據融合最終值與參考目標值的關系
本文將司南高精度定位儀、VBox和CAN總線作為車載傳感器,三者測量數據中的航向角作為數據融合對象,包含指定時間序列信息的一致性測度作為融合的尺度,同時也將傳感器自身的可靠性作為數據融合的權重,以此提高數據融合的整體精度。引入同一時刻傳感器的測量平均值作為參考目標值,消除了數據融合過程中對先驗知識的依賴。
在數據融合前,濾波預處理了因鎖定衛星數量不足導致的數據噪點,但在實際操作過程中,傳感器信號被遮擋后,一致性和可靠性降低,數據融合結果也變得不理想。數據融合對象需通過傳感器測量值間接計算,應將測量值的誤差傳播擴散影響考慮在內[10]。
對比結果表明:數據融合最終值的誤差限與3種傳感器相比最低,性能效果和精度得到了明顯的提高。構建相似度矩陣后,在計算一致性測度和可靠性的過程中,也側面驗證了司南高精度定位儀的測量數據精度高,但可靠性較差;VBox測量數據精度僅次于司南高精度定位儀,但可靠性優于后者;CAN總線測量數據精度最低,但可靠性較好。
[1] JOHN M R. Fusion of Multisensory Data [J]. The International Journal of Robotics Research,1988,7(6):78-96.
[2] RAO B S Y,DURRANT-WHYTE H F,SHEEN J A .A Fully Decentralized Multi-sensory System for Tracking and Surveillance [J]. The International Journal of Robotics Research,1993,12(1):20-44.
[3] 劉敏華,蕭德云. 基于相似度的多傳感器數據融合[J].控制與決策,2004,19(5):534-537.LIU Minhua,XIAO Deyun. Multi-sensor Data Fusion Based on Similitude Degree [J]. Control and Decision,2004,19(5):534-537. (in Chinese)
[4] 樸昌浩,祿盛,張艷,等.自動泊車系統設計[M].北京:科學出版社,2014:62-66.PIAO Changhao,LU Sheng,ZHANG Yan,et al. Automatic Parking System Design [M]. Beijing:Science Press,2014:62-66.(in Chinese)
[5] 陳煥明,郭孔輝.基于航向角和位置偏差控制的駕駛員模型[J].農業機械學報,2013,44(10):36-40.CHEN Huanming,GUO Konghui. Driver Model Based on Heading Angel and Position Deviation Control [J].Transactions of the Chinese Society of Agricultural Machinery,2013,44(10):36-40. (in Chinese)
[6] 羅俊海,王章靜. 多源數據融合和傳感器管理[M]. 北京:清華大學出版社,2015:21-23.LUO Junhai,WANG Zhangjing. Multi-sensor Data Fusion and Sensor Management [M]. Beijing:Tsinghua University Press,2015:21-23. (in Chinese)
[7] KOCH W. 跟蹤和傳感器數據融合[M]. 何佳洲,顧浩,蒲勇,等,譯. 北京:科學出版社,2015:31-38 KOCH W. Tracking and Sensor Data Fusion [M]. HE Jiazhou,GU Hao,PU Yong,et al,Translate. Beijing:Science Press,2015:31-38.(in Chinese)
[8] APPRIOU A. 不確定性理論與多傳感器數據融合 [M].郎為民,余亮群,陳 紅,等,譯. 北京:機械工業出版社,2016:4-8.APPRIOU A. Uncertainty Theories and Multi-sensor Data Fusion [M]. LANG Weimin,YU Liangqun,CHEN Hong,et al,Translate. Beijing:China Machine Press,2016:4-8.(in Chinese)
[9] 楊寶強,孫勇,徐明. 基于支持度的多傳感器信息融合算法 [J]. 空軍工程大學學報(自然科學版),2007,8(2):33-35.YANG Baoqiang,SUN Yong,XU Ming. Multi-sensor Information Fusion Algorithm Based on Support Degree[J]. Journal of Air Force Engineering University (Natural Science Edition),2007,8(2):33-35. (in Chinese)
[10] 費業泰. 誤差理論與數據分析 [M]. 北京:機械工業出版社,2011:150-160.FEI Yetai. The Error Theory and Data Processing [M].Beijing:China Machine Press,2011:150-160. (in Chinese)