999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

碰撞預判系統中車輛寬度和位置的測量方法

2016-04-21 01:30:18李沛雨張金換
汽車工程 2016年2期
關鍵詞:測量

羅 逍,姚 遠,李沛雨,楊 帆,張金換

(1.清華大學,汽車安全與節能國家重點實驗室,北京 100084; 2.汽車噪聲振動和安全技術國家重點實驗室,重慶 401120)

2016029

碰撞預判系統中車輛寬度和位置的測量方法

羅 逍1,姚 遠2,李沛雨1,楊 帆1,張金換1

(1.清華大學,汽車安全與節能國家重點實驗室,北京 100084; 2.汽車噪聲振動和安全技術國家重點實驗室,重慶 401120)

為進一步提高碰撞預判系統的判斷精度,提出了一種基于雷達和圖像融合的車輛寬度和位置測量方法。首先,確定雷達坐標系與圖像坐標系之間的轉換關系;然后根據圖像中目標的陰影或雷達探測目標在圖像中的投影生成目標假設區域;通過Haar特征車輛級聯分類器對生成的目標假設區域進行驗證;最后對驗證過的目標進行寬度和位置測量。試驗結果表明,該方法能較準確地測量車輛寬度和位置,為碰撞預判系統提供重要參數。

汽車安全;碰撞預判系統;車輛識別;寬度和位置測量

前言

碰撞預判系統作為高級駕駛員輔助系統的重要組成部分之一,能夠利用包括毫米波雷達、激光雷達和攝像頭等環境感知傳感器探測駕駛過程中本車周圍環境的變化,并根據相對位置和相對速度等關系判斷不可避免的碰撞事故,進而控制制動系統進行制動,驅使被動安全保護機構對乘員執行保護動作,從而實現更好的碰撞保護。碰撞預判系統能夠合理地利用汽車主、被動安全系統已有的資源,降低乘員在碰撞事故中頭部、頸部等部位的傷害水平[1]。

目前,碰撞預判系統使用的傳感器包括毫米波雷達、激光雷達和攝像頭,但無論是單獨使用一種傳感器還是使用多種傳感器融合的方法[2-3],臨撞時間(time to collision,TTC)的計算在碰撞預判系統中對于正面碰撞的判斷都至關重要[4-5]。然而,在實際情況中部分駕駛員面對緊急情況更傾向于采取轉向避讓動作而非單純制動,在這種情形下只考慮臨撞時間的碰撞預判算法可能會誤觸發后端的被動安全保護機構。因此,如果能夠獲得前方車輛的寬度和橫向位置信息,綜合考慮駕駛員駕駛習慣,將能使碰撞預判算法對碰撞的判斷更加準確。此外,獲得前方車輛寬度和位置信息能更加準確地判斷碰撞位置,使得被動安全保護機構能夠針對將要發生的碰撞事故優化控制策略,對乘員實現更好的約束。通過對相關文獻的調研,未見測量前方車輛寬度的相關方法。本文中采用毫米波雷達和圖像信息融合的方法進行車輛目標識別,并通過圖像測量的方法計算前方車輛的寬度和位置信息,并與毫米波雷達測得的信息對比。試驗表明,該方法能較準確地測得前方車輛寬度和位置信息,為碰撞預判系統提供數據。

1 車輛目標圖像識別方法

1.1 目標假設生成

基于圖像的車輛目標識別方法中的兩個主要步驟是生成目標假設和驗證目標假設[6]。在目標假設生成過程中,算法對攝像頭獲得的圖像進行搜素,尋找車輛具有的典型特征,如對稱性、車輛底部陰影、車輛邊緣和車輛的特殊紋理等[7]。由于在灰度圖中車輛底部陰影的灰度值相對于路面的灰度值會產生突變,因此可以用來作為生成車輛目標假設的依據。本文中使用車輛底部陰影特征在圖像中生成車輛目標假設;采用毫米波雷達作為傳感器搭建了系統,將毫米波雷達探測的目標投影到圖像中用來生成目標假設,以彌補光照條件不足時,車輛底部陰影不明顯而導致無法生成車輛目標假設的缺點。

本文中選取車輛前方臨近道路上兩小塊區域的平均灰度值作為基礎閾值Tbasic,根據實際圖像處理效果總結出經驗公式,計算原始灰度圖二值化閾值Tgray和水平邊緣圖的二值化閾值Thoriz。

(1)

其中原始灰度圖通過攝像頭直接采集得到,水平邊緣圖由原始灰度圖經過水平索貝爾算子處理后得到。得到原始灰度圖和水平邊緣圖閾值后,對兩幅圖像進行二值化處理。圖1(a)為原始灰度圖;圖1(b)為對原始灰度圖的二值化處理結果,其中不僅包括車輛底部陰影,還包括樹木、建筑物的陰影和其他灰度較深的物體;圖1(c)為水平邊緣圖二值化處理結果,包括車輛底部陰影在內;圖1(d)為圖1(b)和圖1(c)進行與運算處理結果,獲得兩幅圖像中的共同部分,去除了部分干擾;圖1(e)是在圖1(d)的基礎上提取的輪廓信息,但仍難以避免一些較大的陰影區域的干擾;圖1(f)在原始圖像上生成了車輛目標假設區域,包括前景的車輛和背景的樹蔭,但未能將全部干擾去除。

1.2 目標假設驗證

使用特征對目標進行分類識別比通過像素進行計算速度更快[8],而且可以通過對有限數量的樣本進行訓練獲得對目標所擁有知識的編碼。本文中使用Haar特征[9]對車頭和車尾外觀特征進行表征。圖2描繪了3種基本的Haar特征,其中圖2(a)和圖2(b)雙矩形特征表征水平和豎直的邊緣特征,圖2(c)的三矩形特征表征豎直線的特征,圖2(d)的四矩形特征表征角點特征。

為了驗證目標假設,使用AdaBoost算法[10]構建了由15個弱分類器串聯而成的強分類器。分類器訓練過程中使用的正樣本包括車輛尾部和車輛正面圖像,通過網絡下載和實際道路拍攝獲得,左右鏡像處理后正樣本集合包括1 300多張照片。另外,在負樣本集合中選取車輛行駛過程中周圍環境經常出現的目標,如路面、房屋和樹木等,共1 500余張照片。進行目標假設驗證時,在已生成的目標假設區域以36×24大小的窗口遍歷整個目標假設區域進行搜索,然后放大搜索窗口繼續搜索,直至檢測完整個目標假設區域。分類器將被認為是目標的物體以矩形框的形式返回,對這些矩形框進行合并處理,并將合并得到的外包矩形框底邊拉至與陰影區域底邊重合,作為后續測量工作的基準。整個車輛目標圖像識別方法經過實際上路測試,識別率達到88.8%,誤識別率為7%。

2 車輛寬度和位置的測量

2.1 測量方法

毫米波雷達能夠較為準確地測量車輛的縱向相對距離,但是測量車輛的橫向相對位移誤差較大,而且不能測量車輛的寬度。因此,須要通過圖像對車輛橫向位置和寬度進行測量。路面水平假設是進行圖像測距的前提,為了進行圖像測距并且能夠將雷達探測目標投影在圖像中,須要建立圖像坐標系、雷達坐標系和車輛坐標系三者之間的相互轉換關系[11],其中雷達坐標系和車輛坐標系關系為

(2)

式中:Lx和Ly分別為雷達坐標系坐標xr和yr相對于車輛坐標系坐標xv和yv在x和y方向上的偏移距離。圖像坐標系與車輛坐標系之間的轉換關系為

(3)

式中:H為攝像頭光心相對地面的高度,θ為攝像頭光軸的俯仰角,Cx和Cy為光心偏移誤差,fx和fy為攝像頭在x和y方向的焦距。利用式(3)可以通過對圖像中的車輛目標進行測量,獲得在實際中車輛的位置信息和寬度信息。

2.2 融合算法

毫米波雷達和攝像頭探測原理不同,各有優缺點,為了使兩種傳感器發揮各自的長處,本文中設計了一種如圖3所示的融合算法。算法中分別以車輛底部陰影和雷達探測目標投影點在圖像中生成目標假設,對于相互遮擋的目標假設區域保留距自車較近的區域。然后,利用Haar特征分類器對目標假設區域進行識別,被確認為車輛目標者,采用圖像測距方法計算車輛的寬度和位置信息。如果圖像測量得到的縱向位置信息和雷達測得的縱向位置信息出入較大,則利用雷達測得的縱向位置信息對攝像頭的俯仰角度進行補償,然后再計算車輛寬度和橫向位置信息。

3 試驗驗證

為了檢驗該算法的有效性,本文中在包括本車車道和左右相鄰車道在內的3條車道上分別進行了實車動態測試,包括本車道內同向行駛情況和相鄰車道內同向與反向行駛情況,如圖4(a)所示。試驗中車輛縱向距離以雷達測量值為準,同時為了獲得真實的車輛橫向距離,試驗中試驗車輛一律緊貼路面標識線行駛,試驗中具體情況如圖4(b)所示。

試驗結果顯示,通過圖像測量得到的車輛縱向距離與雷達探測得到的縱向距離吻合較好,如圖5(a)所示。橫向距離測量中,3次試驗結果分別為0,-1.7和3.75m,如圖5(b)中實線所示,從試驗結果中可以看出,雷達測量得到的車輛橫向距離誤差較大且結果不穩定,圖像測量得到的車輛橫向位置較為準確,結果也較穩定。測量誤差與目標車輛在圖像中的位置有關,車輛目標在圖像邊緣處由于鏡頭畸變會導致較大的測量誤差。目標車輛最寬處車寬約為1.77m,但是試驗中圖像測量的是車輛前端和尾端處的寬度,經測量約為1.65m,與試驗中測得車輛平均寬度1.6m相差無幾。在車輛尾部或車輛正面曲面過渡的地方分類器不能完全識別車輛尾部或車輛正面信息;圖像多為斜向采集,得到的并不是車輛正向圖像;車輛目標在圖像邊緣處,鏡頭畸變較大等原因是車輛橫向位置和寬度測量誤差及測量結果不穩定的主要原因。在進行車輛寬度測量時,可以通過對多次測量值求平均的方法減小誤差。此外,通過找目標對稱軸、提高分類器性能等方法也可以提高對車輛目標寬度和橫向位置的測量精度。

4 結論

利用毫米波雷達和攝像頭生成目標假設,通過Haar特征分類器識別車輛,根據小孔成像原理計算車輛位置和寬度信息,并使用雷達探測得到的縱向距離對圖像測量信息進行修正,得到了較為準確的車輛寬度和位置信息,為碰撞預判系統判斷決策提供更豐富、準確的信息,為優化后端被動安全執行機構提供依據。

[1] SCHOENEBURG R, BREITLING T. Enhancement of Active & Passive Safety by Future PRE-SAFE Systems[C].2005 ESV Conference, Washington DC, 2005.

[2] PIETZSCH S, VU D T, BURLET J, et al.Results of a Precrash Application Based on Laser Scanner and Short-range Radars[J]. Intelligent Transportation Systems, IEEE Transactions on, 2009, 10(4): 584-593.

[3] ALESSANDRETTI G, BROGGI A, CERRI P.Vehicle and Guard Rail Detection Using Radar and Vision Data Fusion[J]. Intelligent Transportation Systens, IEEE Transactions on, 2007, 8(1): 95-105.

[4] TU P, KIANG J. Estimation on Location, Velocity, and Acceleration with High Precision for Collision Avoidance[J]. Intelligent Transportation Systems, IEEE Transactions on, 2010,11(2): 374-379.

[5] KIM T, JEONG H. Crash Probability and Error Rates for Head-on Collisions Based on Stochastic Analyses[J]. Intelligent Transportation Systems, IEEE Transactions on, 2010,11(4): 896-904.

[6] SUN Z, BEBIS G, MILLER R. On-road Vehicle Detection: a Review[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2006, 28(5): 694-711.

[7] 顧柏院, 王榮本, 郭烈,等. 基于機器視覺的道路上前方多車輛探測方法研究[J]. 汽車工程, 2006,28(10): 902-905.

[8] VIOLA P, JONES M. Rapid Object Detection Using a Boosted Cascade of Simple Features[C].Computer Vision and Pattern Recognition, Proceedings of the 2001 IEEE Computer Society Conference on, 2001, 1:511-518.

[9] PAPAGEORGIOU C P, OREN M, POGGIO T. A General Framework for Object Detection[C]. Computer Vision, Sixth International Conference on. 1998, 1: 555-562.

[10] FREUND Y, SCHAPIRE R E. Experiments with a New Boosting Algorithm[C]. International Conference on Machine Learning, 1996: 148-156.

[11] 羅逍, 姚遠, 張金換. 一種毫米波雷達和攝像頭聯合標定方法[J]. 清華大學學報(自然科學版), 2014,54(3):289-293.

Vehicle Width and Position Measurement Method for Pre-crash System

Luo Xiao1,Yao Yuan2, Li Peiyu1, Yang Fan1& Zhang Jinhuan1

1.TsinghuaUniversity,StateKeyLaboratoryofAutomotiveSafetyandEnergy,Beijing100084; 2.StateKeyLaboratoryofVehicleNVHandSafetyTechnology,Chongqing401120

To enhance the judgment accuracy of pre-crash system, a measurement method of vehicle width and position based on radar and image fusion is proposed. Firstly, the transformation relationship between radar coordinate and image coordinate is determined; Then, the object hypothesis region is generated based on the shadow of vehicle object in the image or the projection of vehicle object in the image detected by radar, and the objective hypothesis region generated is verified by Haar-like feature classifier; Finally, the width and position of vehicle objects verified are measured. Test results show that the method proposed can accurately measure the width and position of vehicle, providing important parameters for Pre-crash system.

vehicle safety; pre-crash system; vehicle identification; width and position measurement

原稿收到日期為2014年9月17日,修改稿收到日期為2014年12月23日。

猜你喜歡
測量
測量重量,測量長度……
把握四個“三” 測量變簡單
滑動摩擦力的測量和計算
滑動摩擦力的測量與計算
測量的樂趣
二十四節氣簡易測量
日出日落的觀察與測量
滑動摩擦力的測量與計算
測量
測量水的多少……
主站蜘蛛池模板: 国产老女人精品免费视频| 成人毛片免费观看| 亚洲免费福利视频| 成年人免费国产视频| 国产日韩精品欧美一区喷| 国产在线观看成人91| h网站在线播放| 麻豆精品视频在线原创| 国产成人精品高清在线| 日韩成人免费网站| 国产SUV精品一区二区6| 91在线无码精品秘九色APP| 精品视频一区二区三区在线播| 99热这里只有精品5| 亚洲大尺码专区影院| 成人噜噜噜视频在线观看| 亚洲无码免费黄色网址| 国产精品天干天干在线观看| yy6080理论大片一级久久| 大陆精大陆国产国语精品1024 | 国产日韩久久久久无码精品| 99精品福利视频| 亚洲第一色网站| 亚洲午夜片| 欧美人在线一区二区三区| 欧美区国产区| 精品久久香蕉国产线看观看gif| 九色视频一区| 91极品美女高潮叫床在线观看| 香蕉视频在线精品| 精品一区二区无码av| 亚洲国产精品日韩av专区| 看你懂的巨臀中文字幕一区二区| 亚洲精选无码久久久| 中文字幕在线视频免费| 91九色国产porny| 美女一级毛片无遮挡内谢| 丁香五月激情图片| 亚洲中文字幕97久久精品少妇| 亚洲国产综合自在线另类| 不卡色老大久久综合网| 亚洲经典在线中文字幕| 大香伊人久久| 免费中文字幕在在线不卡| 色婷婷综合在线| 国产视频大全| 欧美自拍另类欧美综合图区| 亚洲第一中文字幕| 在线观看无码av免费不卡网站| 爆乳熟妇一区二区三区| 国产欧美在线| 国产精品永久久久久| 激情影院内射美女| 国产h视频在线观看视频| 亚洲天堂视频在线播放| 精品三级在线| 欧美综合激情| 久草国产在线观看| 日本五区在线不卡精品| 国产一在线| 丰满人妻久久中文字幕| 亚洲国产午夜精华无码福利| 2021国产v亚洲v天堂无码| 青青青国产视频| 日韩亚洲综合在线| 欧美成人看片一区二区三区 | 欧美午夜小视频| 欧美亚洲一区二区三区在线| 国产亚洲现在一区二区中文| 99精品热视频这里只有精品7| 97se亚洲综合不卡| 日本尹人综合香蕉在线观看| 国产精品久久久久久久久kt| 99热这里只有精品免费国产| 婷婷亚洲综合五月天在线| 国产成人一区二区| 国产精品夜夜嗨视频免费视频 | 国产成人1024精品| 在线欧美a| 91精品免费久久久| 日韩欧美中文字幕在线韩免费 | 91国内在线观看|