999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于毫米波雷達和機器視覺融合的車輛檢測*

2021-05-12 02:51:14張炳力詹葉輝潘大巍宋偉杰劉文濤
汽車工程 2021年4期
關鍵詞:融合檢測

張炳力,詹葉輝,潘大巍,程 進,宋偉杰,劉文濤

(1. 合肥工業大學汽車與交通工程學院,合肥 230041;2. 安徽省智能汽車工程實驗室,合肥 230009;3. 合肥長安汽車有限公司,合肥 230031)

前言

環境感知作為關鍵技術之一,主要是通過雷達、攝像頭等傳感器獲取車輛周圍的環境信息,是實現智能駕駛的前提和基礎。在環境感知系統中,前向車輛識別是關鍵,準確可靠的前向車輛識別結果對智能汽車的安全行駛意義重大[1]。

目前廣泛使用的道路環境感知設備主要有攝像頭、毫米波雷達和激光雷達等。但由于單一傳感器不能全面、精確地對車輛周圍所有環境信息進行采集,因此往往采用兩種以上感知設備進行信息融合。多傳感器信息融合技術可以實現各傳感器優勢互補,最大程度采集環境信息,提升環境感知系統的可靠性、實時性和抗干擾能力。綜合各傳感器的優劣,本文中選擇攝像頭和毫米波雷達進行數據融合,完成前向車輛識別。

Zhang 等[2]使用毫米波雷達檢測障礙物的位置和速度,圖像處理模塊通過深度學習,使用邊框回歸算法精確定位和識別障礙物。Kim 等[3]提出了一種基于目標運動狀態及形狀特征的車輛識別方法,通過毫米波雷達和攝像頭分別采集目標的運動狀態和形狀特征,從而識別前向車輛,并應用于自動緊急制動系統。Chang 等[4]提出了一種利用毫米波雷達和視覺傳感器進行障礙物檢測的空間注意融合(SAF)方法,考慮了雷達點的稀疏性,并可以嵌入特征提取階段,有效地利用了毫米波雷達和視覺傳感器的特性。孫青[5]針對目標跟蹤中系統噪聲的統計特性未知或時變的問題,結合傳統的Sage?Husa自適應濾波算法和平方根濾波思想,提出改進的線性自適應平方根卡爾曼濾波算法實現目標狀態預估。王戰古等[6]使用深度置信網絡對車輛進行初步識別,并根據車型寬度和高度統計數據驗證識別結果,在多種惡劣道路環境下取得了良好的識別效果。

綜上所述,目前大多數方法只是根據毫米波雷達檢測結果在圖像中生成假設目標區域,再利用視覺方法對假設目標區域進行檢測,這類方法在一定程度上降低了雷達的誤檢率和視覺檢測的運算量,但并未考慮雷達漏檢等情況,在輸出檢測結果時,也沒有對兩種傳感器進行更深一步的信息互補,融合的效果一般。

鑒于此,本文中提出了一種基于毫米波雷達和機器視覺融合的車輛識別方法。該方法首先利用毫米波雷達和攝像頭分別獲取初步識別結果,然后搭建數據融合模型實現兩傳感器檢測目標匹配,利用擴展的卡爾曼濾波算法進行多目標跟蹤,提高識別穩定性。最后通過試驗驗證車輛識別算法的有效性,并對其穩定性和環境適應性進行驗證。

1 融合算法架構設計

目前主要有3 類傳感器融合方法:數據級、目標級和決策級融合。其中,目標級融合的主要思路是:首先單傳感器獲得各自的檢測目標,然后融合算法綜合分析檢測目標,最終得到符合融合策略的目標。目標級融合能夠充分利用單傳感器的優勢,提升系統魯棒性,因此,本文中采取目標級傳感信息融合方法。

融合算法架構如圖1 所示,主要由雷達處理模塊、視覺處理模塊和融合模塊3部分組成。雷達處理模塊從毫米波雷達獲得的原始數據中篩選出潛在的車輛目標,視覺處理模塊從攝像頭拍攝的圖像中獲取視覺檢測信息,融合模塊根據檢測框交并比和全局最近鄰數據關聯(GNN)算法[7]等綜合雷達、視覺方法的檢測結果,完成目標級的傳感器信息融合。

圖1 融合算法整體架構

2 傳感器數據處理

2.1 毫米波雷達目標篩選

毫米波雷達原始數據中包含大量靜止目標,這些目標通常不會對自車行駛造成危險,而所需識別的車輛目標一般為動態,據此可以設置處理策略,完成車輛目標的篩選。雷達處理模塊中采用分層聚類算法[8]來過濾無效目標,算法的具體流程如圖2 所示,其中λ為雷達自身測速誤差。

圖2 分層聚類算法

通過該算法可以把原始數據分成n個子簇。其中靜止目標由于速度都為0,皆被歸為同一個子簇,把它刪除,即可獲得n- 1個動態目標。由于采用的是相對速度進行判斷,在自車速度未知的條件下,該算法仍可有效完成靜態目標的過濾,提取出所需的動態目標,具有較好的穩定性。圖3(a)為原始雷達數據,圖3(b)為經過算法處理后的雷達數據。可以看出,分層聚類算法有效去除了靜止目標,提升了雷達模塊輸出結果的可信度。

圖3 原始雷達數據和處理后的數據

2.2 基于改進YOLO v2的車輛檢測

視覺處理模塊基于YOLO v2[9]算法改進而來,YOLO[10]系列算法是Redmon 等人在2016 年提出的一種端到端(end to end)的視覺卷積神經網絡方法,其在視覺檢測方面具備較好的實時性和準確性。

后續版本的YOLO算法是在最開始的v1版本上改進而來,因此這里以最初的YOLO v1 為例介紹YOLO算法的工作原理。

YOLO v1將待檢測的圖像分成大小相同的S×S的單元格(grid cell),每一個單元格將負責檢測中心落在其區域內的目標。假設網絡需要對C類目標進行檢測,每個單元預測出B個目標包圍框(bounding box)及其置信度(x,y,w,h,c),網絡的輸出為S×S×(5×B+C)大小的向量。其中,(x,y)表示目標包圍框的中心點位置;(w,h)表示目標包圍框的寬和高;c代表預測的目標包圍框中包含物體的置信度(confidence)。

每個單元格預測目標類別的條件概率為Pr(Classi|Object),i= 1,2,…,C,位于同一個單元格中的B個目標包圍框共享該條件概率。在測試時,將網格預測的條件概率分別和該網格中目標包圍框預測的置信度相乘,即可獲得每個目標包圍框中存在物體的類別置信度。設置閾值過濾掉置信度較低的目標包圍框,對剩余的目標包圍框進行非極大值抑制(non?maximum suppressio,NMS)處理,即可得到最終的檢測結果。

YOLO v2 在v1 版本的基礎上進行了部分改進,提升了算法的識別速度和精度,但直接用于車輛檢測仍有以下不足:YOLO v2 采用13×13 的特征圖進行預測,在車輛目標較小時,無法穩定識別目標;YOLO v2 的高實時性需要配置較高的硬件設備,目前車載設備性能有限,直接采用YOLO v2網絡,無法達到車輛識別的高實時性。

針對上述問題,對YOLO v2做了如下改進。

(1)刪減卷積層:YOLO v2 使用Darknet-19 卷積網絡進行目標特征提取,該網絡對于單一類別的目標識別略顯復雜,本文主要檢測前方車輛,因此在保證識別精度的前提下,對Darknet-19進行修改,刪減部分卷積層,降低網絡復雜度,提高車輛的識別速度。

(2)使用多尺度檢測:在卷積神經網絡中,網絡較低的層次其感受野尺寸較小,所表征的特征語義信息較少,特征圖分辨率高,幾何細節表征能力強,適用于檢測小目標。網絡較高的層次則有較大的感受野,特征語義信息豐富,但是特征圖分辨率較低,對幾何細節的表征能力較差,適用于大目標提取,并在有陰影或目標遮擋時,也能識別目標,具有較強的魯棒性。因此,使用多尺度目標檢測,可以同時獲取幾何細節和大目標語義信息,實現對不同距離、不同狀態的前方車輛識別。

基于上述策略對YOLO v2進行優化后獲得了改進的YOLO v2 網絡,網絡輸入為416×416×3 的圖片,具體結構如表1所示。

改進的YOLO v2網絡將用于特征提取的卷積層縮減為8 層,使整個網絡的復雜度和運算量顯著減少;并在11 層和17 層中分別使用13×13 和26×26 兩種尺度的特征圖進行目標檢測,增加了對遠處小目標車輛的檢測能力。

表1 改進YOLO v2網絡結構

3 多傳感器信息融合策略

3.1 空間同步

在對多傳感器進行融合時,首先需要進行傳感器空間同步,即將不同傳感器坐標系的測量值轉換到同一個坐標系中。毫米波雷達與攝像頭的空間坐標系轉換公式為

式中:Zc表示點在攝像頭坐標系下的縱坐標;(u,v)表示在像素坐標系下投影點的坐標;dx、dy表示像素點在圖像坐標系下x軸和y軸上的單位長度;(u0,v0)表示攝像頭主點偏移量;f為焦距;R、t分別表示旋轉矩陣和平移向量;M為投影矩陣。

利用上述公式可以將雷達檢測目標投影到圖像上,從而獲得雷達檢測的目標包圍框。同時,經過標定獲得傳感器內外參數后,可以將圖像投影到雷達掃描平面,從而計算出像素在該平面的坐標,最終獲得攝像頭檢測目標的位置信息。由于攝像頭的檢測結果為矩形框,而雷達坐標系下的檢測結果為點,為準確表示出視覺有效目標在雷達坐標系中的坐標,從而獲得攝像頭檢測到的目標位置,本文選取視覺檢測框的底邊中點作為目標的位置點。

3.2 基于目標檢測交并比的融合

獲得雷達目標和視覺目標之后,首先為每個雷達目標以檢測點為中心,建立寬2.6 m、高2 m 的矩形包圍框,將所有包圍框基于距離和相似原理投影到圖像上。設雷達和攝像頭對某一目標的矩形檢測框分別為Rradar、Rcamera,Rradar與Rcamera所包圍的總面積為Sunion,重合區域的面積為Sintersection,則交并比IOURC為Sintersection與Sunion的比值,IOURC的計算公式為

參考相關文獻[11],并經測試與分析,當IOURC∈[0.6,1]時,雷達和攝像頭都可識別同一目標車輛,且識別結果基本匹配,具有較好可靠性。由于在此種狀態下,攝像頭獲取的目標位置信息較為精準,故將攝像獲取的目標橫向位置與雷達檢測的目標其他狀態參數綜合并輸出。

3.3 基于全局最近鄰數據關聯算法的融合

當IOURC的值不在上述范圍時,無法判斷識別的準確性,由于通過“幀差法”可以獲得攝像頭對目標速度的檢測結果,在忽略目標的加速度等信息,僅考慮目標位置和速度的前提下,利用數據關聯的方法對剩下無法匹配的雷達和攝像頭檢測數據進行處理,將兩者的檢測數據視為雷達在連續兩個采樣周期下獲得的兩幀數據,即看作單一傳感器的數據關聯問題。

本文中采用全局最近鄰(GNN)數據關聯算法,該算法在綜合考慮整體的關聯代價后,選取總代價最低的關聯方案,較為符合實際工況,且計算量較小。

設雷達和攝像頭剩余有效目標個數分別為m和n,目標到坐標原點的距離為dkr、dkc,將其按距離大小排序并存入對應的有效目標矩陣R、C,將雷達檢測值作為航跡,攝像頭檢測值作為量測。設vij(k)為k時刻航跡i與量測j的殘差,其計算公式為

式中H表示狀態轉移矩陣。

航跡i與量測j的歸一化距離d2ij表示為

式中:S-1ij(k)表示vij(k)的協方差矩陣。設Gi表示航跡i的門限值,當滿足d2ij≤Gi時,認為量測j落入航跡i的門限內,可以進行匹配,同時航跡和量測的匹配需滿足以下約束條件:

即每個航跡最多匹配一個量測,每個量測對應一個航跡。

GNN算法中的代價函數定義為

式中cij表示代價,計算公式為

通過上述公式可得出GNN 算法的代價函數,即可完成剩余雷達和攝像頭目標的匹配,從而實現雷達和攝像頭的信息融合。目標匹配成功后,對雷達和攝像頭檢測到的目標位置進行加權處理,將加權后的目標位置和雷達檢測的其他信息綜合后輸出,加權策略為

式中δcx、δcy、δrx、δry分別表示攝像頭和雷達檢測的目標位置在x、y方向的平均誤差。

3.4 目標決策

傳感器信息融合完成后,需要對融合目標進行存在性判斷,采用擴展卡爾曼濾波(EKF)算法跟蹤融合目標,根據跟蹤結果得到最終的輸出目標。

融合目標的狀態向量為

式中x、y、vx、vy分別表示目標的縱向坐標、橫向坐標、縱向速度和橫向速度。

EKF的狀態方程和觀測方程為

式中:X(k)、X(k- 1)分別表示目標在k、k- 1 時刻的狀態向量;Z(k)表示目標在k時刻的觀測向量;f、h表示狀態轉移矩陣;V(k)、W(k)表示高斯白噪聲。

基于k- 1時刻的目標狀態,可以預測出目標在k時刻的狀態為

最終更新得到目標的狀態信息為

圖4 目標決策方法

4 試驗與分析

4.1 改進YOLO v2驗證

本文中使用的車輛數據集為自主采集并標注獲得,數據集共有5 861 張圖片,并按照8∶1∶1 的比例劃分為訓練集、驗證集和測試集,網絡的訓練和測試在如表2所示配置的工作站上進行。

表2 工作站配置

為驗證改進YOLO v2的性能,利用自制測試集,分別使用YOLO v2和改進的YOLO v2兩種網絡進行檢測試驗,并統計網絡檢測的準確率、漏檢率和檢測速度,試驗結果如表3所示。

表3 網絡檢測結果對比

從表3 可以看出,在相同配置下,本文設計的改進YOLO v2在車輛檢測準確率上與YOLO v2大致相同,但漏檢率降低,在檢測速度上也得到顯著提升。

4.2 實車檢驗測試

本文中采用的傳感器為德國大陸公司生產的ARS 408?21 毫米波雷達和大恒MER?230?168U3M/C CMOS工業相機,試驗車輛與傳感器如圖5所示。

圖5 試驗車與傳感器

為綜合分析融合算法的性能,在晴天、陰天、傍晚和雨天等多種道路條件下進行了實車試驗,部分檢測結果如圖6 所示。圖中紅色框為雷達檢測框,紫色框為視覺檢測框。

圖6 部分檢測結果

如圖7(a)所示,12 號目標的雷達和視覺檢測框出現較大偏移,基于檢測框交并比無法完成融合,將視覺檢測的該目標投影至雷達平面,如圖7(b)所示,圖中紅色點和紫色點分別表示雷達、視覺檢測到的該目標在雷達坐標系中的位置,基于GNN 算法成功完成了雷達和視覺檢測結果的融合。

圖7 基于GNN算法的融合

圖8 雨天環境融合效果

圖8 展示了雨天環境下的融合結果。攝像頭在雨滴的干擾下未檢測出15 號目標,雷達由于自身較強的環境適應性,未受到下雨的影響,成功檢測出視野內的所有車輛,在最終的融合結果中,并沒有因視覺漏檢而遺漏車輛目標。

為對比融合算法與單傳感器之間檢測效果的差距,選取了500 組經過時間同步后的圖像和雷達數據,分別采用雷達算法、視覺算法和融合策略進行處理。表4為3種方法的處理結果。

表4 傳感器檢測結果對比

從表4 可以看出,相比于單一傳感器檢測方法,融合策略綜合了毫米波雷達和視覺的各自優勢,在提升準確率的同時降低了漏檢率,實現了更好的檢測效果。

5 結論

提出一種基于毫米波雷達和機器視覺融合的車輛檢測方法,利用分層聚類算法完成車輛目標的初篩,通過改進YOLO v2算法降低了漏檢率,并實現了更高的檢測速度,在確保傳感器空間同步下,基于目標檢測交并比和GNN 數據關聯建立融合策略,最后利用擴展卡爾曼濾波算法實現融合目標跟蹤。

試驗結果表明:該方法有效地實現了雷達和視覺檢測結果的信息融合,可在多種天氣條件下完成對車輛目標的檢測,且檢測效果優于單傳感器算法,但在隧道和車輛密集的路口等復雜場景下仍會出現一定程度的誤檢和漏檢情況。在后續研究中需要針對相應場景,進一步開展實車試驗,分析誤檢和漏檢發生原因,優化傳感器融合策略,提升融合策略的場景適應性。

猜你喜歡
融合檢測
一次函數“四融合”
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
融合菜
從創新出發,與高考數列相遇、融合
“幾何圖形”檢測題
“角”檢測題
寬窄融合便攜箱IPFS500
主站蜘蛛池模板: 免费观看成人久久网免费观看| 午夜国产在线观看| 精品国产网| 91精品国产一区自在线拍| 九九热精品视频在线| 深爱婷婷激情网| 午夜不卡视频| 超清人妻系列无码专区| A级毛片高清免费视频就| 日韩精品一区二区三区大桥未久 | 国产成a人片在线播放| 成年免费在线观看| 国产凹凸视频在线观看| 日本精品αv中文字幕| 国内精品久久久久久久久久影视| 欧美亚洲国产精品久久蜜芽| 精品国产免费观看| 国产91成人| 欧美精品黑人粗大| 亚洲91精品视频| 国产浮力第一页永久地址| 无码AV高清毛片中国一级毛片| 国产真实自在自线免费精品| 国产激情无码一区二区免费| 国产女人爽到高潮的免费视频 | 国产久草视频| 亚洲成aⅴ人在线观看| 国产91av在线| 国产精品粉嫩| 制服丝袜亚洲| 九九久久精品免费观看| av尤物免费在线观看| 伊在人亚洲香蕉精品播放| 91精品国产丝袜| 99热这里只有成人精品国产| 久久精品丝袜| 欧美三级视频网站| 国产亚洲现在一区二区中文| 亚洲网综合| 亚洲国产成人自拍| 尤物在线观看乱码| 91精品国产综合久久香蕉922| 亚洲精品成人片在线播放| 91精品情国产情侣高潮对白蜜| 色婷婷综合激情视频免费看| 国产在线视频福利资源站| 亚洲毛片网站| 久久人人妻人人爽人人卡片av| 天堂成人av| 亚洲综合国产一区二区三区| 亚洲天堂久久| 国产99免费视频| 四虎免费视频网站| 美女无遮挡免费网站| 久久久久久尹人网香蕉| 日韩精品欧美国产在线| 国产主播在线观看| 中国黄色一级视频| 亚洲最猛黑人xxxx黑人猛交| 99久久亚洲精品影院| 亚洲第一区欧美国产综合 | 国产精品私拍99pans大尺度| 不卡的在线视频免费观看| 国产主播在线一区| 色哟哟精品无码网站在线播放视频| a免费毛片在线播放| 国产无码高清视频不卡| 国产高清在线精品一区二区三区| 热re99久久精品国99热| 又爽又大又黄a级毛片在线视频 | 77777亚洲午夜久久多人| 国产精品成人观看视频国产| 久久国产精品77777| 日韩少妇激情一区二区| 国产又粗又猛又爽视频| 国产欧美日本在线观看| 最新精品久久精品| 欧美性天天| 欧美成人午夜视频免看| 国产精品va| 2021亚洲精品不卡a| 国产屁屁影院|