999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于雙目視覺的車輛檢測及測距

2019-03-12 12:27:56陳攀
現代計算機 2019年5期
關鍵詞:檢測

陳攀

(四川大學計算機學院,成都 610065)

0 引言

隨著汽車保有量的增加及無人駕駛技術的發展,前車檢測及測距技術的研究,并廣泛應用于汽車防撞系統中。當今常用的車間測速方法有毫米波雷達測距、超聲波測距、激光雷達測距、紅外線測距及計算機視覺等。其中,超聲波測距實現簡單、成本較低,所以應用較廣,但由于多普勒效應,這種方法無法測量正在高速行駛車輛下的車距,且測距范圍很低,所以其一般應用在汽車的倒車防撞系統上;毫米波雷達測距系統測量精度高、范圍長,不易受外界條件干擾,但其也易受其他通信設施的電磁干擾,而且毫米波雷達測距系統成本較高,對于一般的駕駛輔助系統來說很難被廣泛使用;激光雷達測距系統可以快速、精確地獲得目標位置和距離信息,但是易受環境干擾且實現成本高,很難用在車載駕駛輔助系統上。相較于以上各種方法,利用計算機視覺原理實現的測距系統能夠獲得圖像信息,可以對目標進行檢測和識別,還可以根據不同的場景實現各種不同的功能,如交通標志牌檢測、車道線檢測等。這種方法也有其局限性,易受環境干擾,在雨雪、大霧等天氣下魯棒性較差,其精度和性能也取決于實現的算法,但因其上述及成本低廉等優點,可以廣泛應用于車載輔助系統上。一般,利用計算機視覺原理測距系統分為單目視覺測距系統和雙目視覺測距系統(立體視覺測距系統)。目前國內外都開展了基于視覺探測的汽車主動防護系統的相關研究工作,豐田汽車發布了雷克薩斯“LS460”配備的安全技術,采用立體攝像頭及米波雷達檢測障礙物,實現車輛和行人的檢測[1]。

1 算法總體設計

系統的攝像元件主要用兩塊水平放置的攝像頭組成,可以同時采集左右兩幅立體圖像。系統的總體流程如圖1所示。先將相機采集到的圖像進行灰度化處理;根據車載相機的角度截取感興趣區域(ROI),通過截取ROI來消除天空及路邊等非相關物體的干擾;車輛檢測通過訓練好的AdaBoost分類器,用矩形方框標記檢測到的車輛;提出一種基于雙目系統的交叉檢測的方法,通過左圖的檢測結果去檢測和匹配右圖來保證兩幅圖像上檢測結果的準確性和一致性;一旦檢測到有效車輛,利用雙目視覺原理對車輛進行測距,獲得前方車輛的距離信息。

圖1 系統流程圖

2 車輛檢測

2.1 分類器訓練

車輛分類器使用Haar-like[2](類Haar)特征和Ada?Boost分類器,簡稱Haar分類器。類Haar特征值均以矩形框為單位,通過形框內所有黑色區域的和減去矩形框內所有白色區域的和即可計算得到,目前常用的矩形特征有15種[3],主要由以下四類:邊緣特征、線性特征、中心-環繞特征及特定方向特征。

類Haar特征可以描述該矩形圖像區域內的灰度變化情況。在目標檢測時我們需要有一個子窗口在待檢測的圖片窗口中不斷的移位滑動,子窗口每到一個位置,就會計算出該區域的類Haar特征,然后用我們訓練好的級聯分類器對該特征進行篩選,一旦該特征通過了所有強分類器的篩選,則判定該區域為目標。類Haar特征最初由Papageorgiou提出,后來被Paul Vi?ola和Michael Jones改進,用來實現人臉檢測。類Haar特征適合于用來檢測“基本剛性的”物體,例如人臉、車輛等,此類物體表面包含了豐富的矩形特征。類Haar特征如圖2所示,本文中使用了垂直特征。

圖2 類Haar特征

本文使用AdaBoost進行訓練,一共使用了8873張汽車的圖片作為正樣本,使用了16676張負樣本圖片,示例如圖3、圖4。

圖3 正樣本示例

圖4 負樣本示例

在類Haar特征值的計算中,需要進行大量的區域像素值的累加,所以使用積分圖[4]進行加速。圖像積分圖中每個點的值是原圖像中該點左上角的所有像素值之和。也就是說,積分圖是一個和圖像尺寸大小相同的矩陣,其每個點的值代表的是圖像中該點左上角像素點值之和。文獻[5]提出了一種利用遞推關系來計算積分圖的算法:

其中,c(x,y)為圖像在列方向上求和,初始時 c(x,-1)=ii(-1,y)=0。

使用積分圖可以加速圖像矩形區域內像素值累加操作,原理如下:圖像中矩形區域[x0,x1] × [y0,y1] 內像素和可以通過積分圖中II4+II1-II2-II3的計算得來,如圖5所示。

圖5 積分圖

2.2 交叉檢測方法

由于我們使用的Haar特征+AdaBoost分類器會有一定的誤檢率,效果如圖6、圖7所示。可以看出,檢測結果中出現了相當高的誤檢率。

圖6 左圖檢測結果

圖7 右圖檢測結果

由此導致最嚴重的問題就是左右圖像檢測結果的一致性問題。系統或者成功地檢測出兩幅圖像中的同一目標車輛,或者同時漏檢同一目標車輛。除此之外,則會導致距離測量的結果出現嚴重偏差。因此,提出了一種基于雙目系統的交叉檢測的策略以保證系統檢測結果的一致性。策略如下:

(1)對于在左圖中檢測到每個目標車輛,根據左圖中目標車輛的大小和位置在右圖中創建感興趣區域(ROI)。

(2)當右側圖像的ROI建立后,在圖像中搜索確定此ROI中是否存在假定的車輛。

(3)如果上述ROI中只有一輛車輛,則認為它是左側圖像中檢測到的車輛。然后從搜索候選者中移除該車輛。如果不止一個候選車輛符合上述條件,我們會根據假定的車輛的大小和坐標選擇最佳匹配。

(4)如果上述ROI中未發現車輛,降低分類器的閾值來對這個區域進行檢測。當閾值降低,正確識別率降低,誤檢率升高。如果ROI內有車輛,較低的閾值更容易識別出車輛;如果左邊的結果是假的(分類器誤將特定視角的某些東西認定為車輛),即使是較低閾值的分類器也無法從另一個角度檢測到。

●如果檢測結果為正,則將右側和左側的新結果將標記為同一車輛。如果找到多個結果,我們繼續根據假定的車輛的大小和坐標選擇最佳匹配;

●如果檢測結果為陰,我們將左圖像的結果視為誤報,并將其從結果集中刪除。

(5)在左圖中搜索完所有假定的車輛之后,對于右圖,我們需要從左圖中找到其匹配結果。由于之前已經先前搜索了所有左側結果,因此左圖中不存在任何可用的候選車輛,所以以較低閾值繼續前幾步。

直線方程(7)和(8)構成對參數xA的線性約束。將點集SFA和SCD內點的坐標轉換成新坐標系下的坐標,為簡化符號,在不引起歧義的情況下,這里仍用(xP,yP)表示點集內的P點在新坐標系下的坐標。

通過交叉再檢測過程,進一步降低了誤檢率,效果如圖8、圖9所示。可以看出,誤檢率有很明顯的提高。

圖8 左圖交叉再檢測結果

圖9 右圖交叉再檢測結果

3 車距測量

3.1 雙目視覺測距原理

人對眼前的物體的立體感來源于物體在人雙眼中成像的視差,通過雙目產生的視差,人可以感知實體的三維信息以及到實體的距離信息。雙目視覺測距利用兩臺攝像機模擬人眼的成像原理,拍攝兩幅圖像經過圖像校正、匹配等步驟可以計算出圖像像素點的視差信息,從而恢復出物體的深度信息。圖10顯示了雙目視覺原理。Pl和Pr分別為左右相機的成像平面,我們可以看到,原始雙目系統的成像平面都不是完全的行對準,不能直接計算視差,要先對圖像進行立體校正,也叫做極線校正。立體校正可以對左右圖像進行重投影,使它們精確地落在同一平面上。

圖10 雙目視覺原理圖

圖11顯示了經立體校正后的雙目視覺原理,這時可以直接計算得到視差。ol和or分別為左右相機的光心,ol與or的連線T稱為基線,用來表示左右相機光心之間的距離,為定值,xl與xr分別表示實體點 p在兩相機中的成像,視差d=xl-xr,Z表示實體點 p到基線的距離,f為相機的焦距。由數學上三角形的相似關系可得出視差d與深度Z的數學關系表達式

圖11 立體校正后的雙目視覺原理圖

3.2 立體匹配

在車輛識別中,在一對立體圖像中找到相似部分的能力是至關重要的問題[6]。圖像立體匹配的目的是:在右圖中找到左圖中同一極線上指定像素點的最佳匹配。立體匹配的基本原理為:計算匹配代價函數,搜索使得匹配代價函數值最小化的位置,確定為最佳匹配點。所以,代價函數的選取是立體匹配算法中至關重要的一環。常見的一些匹配代價函數如:SAD(Sum of Absolute Difference,灰度差絕對值之和)、SSD(Sum of Squared Difference,灰度差平方值之和)、MAD(Mean Absolute Difference,平均灰度差絕對值)以及ZNCC(Zero-mean Normalized Cross-Correlation,零均值歸一化互相關)等。

采用了一種由粗到精的匹配策略:先采用跳躍式步長利用較大的窗口對圖像進行抽樣式匹配計算出粗略的視差值,隨后,將上一步匹配得到視差值作為先驗知識,在對像素點逐個匹配時可以降低匹配的搜索范圍,在精度和時間性能上都有所提升。主要步驟如下:

粗匹配階段:此階段在計算代價函數時使用大窗口以減少錯誤匹配。在左相機采集到的圖像上設置跳躍步長,從起始像素點在右圖對應行上尋找匹配點,得到由原圖抽樣匹配后的粗匹配視差圖,再采用左右一致性檢查(LRC)[7]提高匹配精度。左右一致性檢查即:在完成從左到右的匹配后,再進行從右到左的匹配,檢查兩者匹配結果的一致性;若匹配結果一致則接受,反之,該點視差值則為空值。對于空值,采用雙線性插值填充。

我們感興趣的是前方車輛車距,因此在計算視差時只關心被交叉檢測到的車輛區域,只針對這一區域進行立體匹配。

在得到圖像感興趣視差圖后,可根據前述視差和深度的計算公式得到深度圖,我們還需要一部分工作來推導出前車的距離信息。我們使用直方圖來表示深度圖,直方圖橫軸由相應點的深度組成,縱軸由對應深度的像素點個數組成。取直方圖峰值前三做加權平均,即,其中n代表為直方圖中峰值為前n,dn代表峰值前n的深度值,distance則為前方車輛的車距信息。

4 實驗結果

4.1 實驗設備及平臺

本文所使用的攝像機為3D雙目攝像機,由兩只攝像頭組成,集成于同一塊電路板上,如圖12所示。它可以同時采集左右兩幅圖像,圖像的分辨率為640×480。本文實驗平臺的硬件設置為Intel Core i5-6400 2.70GHz,內存為8.00GB,軟件配置為Windows 10操作系統、Visual Studio 2015以及OpenCV 3.2.4,編程語言采用C++。

圖12 3D雙目攝像機

4.2 實驗結果及分析

由于在真實場景下我們無法獲得準確的前車車距,所以我們在設置場景下進行實驗。選取10-100m的10個間距進行試驗,對圖所示車輛在不同距離進行了實驗測量。在進行立體匹配時,粗匹配階段的匹配窗口大小設置為20×20,精匹配階段的匹配窗口大小設置為5×5。實驗結果如表1所示。

表1 車距測量結果

本文基于雙目視覺原理,利用機器學習進行車輛檢測,通過雙目系統進行交叉再檢測,并采用一種由粗到精的匹配策略,在消除車輛誤檢、提高視差精度兩方面有了很大的提升。實驗結果表明,本文提出的方法具有較高的測距精度。當然,該方法依然有所不足,現有方法車距越遠,測距誤差越大,這也是今后繼續努力提升的方向。

猜你喜歡
檢測
QC 檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
“有理數的乘除法”檢測題
“有理數”檢測題
“角”檢測題
“幾何圖形”檢測題
主站蜘蛛池模板: 特级做a爰片毛片免费69| 久久综合九色综合97网| 亚洲第一成网站| 日韩一区精品视频一区二区| 91久久夜色精品| 国产AV无码专区亚洲A∨毛片| 欧美精品xx| 无码高清专区| 亚洲最大综合网| 国产尤物视频在线| 久久黄色毛片| 欧美综合区自拍亚洲综合天堂| 国产黑丝一区| 亚洲欧美人成人让影院| 国产剧情无码视频在线观看| 欧美精品亚洲日韩a| 亚洲精品自拍区在线观看| 久久成人免费| www.91在线播放| 久青草网站| 亚洲水蜜桃久久综合网站| 精品久久久久久中文字幕女| 免费看美女毛片| 国产视频欧美| 影音先锋亚洲无码| 福利视频99| 国产福利观看| 国产精品欧美亚洲韩国日本不卡| 亚洲婷婷在线视频| 精品一区二区三区水蜜桃| 国产一级毛片网站| 亚洲无码视频喷水| 青青草原国产| 五月天天天色| www亚洲天堂| 97精品久久久大香线焦| 黄色网在线| 秋霞午夜国产精品成人片| 少妇被粗大的猛烈进出免费视频| 91精品国产综合久久香蕉922| 亚洲成人播放| 日韩视频福利| 色婷婷在线播放| 欧美日韩资源| 成人国产一区二区三区| 激情综合婷婷丁香五月尤物| 少妇精品在线| 日本国产精品| 亚洲中文字幕23页在线| 亚洲男人天堂网址| 国产精品自拍露脸视频| 精品国产自| 亚洲欧美另类久久久精品播放的| 亚洲精品大秀视频| 亚洲va在线观看| 国产精品午夜电影| 国产黄网永久免费| 亚洲成人网在线观看| 亚洲精品无码在线播放网站| 国产精品亚洲一区二区三区z| 久久久久免费精品国产| 国产呦精品一区二区三区下载 | 久久久精品无码一二三区| 日韩美毛片| 国产精品美女免费视频大全| 91丝袜乱伦| 国产视频只有无码精品| 香蕉网久久| 91破解版在线亚洲| 国产99久久亚洲综合精品西瓜tv| 日韩欧美中文亚洲高清在线| 99re在线免费视频| 国产黄色爱视频| 97视频在线精品国自产拍| 99爱在线| 久久精品国产999大香线焦| 中文字幕在线观看日本| 久久人搡人人玩人妻精品一| 国产高清在线观看| 国产草草影院18成年视频| 亚洲香蕉在线| 毛片最新网址|