摘 要: 對視頻圖像處理中車輛速度檢測所涉及的攝像機標定和基于圖像匹配的測速算法進行了研究。首先經幾何推導得出二維標定算法,得到一個精度滿足需要、計算量小的標定算法。然后在圖像匹配的基礎上,將虛擬線圈和圖像匹配算法結合起來,得到匹配前后車輛絕對像素位置。經實地驗證,能夠比較準確地檢測出車輛經過時的瞬時速度,滿足實際應用的要求。
關鍵詞: 交通參數檢測; 車輛速度檢測; 攝像機標定; 圖像匹配
中圖分類號: TN911.73?34; U491 文獻標識碼: A 文章編號: 1004?373X(2013)03?0158?04
0 引 言
近年來,基于視頻技術的車輛監測技術由于其維護方便,易于實施的特點廣受關注,其方法也開始廣泛應用于車速檢測,視頻車輛檢測技術將是未來實時交通信息采集和處理技術的發展方向。
測量車輛速度步驟為:
選定一個時間間隔n幀,檢測出n幀前后車輛絕對位置(單位:像素)。
把圖像坐標系映射到世界坐標系,得出n幀前后車輛實際位移(單位:m)。
實際位移(單位:m)除以n幀時間,得出速度結果。
1 攝像機標定
攝像機標定的目的就是求出圖像坐標(單位:像素)和世界坐標(單位:cm)的轉換關系式。攝像機標定之前需要先在圖像上標出左中右三個車道線[1?3]。
本文利用攝相機的透視關系,幾何推導出了攝像機的圖像坐標與世界坐標系的轉換關系式[4?5]。
中間車道線的白色虛線間隔是等距的,通過實際測量得到其距離為6 m,選定這個等距的白線作為參照物。用鼠標在6 m等距的地方分別進行點擊,并且至少要點出三個點。幾何推導方法如下:
透視關系幾何推導圖如圖1所示,O點為攝像機的焦點,NC代表的是中間車道線,MF為攝像頭鏡頭投影面,也就是視頻圖像上所顯示的面。由攝像機鏡頭的成像原理可知,M靠近圖像下方,F靠近圖像上方。
根據這幾個關系式,可以得到中間車道線上288行像素中任意一行到第0行的實際距離,如MappedDis[120]=708是指中間車道線上從第0行到120行的實際距離為708 cm,即MappedDis[120]?MappedDis[0]= 708。由此可以得出中間車道線任意兩點像素之間的實際距離。
實際應用中,攝像機安裝在道路一側,偏離中間車道線。如圖2所示,兩條斜線之間,EF的實際距離應該等于AB的實際距離。所以說在攝像頭的標定中,需要根據不同的場景給予一定的角度補償,把透視關系式從中間車道線擴展到整幅圖。把中間車道線上的點擴展成一條直線,使之成為二維的。
圖2中,每條直線上的值都是相等的,直線S與中間車道線相交于O點,以這條線作為基準零點,也就是說這條線上透視關系值都為0,直線S下方這一部分的值未處理,也都為0。直線H上的值都等于MappedDis[M],直線T上的值都等于MappedDis[N]。由此可以得出,點M和點N所在的兩條直線上任意兩點的距離為M和N的距離,即等于MappedDis[M]? MappedDis[N]。
近似地,把圖2中的直線間看做平行,只需要知道一個斜率,就可以得出一個補償關系。假設直線FM和直線EN平行,直線EN和水平線之間的夾角α是已知的。通過對E、F兩點做一個角度為α的投影,就可以得到M、N兩點的坐標,以及M、N兩點的透視關系,從而達到對偏離中間車道線的車輛在透視關系上的一個補償效果。
2 車速檢測方法
虛擬線圈檢測法是視頻測速的一個基本方法,有代替物理檢測線圈的功能。虛擬線圈水平放置于圖像的中下部,可以避免前車擋后車的問題。通常,檢測區域的高度為普通車長,寬度為車道的寬度。這種檢測方法比較適用于攝像頭架設位置較高、車輛較小的情況。
2.1 基于圖像匹配的測速算法[6?7]
基于圖像匹配的算法是指找到車身上某部分特征比較明顯的塊或者面,在后續幀按照某種準則進行對比匹配,找到此塊在后續幀的位置,然后依次進行跟蹤匹配,判斷出此塊的運動軌跡,從而得出車輛的像素位移[8]。
為了便于處理,720×288的圖像被分割成90×48個塊,每塊大小8×6像素。本研究中使用了一條高度為1塊,長90塊的虛擬線圈。
隧道光線相對比較穩定,當車輛剛好經過線圈位置時開始測速。從圖像頂部往下縱向看,首先是車身,然后是車尾,最后是比較穩定的路面。所以匹配模板[9]要包括一部分車身、車尾以及一定的路面,這樣找出來的模板特征比較豐富。
2.1.1 模板位置的確定
已知匹配模板包括部分車身、車尾、路面,即縱向上車尾位于這個模板面的中間位置。而接收到車輛結束信號時,車尾的位置剛好經過線圈,所以取線圈的縱坐標作為模板的縱坐標。
時間上,每幀車輛經過時虛擬線圈內二值化塊都有一個中心位置,記錄下這些序列的中心位置橫坐標,經過一個加權平均,得出車輛的橫向位置,以這個位置為橫坐標,再綜合線圈位置為縱坐標這項因素,從而得出匹配模板的中間點坐標。
2.1.2 模板的表示
經過對不同場景、不同時間段的多次測量、實驗發現:模板應該比車身窄,即模板的上半部分全為車身,下半部分是路面。由于透視關系,車輛的像素寬度是上窄下寬。并且在隧道交通中,轉彎的情況也比較多,所以車道線走勢并非直線。所以本文的模版是一個不規則的“四邊”形,上邊和下邊都是直線,左右斜邊隨車道走勢而變化,如圖3所示。
O點為模板中心位置,模板縱向高8個塊。橫向上,O點左右各3個塊。三條車道線的坐標已知。通過A、E、F三點的比例關系,計算出左右斜邊上任意一點X的橫坐標,且坐標隨著車道線的走勢而變化。從而得到隨著車道線走向而變化的不規則四邊形作為匹配模板。
2.1.3 滑動搜索范圍的劃定
正常狀態下,車輛是向前行駛的,所以目標模板應該在匹配模板的附近。在匹配模板的附近劃定一個搜索范圍,這個搜索范圍一定要比匹配模板大,但又不能太大,以減少不必要的計算量。
經過對不同時間段的多幅場景進行研究,選擇了以下滑動搜索范圍:縱坐標從(線圈位置-3)到(線圈位置+14),左右兩斜邊坐標同樣用計算模板表示的方法得到。在這個滑動范圍內可以檢測的車速范圍為:0
2.1.4 一維SAD匹配準則
使用匹配模板與目標模板做匹配,涉及相關值的計算問題,采用一維最小絕對差值函數(SAD):
對比圖4看出,圖4(b)的波形中有一部分和圖4(a)的波形非常相似。由于匹配模板只是上下滑動,所以稱為一維SAD匹配準則,見式(1)。在滑動搜索范圍內滑動任意i個像素,發現當滑動24個像素時一維SAD最小。找到一維SAD最小的目標模板,這個目標模板在4幀后視頻圖像上,距離原匹配模板24像素的位置。
2.2 測速算法實現
經過前面的計算,得出了車輛像素位移為24像素。但由于存在透視關系,模板的上部和模板的下部移動的實際距離是不同的:同樣的像素,在離攝像頭越遠的地方代表的實際距離越大。如果采用模板頂部作為實際位移,則位移偏大,如果采用模板底部作為實際位移,則位移偏小,所以要找到模板的合適位置來計算車輛的實際位移。
2.2.1 最優測速特征點的選取[10]
首先觀察匹配模板的波形圖。根據波形從平穩到波谷再到不穩定這個特征可以發現,谷值點貼在路面上,不受車高、車長以及車身灰度信息的影響,可以作為圖像匹配的特征點來判斷車輛匹配的絕對像素位置。充分利用波谷這個特征點的信息,找到波谷位置,如圖5中的白色線條所示。
圖5中,相隔4幀,采用波谷作為車輛的絕對像素位置,匹配前后坐標分別為129和151。
2.2.2 速度計算
在圖3的場景中,補償角度[α]的大小經過計算為:[tanα]=0.008。按照補償關系式,車輛的補償后的位置分別為114和136,并且視頻播放速度為25 f/s,所以相隔4幀匹配的速度結果為:
3 實地驗證結果
為了驗證本文提出的基于圖像匹配的車輛速度檢測算法的的正確性和可行性,對本研究成果進行了實地驗證,實驗場地包括上海復興路隧道、貴州崇遵隧道。這里只列出上海隧道的一組數據。
3.1 上海復興路隧道實驗
本場景視頻的虛擬線圈位置為20,當接收到車輛計數模塊發來的車輛結束信號后,進行模版匹配。在上海復興路隧道的視頻圖像中,補償角度[α]的大小經過計算為[tan α]=0.008,實驗數據見表1。
4 結 語
本研究成果目前已應用于貴州崇遵隧道等,系統運行狀況良好,隧道實測數據表明:
(1)能夠以25 f/s的速度實時地處理720×288的視頻圖像,并實時的檢測出經過線圈的車輛瞬時速度,可檢測的車速范圍為0
(2)可實際應用于隧道交通車速檢測、交通調查等方面。
盡管運用對視頻的處理,獲得車輛實時瞬時速度得到了實現,并取得了一定進展,但在攝像機標定、模版匹配準則等幾個方面仍然需要進一步深入研究。
參考文獻
[1] 劉偉仙,周富強,張魯閩,等.一種單攝像機虛擬鼠標的標定方法[J].光學學報,2009,29(10):2832?2836.
[2] 張浩鵬,王宗義,張智,等.全景攝像機標定[J].哈爾濱工程大學學報,2009,30(11):1239?1245.
[3] 傅丹,周劍,邱志強,等.基于直線的集合不變性標定攝像機參數[J].中國圖象圖形學報,2009,14(6):1058?1063.
[4] DOUXCHAMPS D, CHIHARA K. High?accuracy and robust localization of large control markers for geometric camera calibration [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(2): 376?383.
[5] TARDIF J P, STURM Peter, TRUDEAU M, et al. Calibration of cameras with radially symmetric distortion [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(9): 1552?1566.
[6] 岡薩雷斯.數字圖像處理[M].阮秋琦,譯.2版.北京:電子工業出版社,2007.
[7] UZ T, BEBIS G, EROL A, et al. Minutiae?based template synthesis and matching for fingerprint authentication [J]. Computer Vision and Image Understanding, 2009, 113(9): 979?992.
[8] 沈庭芝,王衛江,閆雪梅.數字圖像處理及模式識別[M].2版.北京:北京理工大學出版社,2007.
[9] 李言俊,張科.景象匹配與目標識別技術[M].西安:西北工業大學出版社,2009.
[10] 張洪剛,陳光,郭軍.圖像處理與識別[M].北京:北京郵電大學出版社,2006.