李鵬
(西安電子科技大學計算機學院,陜西西安710071)
視頻監控系統可以獲取大量的道路視頻信息,應用圖像識別等技術可以將外場攝像機所拍攝到的視頻圖像,通過一系列的視覺算法處理,識別圖像中的車輛,計算其位置等參數,進而檢測出各種交通流參數,得到靜態和動態的交通事件、獲得交通流數據,這對保證公眾出行安全、順暢,道路高效運營有著重要意義。
交通流參數計算中一項重要的內容是獲取車輛速度,這就需要在實際坐標與圖像坐標之間建立一個視覺模型,以便在二者之間進行轉換,即進行攝像機標定。通過攝像機標定,實現兩個坐標系之間的相互轉換,使得圖像上的每個像素點均與實際道路中的區域對應,便于計算車輛速度。
攝像機標定是為了確定攝像機所在的實際位置,通過計算其屬性參數并建立成像模型,從而確定物體的空間坐標及其圖像坐標的對應關系。攝像機模型是對攝像機幾何模型的抽象,其成像過程是對空間點的影像變化,而攝像機參數則決定了變換的具體映射方式,只要知道了這些參數和空間點的坐標就能夠計算出相應的像點坐標[1]。
攝像機的模型是光學成像的幾何關系,最簡單的模型是線性模型,也稱為針孔模型[2]。攝像機成像模型通過成像透鏡,將實際坐標系中的場景投影到二維圖像平面上。在二維圖像中每一個像素的顏色信息可以反映該物體該點在實際空間的反射強度,該像素在圖像坐標中的位置與其在實際空間位置的集合位置有關系,攝像機成像模型即決定了這些位置的相互關系[3]。
傳統的攝像機標定方法是在一定的攝像機模型下,利用特定標定物,對其進行圖像處理,利用一系列數學變換和計算方法,求取攝像機模型的內部和外部參數[4]。傳統的攝像機標定方法需要使用尺寸等參數已知的標定物,標定物上特定點的三維坐標已知,通過建立這些點與其圖像點之間的對應關系,經過計算獲取攝像機的各種內外部參數。常見的傳統攝像機標定方法有:A bdel-Aziz和Karara于1971年提出的直接線性變換方法[4];Tsai提出的基于徑向一直約束(RAC)的兩步法標定方法[5];Martins等提出的雙平面模型標定法[6];張正友標定法和孟曉橋、胡占義提出的圓標定法等。傳統的攝像機標定法可以獲得較高的標定精度,但不適應于不能使用標定物的場合。
高速公路中測定車輛的速度,無法對攝像機都進行傳統標定,所以也無法直接使用傳統的攝像機標定算法進行坐標間的轉換。文中利用高速公路施工規范,通過對速度檢測區進行網格劃分獲得圖像中標定物的參數信息,得到圖像坐標與車輛空間坐標的對應關系。
在攝像機的透視投影模型中,實際坐標下的空間點M與圖像坐標系下的圖像平面上的點m有一定的變換關系,這種變換關系是通過投影矩陣P進行投影的,如式(1)所示

式中,m=(u,v,1)T是圖像點的齊次坐標;M=(X,Y,Z,1)T是空間點的齊次坐標。若Z=0,即取平面為xoy平面,式(1)可變為

設H=(p1,p2,p3),M=(X,Y,1)T,則式(2)可表示為

通過式(3),即可將圖像中任意一個像素點對應到其實際坐標平面上的一點,即可實現圖像坐標與實際坐標的轉換。
由式(3)可以看出,每一對實際坐標與圖像坐標的對應點可以得到兩個方程,經過變換之后,方程如式(4)所示

其中,H'=(h1,h2,h3,h4,h5,h6,h7,h8,h9)T,是將單應矩陣變換為一維矩陣后的結果。只需4組對應點,且任意三點不共線,即可確定單應矩陣,其計算方程如式(5)所示

其中

利用奇異值分解法求方程(5)的解,即可得到單應性矩陣H。單應矩陣求得之后,根據像平面的坐標即可求得實際坐標系中的坐標,再根據兩點之間的距離公式即可求得兩點的距離。網格劃分效果如圖1(a)和圖1(b)所示。

圖1 單應矩陣網格劃分效果圖
為得到真實的車速標準,首先在檢測場景內使用測試車輛,以車輛速度表為參照分別以60 km/h、90 km/h和120 km/h通過檢測區域,為保證測試的有效性,測試車輛將以設定時速在不同場景中行駛10趟,在車輛行駛過程中進行全程錄像。對錄像內容進行測試,3種車速情況下的測試結果分別如圖2(a)、圖2(b)和圖2(c)所示。

圖2 車速測試結果圖
測試數據分析如表1所示,其中偏差率為檢測車輛車速與測試車速差值的絕對值與真實車速的比值。

表1 車速測試分析
從圖2中可以看出,車速誤差不超過10%,檢測精度滿足視頻監控系統中對于交通流參數的要求。如表1所示,出現偏差率隨車速增高而降低的情況,這是由于車速較慢時,車輛在標定網格內的行駛距離較短,圖像采集、網絡傳輸或服務器處理速度等微小的時間差異都會對速度的計算產生影響,所以會出現車速較低時,偏差率較大的情況。
提出了基于平面單應性矩陣的攝像機標定算法,通過攝像機標定對檢測區域進行網格劃分從而進行車輛速度的檢測,基于這種算法可以實時獲取交通流參數中有關車輛速度的信息。實驗結果顯示,該方法易于實現,能做到實時處理,平均車速檢測準確率達90%以上。
[1] 鄒鳳嬌.攝像機標定及相關技術研究[D].成都:四川大學,2005.
[2] 馬頌德,張正友.計算機視覺——計算理論與算法基礎[M].北京:科學出版社,2003.
[3] 黃侃.計算機立體視覺中的攝像機標定算法的研究與應用[D].沈陽:沈陽工業大學,2007.
[4] ABDEL-AZIZ Y I,KARARA H M.Direct linear transformation into object space coordinates in close-range photogrammetry[C].Proc Symposium on Close-Range Photogrammetry,1971:1-18.
[5] TSAI R Y.An efficient and accurate camera calibration technique for 3D machine vision[C].Proc CV PR'86,1986:364-374.
[6] MARTINS H A,BIRK J R,KELLEY R B.Camera models based no data from two calibration planes[J].Computer GraphicsandImagingProcessing,1981,17(2):173-180.