李偉 張麗艷 劉健 劉鑫



摘要:傳統基于邊緣檢測的邊緣提取算法在進行車道線待選點提取時,難以控制邊緣的范圍,在真實場景中會將樹木的陰影以及汽車自身的陰影提取出來,造成較大的噪聲;傳統基于滑動窗搜索擬合方法的車道線檢測與跟蹤方法在計算時,由于滑動窗本搜索算法自身的算法問題,導致計算速度較低,在實時性方面較差。針對這些問題,本文提出一種基于邊緣提取算法與顏色空間模型相結合的復合模型,對滑動窗搜索擬合算法進行改進和優化的車道線檢測方法,有效地降低了提取車道線待選點時的噪聲,提高了車道線檢測的準確性和實時性,在實際的應用中實用性更強。
關鍵詞:車道線檢測;顏色空間模型;Sobel算子;滑動窗搜索擬合
中圖分類號:TP311? ? ? 文獻標識碼:A
文章編號:1009-3044(2019)16-0170-02
開放科學(資源服務)標識碼(OSID):
1引言
車道線檢測[1,2]作為智能交通的重要組成部分,將計算機視覺作為信息采集的一部分,極大地改善了駕駛員對行車環境信息的接受方式,提高了行車的安全性。傳統的通過Canny算子[3]或Sobel算子邊緣提取的車道線檢測算法對車道線進行邊緣都提取時,引入大量噪聲而導致利用霍夫變換[4]進行對車道待選點的確定造成一定的誤差,使得車道線檢測效果不好。而且傳統的滑動窗搜索擬合方法,對待每一幀圖像都要進行滑動窗的搜索和擬合,計算量較大,導致對車道線的跟蹤擬合速度較慢,無法滿足實時性的要求。為此,本文提出了一種基于改進邊緣提取方法和優化滑動窗搜索算法的車道線檢測算法。
2 本文方法
2.1 傳統的車道線檢測算法步驟
傳統的車道線檢測算法[5,6]主要步驟有圖像畸變矯正、圖像處理和數據轉換、車道線檢測和車道線擬合。
2.1.1 圖像畸變矯正
由于車載攝像頭自身的硬件問題和車輛行駛過程中的顛簸等原因,會造成圖像發生畸變。本文中使用opencv中的findchessboardCorners()和calibrateCamera()函數對圖像進行標定和校準,在一定程度上消除畸變對于車道線檢測的影響。由于圖像拍攝鏡頭未完全平行與成像平面對齊,會產生切向失真,對于這種失真校準遵循公式(1)和公式(2)。
其中[p1]和[p2]為切向畸變系數。
2.1.2 圖像處理和數據轉換
圖像處理的過程即對校準后的圖像進行處理,將RGB圖轉化為二值圖,方便選出車道線待選點。通常算法為基于邊緣提取或者顏色空間,本文使用兩種方式相結合,在提升準確度的同時還加快了計算速度。由于圖片采集時視角問題,會使得路面形成一個梯形,加大了識別難度,所以要通過透視變換方法將視角變為俯視圖之后進行處理,在原圖中確定待選區域ABCD之后,可得到透視變換圖。
2.1.3 車道線檢測和車道線擬合
本文使用優化后的滑動窗口搜索算法對車道線的像素進行捕捉,考慮到車道線的復雜程度,本文使用二階函數進行車道線的擬合,然后計算中心偏移量和彎道曲率半徑。將像素單位轉換為m,找出水平和垂直方向車道線的最大值,從而計算出中心的偏移量。利用車道線擬合的參數,半徑的計算方式如公式(3)。
2.2基于雙模型的車道線檢測算法
本文采用基于Sobel算子[7]的邊緣點檢測算法相比Canny算法[8]減少了噪聲,但是對邊緣的提取出現了檢測不全的情況,尤其是對白色車道線的邊緣提取較為明顯。針對以上問題,本文提出使用雙模型對車道線待選點進行檢測。首先提取基于顏色空間的HLS模型中的S通道,然后使用Sobel算法中的水平梯度提取車道線的邊緣。將HLS模型和Sobel算法的水平梯度相結合方法提取出的車道線待選點較為清晰,為下一步的車道線搜索擬合奠定了良好的基礎。
2.3 滑動窗搜索擬合算法
傳統的車道線搜索算法使用霍夫直線變換在檢測車道線時對輸入圖片質量要求較高,噪聲過大時識別效果較差,在識別彎道時,較為困難,識別率較低,無法滿足要求。本文采用滑動窗搜索算法對車道線進行識別和跟蹤,首先挑選一張帶有一定噪聲的圖片,使用本文雙模型處理后的圖片做直方圖統計。在統計圖中依次從下到上使用兩個矩形取尋找直方圖中值較大的位置,分別為左側車道線和右側車道線。本文雙模型算法可以辨別真實車道線,準確率較高。但由于滑動窗搜索算法,本文中使用18個滑動窗進行車道線的搜索,每個窗都是在實時搜索,極其耗費時間。本文使用的視頻素材是在車速為40km/左右時采集的素材,幀數為30幀/秒,大約一秒出現一個車道線,考慮到車道線的不變性,即在連續幾幀的畫面中車道線基本不會有較大變化,本文提出了對滑動窗搜索算法的優化方案。在搜索時每隔15幀進行搜索,在兩次搜索中使用前一次搜索的車道線位置進行覆蓋;當出現只檢測到單車道時,另一車道一直使用最初搜索車道位置進行覆蓋。當初線連續無法檢測到車道線時,使用最初搜索車道線的位置進行覆蓋。使用本文優化后的滑動窗搜索算法后,在準確率未明顯降低的情況下,計算時間有極大提升。
3 仿真及結果與分析
本文基于雙模型和優化滑動窗搜索算法后的檢測效果如圖2。本文采集了國內高速,國道,普通道路共10多個小時的行車記錄儀視頻,對比了傳統基于邊緣提取的車道線算法、本文使用的雙模型算法、Sobel算法邊緣檢測算法和HLS顏色空間模型算法的準確度和計算時間,比較結果如表1。表1中使用了共9000幀圖像進行測試,在準確率方面,完全使用顏色空間模型的方法最高,但是用時較長,速度大約為6幀/s,無法滿足實時性要求;而完全使用邊緣提取的方法準確率最低,但是用時最少,速度大約為40幀/s;混合模型準確率滿足要求且速度較快大約為25幀/s滿足實時性。
本文對原有滑動窗搜索算法進行優化,將實時的滑動窗搜索改為了每15幀進行一次車道線的搜索,間隔搜索之間的車道線使用上次搜索的結果。對比優化前后的算法如表2。從表2中可以看出,優化前的算法精確度較高,但是用時較長,大約為14幀/s,無法滿足實時性要求。
4 結語
實驗結果表明,基于混合模型的車道線待選點算法和優化后的滑動窗算法。本文算法結合了邊緣提取算法和顏色空間算法的優點,并結合優化后的滑動窗搜索算法去除了不必要的搜索過程,加快了搜索速度。在國內的國道、高速和城鎮道路上檢測準確率較高,識別速度較快。
參考文獻:
[1] 石林軍,余粟.基于多約束條件下的霍夫變換車道線檢測方法[J].計算機測量與控制,2018,26(09):9-12+38
[2] 范延軍. 基于機器視覺的先進輔助駕駛系統關鍵技術研究[D].東南大學,2016.
[3] 李亞娣,黃海波,李相鵬,陳立國.基于Canny算子和Hough變換的夜間車道線檢測[J].科學技術與工程,2016,16(31):234-237+242.
[4] 張麗艷,張偉,龍美芳.一種基于PHOG特征的SVM的交通標志識別方法[J].電腦知識與技術,2018,14(27):230-231.
[5] Zhong-xun Wang, Wenqi, Wang The research on edge detection algorithm of lane[J]. Image and Video Processing 2018:98.
[6] F. Liming, L. Bijun, Y. Yutong, Lane detection based on multiscale resampling[J]. Electronic Technology and Applications 2017,43(4): 7–12.
[8] 李琳琳.自適應閾值的Sobel算子邊緣檢測研究[J].電子技術,2018,47(12):24-25+12.
[9] 付卓棟. 圖像分割的車牌定位算法的應用研究[D].大連交通大學,2016.
[10] 劉伸展. 實時車道線檢測系統的設計和實現[D].電子科技大學,2017.
【通聯編輯:光文玲】