衛玉梁, 靳伍銀
(蘭州理工大學 機電工程學院,甘肅 蘭州 730050)
?
智能車跟隨系統開發*
衛玉梁, 靳伍銀
(蘭州理工大學 機電工程學院,甘肅 蘭州 730050)
開發了一種基于STM32視覺導航的目標跟隨小車智能控制系統,實現了對特定目標物體的快速識別與實時準確跟隨。使用OV7670圖像傳感器采集目標物圖像信息,對圖像進行灰度化、降噪、取反等處理后,通過亞像元定位技術的質心法獲取目標物坐標位置,為智能車提供方向導航,跟隨過程中的畫面實時發送至上位機。結果表明:小車在直行和轉向跟蹤實驗中表現良好,跟隨系統具有良好的跟蹤效果,可實現對目標物的實時準確跟隨。
STM32; 質心法; 目標識別與跟蹤; 智能車
隨著汽車產業的快速發展,智能車的相關技術不斷創新,其中包括目標跟蹤等技術[1]。同時,自動跟蹤車輛也正逐步應用于貨物運取、輔助駕駛等領域[2]。而高效快速的跟蹤方案通常存在體積大、價格昂貴、功耗高等不足[3]。針對上述情況,本文設計開發了一種成本低、功耗小、性能穩定的智能小車跟隨控制系統,以TM32F103ZET6微控制器為主控單元、直流電機作為動力驅動單元、CMOS圖像傳感器OV7670為圖像采集單元。采用數字圖像處理技術對圖像進行處理,確定目標位置,為小車提供方位導航,實現對目標物的智能準確跟隨。
智能車的目標跟隨系統結構如圖1所示,以Arduino遙控車攜帶目標物作為被跟蹤對象,跟蹤車輛以STM32處理器為核心,連接攝像頭及超聲波傳感器進行信息采集作為系統輸入,驅動并控制電機運作作為系統輸出。車體自身安裝顯示屏用以顯示拍攝處理后的目標圖像、兩車距離及輸出占空比等其他外設信息,配置無線模塊與上位機通信,實現跟蹤過程中圖像畫面的實時傳輸,達到監測跟蹤效果的目的。圖2為系統的主要硬件實物照片。

圖1 系統結構

圖2 系統硬件實物照片
2.1 單片機控制模塊
單片機選用STM32F103ZET6,工作電壓范圍為2.0~3.6 V,CPU工作頻率最高可達72 MHz,具有速度快、成本低、性價比高、運算處理能力強等優點。同時擁有大量的外設I/O接口,可連接和驅動所需的各類傳感器與外部設備[4],以實現指定功能。
2.2 圖像傳感器模塊
OV7670為1/6in(1in=2.54 cm)CMOS VGA圖像傳感器,工作電壓2.5~3.0 V,感光陣列為640×480,提供VGA攝像頭和影像處理器的所有功能。通過SCCB總線控制同時兼容I2C接口,可以輸入整幀、子采樣、取窗口等方式的各種分辨率8位影像數據[5]。VGA圖像最高達到30幀/s,其像素時鐘(PLCK)最高可達24 MHz。
使用STM32驅動攝像頭進行數據讀取時, 直接通過I/O抓取每幀的數據十分占用CPU,因此,設計通過模塊自帶FIFO芯片緩存1~2幀圖像,單片機再直接從中讀取并處理,減少CPU的占用量,提高了系統運行速度。
2.3 顯示模塊
為了更加直觀地觀察小車跟蹤狀況,在車身安裝4.3 in TFT液晶顯示屏,像素為320×240,實時顯示跟隨過程中OV7670攝像頭捕捉并處理的二值圖像。
2.4 無線通信模塊設計
無線模塊以AR9331為核心搭建的WiFi模塊實現。模塊預置QpenWrt(Linux)系統,符合國際標準的802.11 b/g/n協議,采用DSSS,OFDM,BPSK,QPSK,CCK和QAM基帶調制技術,能適應路由器等設備的無線熱點,最大連接速率可達150 Mbps[6]。上位機與模塊完成數據通信連接后,使用C#編寫的上位機軟件讀取和顯示攝像頭采集的實時圖像信息。攝像頭一側配置有照明功能,確保在昏暗環境下對目標的準確識別與跟蹤。
2.5 電機驅動電路模塊
采用2個L298N驅動4路直流電機,內含2個H橋的高電壓大電流全橋式驅動器,可以用來驅動電動機和步進電動機等感性負載[7]。其最高工作電壓可達46 V,瞬間峰值電流可達3 A,持續工作電流為2 A,額定功率25 W。采用標準邏輯電平信號控制,具有2個使能控制端。
2.6 電源電路模塊
采用12 V鋰電池直接為電機驅動模塊L298N供電,同時通過SD6A1—5降壓后濾波,再由LM117穩壓降至3.3 V,實現為主控制器供電。
2.7 超聲波測距模塊
采用HC—SR04超聲波測距傳感器輔助導航,保持目標車輛與跟蹤車輛在可跟蹤識別的距離范圍內,同時可根據車距調節自身電機的輸出占空比。其測量范圍為2~400 cm,測量精度達3 mm,工作電壓為5 V。
3.1 質心法目標識別原理
質心法指圖像的能量密度函數一階空間矩和零階空間矩的比值[8]。當小車捕捉到目標的圖像信息后,經過相應的灰度化處理,忽略圖像中其他的微小光斑,即通過濾波以及設置相應閾值取反,將圖像中的雜散光點等干擾因素融入到背景中之后,可假設圖像內單個目標物的質心位置為(XC,YC),該位置可由圖像灰度值重心計算式(1)得到,即
(1)
式中 XC,YC為計算所得質心坐標;x,y分別為圖像平面的橫縱坐標;D為限定的積分區域為已知量,即為圖像尺寸大小,由OV7670攝像頭視場以及液晶顯示屏像素值確定;G(x,y)為每個像素點的灰度值,也稱為圖像灰度函數。
上述積分為連續積分,但由攝像頭得到的實際圖像是離散的,只能得到G(x,y)在像素點位置的采樣值,所以,采用質心法時,將式(1)做近似推導得式(2),將連續積分變為累加和的形式,圖像由n個像素組成
(2)

(3)

3.2 目標設計及其識別流程
由上文可知,求取目標點位置坐標需要對圖像全局做灰度值累加。因此,目標背景對于識別與跟蹤的準確性有很大影響,可通過以下方法減少目標背景不統一所產生的誤差:1)設計背景統一且對稱的目標物。2)在將圖像轉換為二值圖像時,設置適當閾值將微小光斑等干擾點融入背景中。3)通過超聲波測距傳感器修正與目標物距離,使目標物占據所采集圖像的大部分像素。
系統啟動后,OV7670開始采集視頻圖像,并緩存到FIFO芯片,當系統判斷每幀圖像完整采集后,進入目標識別子程序,對圖像進行相應的處理從而識別圖像中目標位置,流程如圖3(a)所示。

圖3 目標識別流程
如圖3(b)所示,進入目標識別子程序,圖像傳感器采集圖像后進行灰度化,為保證系統跟蹤時圖片的連續性,同時提高系統跟蹤的實時性并最大限度地去除背景噪聲,將前一幀像素平均值加上2倍均方差作為當前幀的背景值。當前幀各個像素值去除背景后,設置自適應閾值將圖像二值化并取反,再利用式(3)計算質心位置,得到目標坐標,為小車提供方位導航。
3.3 目標識別算法仿真
在Matlab中對目標識別算法進行仿真,如圖4所示,目標處于較為統一背景環境中,算法將一些干擾因素二值化后融入到背景中,具有很高的識別效率,可以精確定位到目標中心位置。

圖4 目標識別算法仿真
實驗時通過無線視頻模塊將跟蹤的實時畫面傳輸至上位機。在直行跟蹤過程中,調節遙控小車脈沖寬度調制(PWM)值0~225輸出控制前車車速,分別對目標小車在勻速直行、變速直行情況下進行多次測量實驗,同時也對轉向跟蹤進行反復的實驗測試。在目標車輛變速直行過程中以及向左0°~90°勻速轉向的跟蹤過程中,從上位機視頻窗口隨機截取數幀實時畫面,如圖5所示。實驗數據采樣值見表1。

圖5 直行與轉向跟蹤過程

相機視場勻速直行質心位置像素勻速直行車距/cm轉向質心位置/像素實際偏轉角/(°)跟蹤偏轉角/(°)變速前車PWM值變速直行質心位置變速直行車距/cm(320×240)(162,120)10(85,118)2423120(161,120)10(320×240)(159,121)11(157,120)4549140(162,125)19(320×240)(166,123)12(210,117)6066160(160,135)32(320×240)(161,120)10(240,115)7072130(163,128)21(320×240)(162,121)11(312,114)8588110(159,119)9
實驗結果表明:當目標車輛勻速直行時,跟蹤小車所測得目標質心點縱坐標與兩車車距基本穩定,在恒定值上下小幅波動;當目標車輛變速直行時,質心點縱坐標隨著兩車距離加大而增高,從而提高輸出占空比對前車加速追趕,兩者具有很好的線性關系,同時兩車在轉向時的偏轉角度也大致重合,表明,跟蹤小車總體上具有良好的跟蹤效果。
給出了智能車目標跟蹤控制系統實現的基本原理和系統硬件設計、軟件開發的流程,并進行了相應的算法仿真以及實物實驗。實驗結果表明:系統整體運行穩定,達到了預期的效果。雖然在對跟蹤目標丟失再尋找等方面存在一定不足,但系統具有較好的再開發性,對于智能車輛的目標跟蹤研究具有一定的參考意義。
[1] 楊 歡,熊 劍,郭 杭,等.基于CORTEX—M4的多傳感器組合導航系統設計[J].傳感器與微系統,2017,36(2):88-90.
[2] 李 婕.基于STM32的無線視頻監控智能小車設計[D].蘭州:蘭州理工大學,2014.
[3] 鄒 斌,莊雷雨,李超群,等.機器視覺智能車虛擬環境的搭建[J].自動化與儀表,2016,31(9):22-26.
[4] 劉太鋼,劉響響,周克良,等.基于STM32智能家用車庫控制系統設計[J].傳感器與微系統,2016,35(8):98-100.
[5] 李慧敏,樊記明,楊 笑.基于STM32和OV7670的圖像采集與顯示系統設計[J].傳感器與微系統,2016,35(9):114-117.
[6] 賈玉雷,靳伍銀,李鵬勃,等.基于ZIG BEE技術的智能車無線控制系統開發[J].傳感器與微系統,2013,32(5):135-137.
[7] 劉 磊,孫曉菲,張 煜.基于STM32的可遙控智能跟隨小車設計[J].電子測量技術,2015(6):31-33.
[8] 曹宗偉,李星全,劉 偉,等.數字相機校準中光斑中心的亞像素定位[J].測繪技術裝備,2016,18(1):93-95.
Development of intelligent vehicle following system*
WEI Yu-liang, JIN Wu-yin
(School of Electromechanical Engineering,Lanzhou University of Technology,Lanzhou 730050,China)
An intelligent tracking-vehicle control system based on STM32 is developed to achieve quick identification and accurate tracking of specific target in real-time.Acquire image information of target using OV7670 after graying,de-noising and reverse processing the image,obtain target coordinates by the centroid sub-pixel positioning technology to provide direction navigation for intelligent vehicle,and picture of target can be sent to host computer during tracking process.The experimental result shows that the system has a good tracking effect and can achieve real-time accurate and tracking of target.
STM32; centroid; target recognition and tracking;intelligent vehicle
10.13873/J.1000—9787(2017)08—0075—03
2017—06—12
國家自然科學基金資助項目(11372122)
TP 249
A
1000—9787(2017)08—0075—03
衛玉梁(1994-),男,碩士研究生,主要研究方向為人工智能與機器人等。
靳伍銀(1969-),男,通訊作者,研究員,博士研究生導師,E—mail:wuyinjin@hotmail.com。