劉博藝,程杰仁,2+,唐湘滟,殷建平
1.海南大學 信息科學技術學院,???570228
2.海南大學 南海海洋資源利用國家重點實驗室,???570228
3.國防科學技術大學 高性能計算國家重點實驗室,長沙 410073
復雜動態環境下運動車輛的識別方法*
劉博藝1,程杰仁1,2+,唐湘滟1,殷建平3
1.海南大學 信息科學技術學院,???570228
2.海南大學 南海海洋資源利用國家重點實驗室,海口 570228
3.國防科學技術大學 高性能計算國家重點實驗室,長沙 410073
LIU Boyi,CHENG Jieren,TANG Xiangyan,et al.Moving vehicles recognition in complex dynamic environment.Journal of Frontiers of Computer Science and Technology,2017,11(1):134-143.
針對目前車輛識別方法在動態變化的復雜環境中車輛識別正確率低的問題,提出了一種基于動態自適應閾值的車輛識別方法。該方法首先利用基于熵權法的圖像質量量化算法計算交通流視頻中背景圖像的質量值;然后通過對樣本交通流設置的車輛檢測閾值和基于該閾值識別車輛的正確率進行多項式擬合,獲得該樣本的車輛最佳檢測閾值;最后對樣本背景圖像的質量值和樣本車輛的最佳檢測閾值進行高斯擬合,得到自適應閾值計算模型。該方法采用高斯混合模型實時獲取交通流視頻中的背景圖像,計算背景圖像的質量值,并輸入到自適應閾值計算模型得到實時的車輛最佳檢測閾值以識別車輛。實驗和理論分析表明,該方法能根據動態變化的環境實時更新車輛檢測閾值,有效地提高了車輛識別的正確率。
車輛識別;圖像質量;高斯擬合;熵權法
車輛識別是智能交通系統中的基礎環節,精確的車輛識別效果是智能交通系統更自動化、更智能的保障。目前對于車輛識別的研究,大部分都是局限在一個特定的環境內,比如只是針對晴朗的天氣環境、霧霾環境等。但是現實中的交通攝像頭是在動態變化的復雜環境中工作的,主要體現在天氣環境變化的影響。不同的天氣環境,甚至在一天中不同的時刻,攝像頭錄制的交通視頻的效果都有差異,不同的天氣環境對于視頻質量造成的影響也不同。如果不能夠根據天氣情況自動調整車輛識別算法的相關參數或者閾值,就會造成車輛識別結果誤差的增大,繼而影響智能交通系統中其他功能的實現,或者導致其他功能準確率的降低。因此,只有能夠自動適應多種氣候環境的視頻車輛識別方法才具有實用價值。本文提出了一種基于動態自適應閾值的車輛識別方法,實現了對不同天氣環境的自適應,具備較大的實用價值。
2.1 車輛識別研究現狀
基于交通流視頻的車輛識別技術[1],包括以車輛識別為目的的背景差分法[2-3]、幀間差分法[4]、光流法[5]和以車輛跟蹤為目的的虛擬傳感器法和目標跟蹤法[6]。背景差分法通過連續多幀的圖像序列獲取背景圖像,然后將當前幀的圖像與背景圖像進行差分,并通過聯通區域面積的大小或者聯通區域面積與變化區域之比對車輛目標進行識別。幀間差分法通過對視頻中相鄰兩幀的圖像做差分運算得到運動目標的輪廓。光流法通過在圖像中構建速度矢量場的方式,實現對車輛的識別,但其算法復雜度高,實時性較差。虛擬傳感器法是在視頻中的道路上設置一些虛擬傳感器,當車輛通過這些虛擬傳感器時,會引起傳感器的變化,通過對虛擬傳感器的特征變化進行分析獲得當前交通流信息。如Takaba等人提出的基于虛擬點的交通參數提取法[7]、Abramczuk等人提出的虛擬檢測線法[8]、尹朝征提出的虛擬線圈法[9]等都是基于添加虛擬傳感器的方法。目標跟蹤法相比虛擬傳感器法的優點是能夠獲取車輛的屬性信息,可以分為車輛模型法[10]、特征提取法[11]、區域檢測法[12]、輪廓提取法[13]等。車輛模型法是通過對車輛形狀的分析,建立目標模型,再通過一定的匹配方法跟蹤目標,并對模型進行實時更新;特征提取法是通過提取運動目標的某個不變的特征,如色彩、紋理等,并將其與設定的固定特征值相匹配,實現對運動目標的跟蹤;區域檢測法是指通過包含車輛區域的圖像模板對圖像序列進行匹配,超過一定的閾值后,就確定為車輛;輪廓提取法與區域檢測法相似,不同的是其采用的是運動目標輪廓的匹配,要對視頻圖像中的車輛進行輪廓提取處理。近年來提出的屬于目標跟蹤的算法有確定性目標關聯法[14]、視覺車輛跟蹤法[15]等,都是在以上方法的基礎上進行改進。
在實現了車輛識別功能的基礎上,為了增強方法的實用性,國內外學者對不同環境下的車輛識別算法進行了研究。例如光照條件下車輛的影子對車輛識別的影響和應對方法[16]、夜晚時間車輛的識別方法[17]、復雜環境下車輛的識別方法[18]等。但是他們提出的算法大都只能適用于某一種特定的環境,算法中選取的車輛判斷閾值保持不變,而只是對視頻圖像進行預處理或者改進相關算法,不能夠實現同時對多種天氣環境的適應。針對這個問題,本文提出了一種基于動態自適應閾值的車輛識別方法。因背景差分法的實現較為簡單,故以背景差分法作為運動車輛識別算法。通過對背景圖像的質量進行量化,獲得背景差分法中的車輛判別閾值,并通過高斯混合模型不斷更新背景圖像,實現方法對天氣環境的自適應功能。其中圖像質量量化是方法的重要組成部分。
2.2 圖像質量量化研究現狀
對圖像質量量化的研究可以追溯到40多年前,1974年,Mannos和Sakrison提出了圖像保真度的判斷依據[19],開創了圖像質量量化的先河。發展到今天,圖像質量的評價方法包括主觀評價法和客觀評價法。主觀評價法中,平均意見分數(mean opinion score,MOS)被認為是最佳方法。但是,主觀評價法難以在軟硬件系統中實現,幾乎不可能實際應用。顯然客觀評價法更具有實用性,其中,基于均方差(mean squared error,MSE)的圖像質量估計法[20]和基于峰值信噪比(peak signal to noise ratio,PSNR)的圖像質量估計法是最為普遍的質量量化方法,易于實現。近年來,基于全仿真人類視覺系統(human visual system,HVS)的圖像質量量化法[21]得到了發展,但是尚不成熟,且算法復雜度較高,不適用于實時系統,故本文沒有采用這種方法。另外,基于灰度梯度函數、頻譜函數和熵函數[22]等的圖像清晰度評價方法也是實現本文所提出的自適應多種環境的車輛識別系統的重要組成部分。然而以上方法都具有各自的固有缺陷,往往只適用于具備某些特征的圖像,不能做到對所有圖像的精確評價。針對這些問題,本文在分析了不同天氣環境對圖像的影響后,提出了利用熵權法進行圖像質量量化的方法。
在本文提出的基于動態自適應閾值的車輛識別方法中,自學習和系統運行過程的結構圖如圖1所示。以背景差分法為例,添加了系統獲取車輛檢測閾值的自學習過程,包括基于熵權法的圖像質量量化算法和最佳閾值的獲取算法,以實現面積閾值的自動獲取。其中圖像質量量化算法的評價指標包括對比度、PSNR、信息熵、與參考圖像的相似度[23]、逆差矩[24]。
在圖像質量量化模塊,系統首先根據各個指標的計算方法,得出當前背景圖像的各項指標得分;然后利用熵權法計算出各項指標應占的權重,將得分與權重分別相乘并相加,得出圖像質量的量化值。在最佳閾值的獲取模塊,方法通過求閾值和正確率之間擬合函數的最值得到最佳閾值。最后通過高斯擬合,得到最佳閾值和背景圖像質量量化值之間的轉化模型,完成自學習過程。
在車輛識別過程中,方法首先依次按幀讀取視頻,每間隔一定時間就獲取視頻的當前背景圖像;然后根據數學形態學原理和背景差分法獲得前景區域(前景像素點數量)的各個聯通圖像塊的面積,將該面積與通過熵權法確定的面積閾值相比較,大于該閾值的被認為是車輛。
3.1 基于熵權法的圖像質量量化算法
本文實現基于視頻的車輛自動識別系統的環境自適應功能是以實現對背景差分法聯通區域面積閾值自動獲取為基礎的,采用的實現聯通區域面積閾值的自動獲取方法是通過圖像相關屬性的量化實現的。圖像的屬性有很多,而實現自適應環境的車輛識別系統則需要使用與車輛識別算法中相關的圖像屬性,即主要能夠反映出圖像中的目標可被識別的容易程度。本文提出的圖像質量量化,是指圖像中的對象可被計算機識別的容易程度,其主要是指通過主觀觀察或者對圖像屬性的客觀評價對圖像的質量進行描述,其指標包括圖像的清晰度、圖像壓縮之后的保真度、對比度等。除了這些基本的圖像屬性,還應包括一些經典的圖像質量評價方法,其評價值也可以作為重要的評價指標。圖像的質量是衡量圖像的一個重要指標,在模式識別、計算機視覺等領域發揮著越來越重要的作用。
不同的天氣環境,對于圖像質量的影響是不同的,這也是實現自適應環境的車輛識別方法的主要難點。因此,本文對不同天氣環境對視頻圖像的影響進行了分析。圖2是從文獻[25]中獲取到的同一個拍攝地點在霧天、雨天、陰天、晴天環境下的圖像。

Fig.1 Structure of vehicle recognition-system based on dynamic adaptive threshold圖1 基于動態自適應閾值的車輛識別方法的系統結構

Fig.2 Images of same site under different weather conditions圖2 同一地點不同天氣環境下的圖像
針對上述4幅圖片,分別將圖像的對比度、峰值信噪比、信息熵、相似度、逆差矩作為量化方法,計算圖像質量量化值。圖3是在不同的評價方法下圖像的得分情況。
從圖3中可以看出,不同天氣情況下的圖像屬性得分有很大差異。僅僅采用其中的某一種評價方法或者評價指標難以準確地對圖像質量進行量化。因此,本文提出了基于熵權法的圖像質量量化算法。
熵權法是一種客觀評價方法,在信息論中,熵是描述系統無序程度的量。當某一項評價指標的值差別比較大時,說明這項指標提供的信息量越大,其權重就應越大,熵權法就是實現這個功能的方法。在用上文的指標進行評價時,4幅同一地點不同天氣的圖片中,同一圖片在不同的評價方法上得分不同,這是由于天氣情況對圖像的影響不同所導致的。例如雨天圖像主要受雨點噪聲的影響,如果用峰值信噪比法進行評分的話得分就較低,但是采用其他評分指標得分就比較高一些。如果僅僅采用其中某一種評價指標對圖像質量進行評價,或者僅僅采用將幾個評價指標的得分相加的方式,不能夠突出具體的某種天氣對圖像質量的影響。為了反映出具體的天氣影響,本文采用了熵權法對6種評價指標賦予權重,將圖像對6種評價指標的得分與指標權重相乘,便可得到最后的圖像質量量化結果。本文使用的熵權法公式為:


Fig.3 Score based on different evaluation methods圖3 不同的評價方法下圖像的得分情況
其中,Ymax表示圖像評價指標中最大的得分值;Ymin則表示最小的得分值;Yi表示圖像對第i個評價指標的得分。通過該公式,便可以確定針對當前圖像各個指標的得分情況所賦予的各個指標的權重,特點是圖像對某個評價指標得分越少,則該指標在評價背景圖像時權重越大。本文認為,圖像的對比度、PSNR、信息熵、與參考圖像的相似度、逆差矩這5項能夠充分反映出圖像質量,并將它們作為圖像質量的評價指標。這5種指標的計算方法如下所示。
(1)對比度

(2)峰值信噪比(PSNR)

(3)信息熵

(4)與參考背景圖像的相似度

(5)逆差矩

公式中,D表示圖像的對比度;Imax表示圖像中的最大灰度值;Imin表示圖像中的最小灰度值;H表示灰度均值;m表示圖像矩陣的行數;n表示圖像矩陣的列數;I(i,j)表示背景圖像第i行第j列的像素點的灰度;PSNR表示當前背景圖像的峰值信噪比;C(i,j)表示參考背景圖像第i行第j列的像素點的灰度;L表示圖像的最大灰度等級,8位圖像為255;X表示圖像的信息熵;Pk表示圖像中灰度級k出現的概率;HD表示當前背景圖像與參考背景圖像的相似度;IDM表示圖像的逆差矩。在上述6項指標中,圖像的對比度能夠反映出圖像的清晰程度,一般來說,對比度越強,圖像越清晰;圖像的灰度均值能夠反映出圖像的亮度,晴天的環境更有利于進行車輛的識別;圖像的PSNR值是被廣泛使用的評價圖像質量的標準,但具有一定的局限性,因此本文將其作為評價指標之一,而沒有直接采取PSNR值作為圖像的質量量化值;圖像的信息熵能夠反映出圖像的信息量大小,也能從側面反映圖像的模糊程度,即模糊的圖像提供的信息量比清晰的圖像提供的信息量更小一些;圖像與參考背景圖像的相似度反映出實際圖像和理想的清晰背景圖像的相似程度,顯然具有很大的參考價值;圖像的逆差矩反映出圖像的局部均勻性,體現圖像的紋理特征和模糊程度。
系統根據各個指標的計算方法,得出當前背景圖像的各項指標得分,然后利用熵權法計算出各項指標應占的權重,將得分與權重分別相乘并相加,得出圖像質量的量化值。
3.2 動態自適應閾值計算方法
在獲得了圖像質量的具體量化值后,需要將這一量化值轉化成能夠用于車輛識別系統的閾值,例如背景差分法中的面積閾值。本文通過對多個不同天氣下的交通流視頻進行多次實驗后,得到每段實驗視頻在不同的閾值取值中的準確率數據;再對準確率進行二次函數擬合并求解二次函數的極值,便可以得出對該交通視頻進行背景差分法車輛識別的最佳面積閾值;得出該值后,再利用提取出的背景圖像,采用基于熵權法的圖像質量量化算法得出圖像質量的量化值,并與對應的最佳閾值數據進行高斯擬合,可得出圖像質量閾值和面積閾值之間的轉化模型。以其中一個視頻為例,獲得轉化模型的步驟為:
步驟1設定閾值并得出當前閾值情況下方法的準確率,進行函數擬合或利用逼近法求最佳閾值。
步驟2更換交通流視頻并對其執行步驟1,得到一組交通流視頻所對應的最佳閾值數據。
步驟3獲得交通流視頻的背景圖像,并用本文所提出的基于熵權法的圖像質量量化方法獲得背景圖像的具體量化值。
步驟4依次對應各段交通流視頻的背景圖像質量值和最佳閾值,并通過高斯擬合得出圖像質量值和最佳閾值之間的關系,即為圖像質量量化值與基于背景差分法的面積閾值之間的轉化模型。
其中,對于步驟1中的擬合方法,可以采用最小二乘法,因為其使用廣泛,算法復雜度低,根據不同道路的車流量特點也可以選取矩估計法或最大似然估計法等其他曲線擬合方法,3種算法的優缺點比較和應用場景分析在文獻[26]中有詳細分析。另外,當交通流視頻較為清晰時,會出現面積閾值小于某個值時,準確率一直保持在最高值的情況。這是因為當交通視頻比較清晰時,背景差分法利用數學形態學原理,可以把車輛的聯通區域塊非常準確地從背景當中提取出來,而不會出現其他非車輛的聯通區域的干擾,所以當閾值小于最小聯通區域塊的面積后,無論閾值如何繼續變小,都能夠準確地獲得當前的車輛數量。此時,應獲取在拐點處閾值單位相差更小的實驗,并得到拐點的橫坐標,當閾值小于這一橫坐標時,便可以達到最高準確率。但為了進一步得到圖像質量和閾值之間的關系,應將橫坐標和其最高準確率相乘,作為最佳閾值。
針對本文基于動態自適應閾值的視頻車輛識別方法,在處理速度為2.5 GHz的雙核CPU主機,Windows10系統下的Matlab2013a軟件中進行了實驗驗證。其中3.2節中步驟1最佳閾值的實驗數據和擬合結果如表1和圖4所示。

Table 1 Experimental data of the best threshold表1 最佳閾值實驗數據

Fig.4 Threshold and accuracy of quadratic function fitting圖4 閾值和正確率的二次函數擬合圖
擬合結果為:

當x約取663.23時,為最佳閾值,方法準確率最高。另外,本文3.2節步驟1中所提到的當交通流視頻較為清晰時,在不同粒度下通過逼近法獲取最佳閾值的部分實驗過程如圖5和圖6所示。
當方法準確率和閾值符合圖6所示的關系時,可通過實驗將轉折點所在橫坐標的值和下一數據點橫坐標的值繼續精確化,并不斷迭代此過程;當轉折點的精確度達到要求時,取其橫坐標,然后和其最高準確率相乘,即為最佳閾值。

Fig.5 Accuracy with threshold on a scale of 100圖5 100粒度下準確率隨閾值變化圖

Fig.6 Accuracy with threshold on a scale of 5圖6 5粒度下準確率隨閾值變化圖

Fig.7 Function fitting圖7 函數擬合圖
最后,本文對交通流視頻進行了仿真多種天氣環境的處理,并進行了閾值獲取實驗。通過最后實驗所得出的部分視頻的背景圖像質量值和最佳閾值如表2所示。在獲得了上述實驗數據后,利用高斯擬合法對數據進行函數擬合,得到圖像質量量化值與面積閾值之間的轉化模型,擬合圖形如圖7所示。根據擬合結果可知,圖像質量量化值面積閾值之間的轉化模型為:

由圖8可以看出,利用本文基于動態自適應閾值的車輛識別方法相比普通的利用人為設定的經驗值進行車輛識別的方法,其車輛識別的準確率要提高很多。運動目標通常在不同背景圖像下像素和不同,因此經驗值是不能夠適應天氣變化的,會造成車輛識別誤差的增大。
通過理論分析和實驗驗證可以看出,本文基于動態自適應閾值的車輛識別方法具有以下優點:
(1)使用基于熵權法的圖像質量量化算法對圖像質量進行量化,解決了只使用其中一種評價指標或方法不能反映不同的天氣情況對圖像影響的問題,使得圖像質量量化算法精確度更高,具有更強的適應性。
(2)將背景圖像的質量進行量化,并和方法的閾值相聯系,建立圖像質量的得分與閾值之間的轉換模型,實現了基于視頻背景圖像質量的閾值自動調整,擺脫了對人為經驗的依賴。

Table 2 The best threshold and background image of traffic video in different environment表2 不同環境下交通視頻的最佳閾值和背景圖像及其質量值

Fig.8 Comparison of experimental results圖8 實驗結果比較
針對目前車輛識別方法在動態變化的復雜環境中車輛識別正確率低的問題,本文提出了基于動態自適應閾值的車輛識別方法。該方法首先將視頻按幀讀取,然后獲取視頻的背景圖像并進行圖像質量量化。對于背景圖像的質量量化問題,提出了基于熵權法的圖像質量量化算法,提高了圖像質量量化的準確度。得到圖像質量的量化值后,通過圖像質量量化值轉化車輛識別系統閾值的模型,得到車輛識別系統當前的最佳閾值,提高了車輛識別準確度。本文通過實驗展示了詳細的計算步驟和方法,并驗證了該方法能根據動態變化的環境實時更新車輛檢測閾值,有效地提高了車輛識別的正確率。
[1]Jain R,Nagel H.On the analysis of accumulative difference pictures from image sequence of real world scenes[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 1979,1(2):206-214.
[2]Tsai D-M,Lai S-C.Independent component analysis-based background subtraction for indoor surveillance[J].IEEE Transactions on Image Processing,2009,18(1):158-167.
[3]Han Jianhui,Cui Mengqiang,Yuan Yaohui.FPGA implementation for background subtraction based on Gaussian mixture models[J].Journal of Harbin University of Science and Technology,2013,18(4):89-93.
[4]Wang Kongqiao,Xu Lei,Fang Yikai,et al.One-against-all frame differences based on hand detection for human and mobile interaction[J].Neurocomputing,2013,120(11):185-191.
[5]Xin Yunhong,Hou Jie,Dong Leming,et al.A self-adaptive optical flow method for the moving object detection in the video sequences[J].Optik-International Journal for Light and Electron Optics,2014,125(19):5690-5694.
[6]Wan Weibing,Huo Hongwei,Zhao Yuming.Object detection and tracking in intelligent video surveillance[M].Shanghai:Shanghai JiaoTong University Press,2009.
[7]Takaba S,Sakauchi M,Kaneko T,et al.Measurement of traffic flow using real time processing of moving pictures [C]//Proceedings of the 32nd IEEE Vehicular Technology Conference.Piscataway,USA:IEEE,1982:488-494.
[8]Abramczuk T.A microcomputer based TV detector for road traffic[J].Symposium on Road Program,1984,3(2):145-147.
[9]Yin Chaozheng.Traffic parameters detection based on video virtual-loop sensors[D].Beijing:Tsinghua University,2002.
[10]Sulivan G D,Baker K D,Worrall A D,et al.Model-based vehicle detection and classification using orthographic approximations[J].Image and Vision Computing,1997,15(8): 649-654.
[11]Badenas J,Sanchiz J M,Pla F.Motion-based segmentation and region tracking in image sequences[J].Pattern Recognition,2001,34(3):661-670.
[12]Battiato S,Farinella G M,Furnari A,et al.An integrated system for vehicle tracking and classification[J].Expert Systems withApplications,2015,42(21):7263-7275.
[13]Akula A,Khanna N,Ghosh R,et al.Adaptive contourbased statistical background subtraction method for moving target detection in infrared video sequences[J].Infrared Physics&Technology,2014,63(11):103-109.
[14]Zhou Junjing,Duan Jianmin,Yang Guangzu.Vehicle tracking based on improved deterministic data association[J].Pattern Recognition and Artificial Intelligence,2014,27(1): 89-95.
[15]Yang Min,Pei Mingtao,Wang Yongjie,et al.Video-based vehicle tracking based on moving object detection[J].Journal of Beijing Institute of Technology,2014,34(4):370-375.
[16]Oh J,Min J,Heo B.Development of an integrated system based vehicle-tracking algorithm with shadow removal and occlusion handling methods[J].Journal of Advanced Trans-portation,2012,46(2):139-150.
[17]Hajimolahoseini H,Armirfattahi R,Soltanian-Zadeh H.Robust vehicle tracking algorithm for nighttime videos captured by fixed cameras in highly reflective environments[J]. IET Computer Vision,2014,8(6):535-544.
[18]Gao Tao,Liu Zhengguang,Yue Shihong,et al.Traffic videobased moving vehicle detection and tracking in the complex environment[J].Cybernetics&Systems,2009,40(7): 20-27.
[19]Mannos J L,Sakrison D J.The effects of a visual fidelity criterion on the encoding of images[J].IEEE Transactions on Information Theory,1974,20(4):525-536.
[20]Hu Wenrui,Xie Yuan,Zhang Wensheng.Image denoising based on high order singular value decomposition and mean square error iteration[J].Journal of Image and Graphics, 2014,19(11):1563-1569.
[21]Watson A B,Hu J,McGowanⅢJ F.DVQ:a digital video quality metric based on human vision[J].Journal of Electronic Imaging,2001,10(1):20-29.
[22]Zhao Yan,Meng Liru,Wang Shigang,et al.Improved PSNR evaluation method consistent with human visual perception [J].Journal of Jilin University:Engineering and Technology Edition,2015,45(1):309-313.
[23]Hui Guobao,Tong Yifei,Li Dongbo.Image features matching based on improved patch similarity learning framework[J]. Chinese Journal of Computers,2015,38(6):1148-1161.
[24]Hu Hongyu,Guan Kehan,Li Zhihui,et al.Pedestrian count estimation considering feature spatial distribution[J].Journal of Chang'an University:Natural Science Edition,2015 (S1):54-58.
[25]Li Qian,Fan Yin,Zhang Jing,et al.Method of weather recognition based on decision-tree-based SVM[J].Journal of ComputerApplications,2011,31(6):1624-1627.
[26]Hu De,Guo Gangzheng.Comparison of applications on least square method,moment method and maximum likelihood[J].Statistics and Decision,2015(9):20-24.
附中文參考文獻:
[3]韓劍輝,崔猛強,袁耀輝.基于混合高斯模型的背景差分法的FPGA實現[J].哈爾濱理工大學學報,2013,18(4): 89-93.
[6]萬衛兵,霍宏偉,趙宇明.智能視頻監控中目標檢測與識別[M].上海:上海交通大學出版社,2009.
[9]尹朝征.基于視頻虛擬線圈的交通流參數檢測[D].北京:清華大學,2002.
[14]周俊靜,段建民,楊光祖.基于改進的確定性目標關聯的目標跟蹤法[J].模式識別與人工智能,2014,27(1):89-95.
[15]楊敏,裴明濤,王永杰,等.一種基于運動目標檢測的視覺車輛跟蹤方法[J].北京理工大學學報,2014,34(4):370-375.
[20]胡文銳,謝源,張文生.基于高階奇異值分解和均方差迭代的圖像去噪[J].中國圖象圖形學報,2014,19(11):1563-1569.
[22]趙巖,孟麗茹,王世剛,等.符合人眼視覺感知特性的改進PSNR評價方法[J].吉林大學學報:工學版,2015,45(1): 309-313.
[23]惠國保,童一飛,李東波.基于改進的圖像局部區域相似度學習架構的圖像特征匹配技術研究[J].計算機學報, 2015,38(6):1148-1161.
[24]胡宏宇,關可汗,李志慧,等.考慮特征空間分布的行人數量估計方法[J].長安大學學報:自然科學版,2015(S1): 54-58.
[25]李騫,范茵,張璟,等.基于室外圖像的天氣現象識別方法[J].計算機應用,2011,31(6):1624-1627.
[26]胡德,郭剛正.最小二乘法、矩法和最大似然法的應用比較[J].統計與決策,2015(9):20-24.

LIU Boyi was born in 1995.He is a student at College of Information Science and Technology,Hainan University, and the member of CCF.His research interests include intelligent transportation,pattern recognition and intelligent system,etc.
劉博藝(1995—),男,山東菏澤人,海南大學信息科學與技術學院學生,CCF會員,主要研究領域為智能交通,模式識別與智能系統等。

CHENG Jieren was born in 1974.He received the Ph.D.degree from School of Computer,National University of Defense Technology in 2010.Now he is a professor and graduate supervisor at Hainan University,and the member of CCF.His research interests include cloud computing,artificial intelligence,network security and intelligent transportation,etc.
程杰仁(1974—),男,湖南郴州人,2010年于國防科學技術大學計算機學院獲得博士學位,現為海南大學信息科學技術學院教授、研究生導師,CCF會員,主要研究領域為云計算,人工智能,網絡安全,智能交通等。發表學術論文50余篇。

TANG Xiangyan was born in 1981.She received the M.S.degree from School of Computer,Hunan Agricultural University in 2011.Now she is a lecturer at Hainan University.Her research interests include artificial intelligence, network security and intelligent transportation,etc.
唐湘滟(1981—),女,湖南邵陽人,2011年于湖南農業大學計算機學院獲得碩士學位,現為海南大學信息科學技術學院講師,主要研究領域為人工智能,網絡安全,智能交通等。

YIN Jianping was born in 1963.He received the Ph.D.degree in computer science and technology from National University of Defense Technology in 1990.Now he is a professor and Ph.D.supervisor at National University of Defense Technology,and the head of Technical Committee on Theoretical Computer Science of China Computer Federation.His research interests include algorithm design,artificial intelligence,pattern recognition and information security,etc.
殷建平(1963—),男,湖南益陽人,1990年于國防科學技術大學獲得博士學位,現為國防科學技術大學教授、博士生導師,CCF會員,主要研究領域為算法設計,人工智能,模式識別,信息安全等。
Moving Vehicles Recognition in Complex Dynamic Environment*
LIU Boyi1,CHENG Jieren1,2+,TANG Xiangyan1,YIN Jianping3
1.College of Information Science and Technology,Hainan University,Haikou 570228,China
2.State Key Laboratory of Marine Resource Utilization in South China Sea,Hainan University,Haikou 570228,China
3.State Key Laboratory of High Performance Computing,National University of Defense Technology,Changsha 410073,China
+Corresponding author:E-mail:cjr22@163.com
In view of the problem of obtaining the best threshold in vehicle recognition system,this paper presents a dynamic adaptive threshold method for vehicle recognition based on current research.This method firstly uses the image quality equalization algorithm based on entropy weight method to calculate the equalization of background image in traffic video.Secondly,the method obtains the best threshold of vehicle recognition by using polynomial fitting. Thirdly,the method makes Gaussian fitting between the equalization of background image and the best threshold of vehicle samples to get an adaptive threshold calculation model.The system updates the background image and calculates the equalization of background image real time.Then the system inputs the image equalization to the adaptivethreshold calculation model and gets the best threshold of real-time vehicle recognition.The experimental results and theoretical analysis show that the method realizes the adaptive update of vehicle recognition according to the dynamic environment,and improves the accuracy of vehicle recognition in different environments.
vehicle recognition;image quality;Gaussian fitting;entropy weight method
A
:TP391
10.3778/j.issn.1673-9418.1607035
*The National Natural Science Foundation of China under Grant Nos.61363071,61379145,61471169(國家自然科學基金);the Natural Science Foundation of Hainan Province under Grant No.614220(海南省自然科學基金);the Doctor Start Fund of Hainan University under Grant No.kyqd1328(海南大學博士啟動基金);the Youth Fund of Hainan University under Grant No.qnjj1444(海南大學青年基金).
Received 2016-07,Accepted 2016-11.
CNKI網絡優先出版:2016-11-25,http://www.cnki.net/kcms/detail/11.5602.TP.20161125.1530.002.html