康曉梅,穆柯楠,康 賢
(1.西安翻譯學院陜西西安710105;2.長安大學陜西西安710064)
基于視頻圖像的運動目標檢測及跟蹤是計算機視覺研究領域的研究熱點,在智能交通控制系統中的交通信息采集以及智能化視頻監控系統中均有廣闊的應用前景[1]。運動目標的檢測與跟蹤通常被分為兩個獨立的部分,分別采用不同的算法機制來實現[2]。針對攝像機運動情況下的目標檢測,文獻[3]采用基于光流法的運動目標檢測方法,通過對獨立運動目標進行光流分析,以獲取運動目標的運動信息。然而光流法計算量較大,算法實時性差,且對噪聲較為敏感。文獻[4-5]提出基于homography變換的方法來建立自適應背景模型,從而區分前景運動目標和背景區域。文獻[6]基于背景建模的目標檢測方法能夠提取出完整的目標區域,然而背景建模過程計算量較大,不利于實時檢測。文獻[7]通過尋找兩幅圖像的SIFT特征匹配點對,利用一定的背景更新機制,用仿射變換后的背景圖像對當前背景對應區域進行更新,然后利用背景差法檢測運動目標。文獻[8]通過尋找相鄰兩幀圖像的匹配點對,計算幾何變換模型使兩幀圖像對齊,然后利用幀間差分法檢測運動目標。
常用的目標跟蹤算法有基于特征的跟蹤[9]、基于區域的跟蹤[10]和基于模型的跟蹤[11]。其中基于特征的目標跟蹤方法主要優點是對尺度、形變和亮度等變化不敏感,并且在目標被部分遮擋的情況下,只要有一部分特征存在,仍然可以跟蹤運動目標。然而該方法的缺點在于無法較好的確定并提取目標特征,如果選擇的特征較少,容易丟失目標;如果選擇的特征過多,則會增加算法的計算量,降低算法的實用性[12]。
論文提出一種基于SIFT[13]特征匹配的運動目標檢測和跟蹤算法,主要特點表現在:1)與傳統算法將目標檢測和跟蹤采用不同算法分別實現不同,論文的目標的檢測和跟蹤均基于SIFT特征匹配方法加以實現,算法復雜度低;2)論文基于SIFT特征匹配的目標跟蹤算法,只選擇運動目標區域中的特征點進行匹配,在保證算法實用性的基礎上降低了算法計算量,有效解決了特征點數目選擇的問題;3)論文針對跟蹤樣本集退化問題,制定了相應的樣本集更新機制。
運動相機采集到的連續幀場景不同,但相鄰幀之間存在場景重疊區域。同時,視頻幀序列中也存在光照變化以及相機抖動等干擾因素。通過求解相鄰幀之間的幾何變換模型,可以消除由于相機運動而產生的場景移動,以及光照變化及相機抖動而產生的差異。求解幾何變換模型參數需要尋提取相鄰幀圖像的特征點并且尋找這兩幅圖像之間的特征匹配點對。論文采用SIFT(Scale-invariant feature transform,SIFT)特征檢測器來提取圖像的特征點,采用K-D Tree最近鄰搜索算法進行相鄰幀之間的特征點匹配。
可以計算出相應的幾何變換模型參數。考慮到由于相機抖動而可能產生的旋轉、平移、縮放等變化,論文采用仿射變換模型來描述相鄰幀之間的幾何變換關系:

根據1.1節獲得的特征匹配點對,采用RANSAC算法可求解出變換矩陣[14]。
求解出代表兩幀圖像之間幾何變換的矩陣H后,對前一幀圖像進行幾何變換,使其與后一幀圖像幾何對齊。然后將對齊后的兩幅圖像差分,從而得到候選運動目標區域。進一步地,為消除背景干擾,在差分圖像上計算Sum of Absolute Differences(SAD)值,高SAD值對應的區域即為目標區域,從而消除背景區域的干擾,確定運動目標位置。實驗結果如圖1所示。

圖1 兩幀圖像對齊與差分
為了判斷跟蹤樣本集中某樣本與當前幀中檢測到的運動目標是否為同一目標,論文利用兩者的匹配程度來衡量,即匹配度。假設跟蹤樣本有N1個SIFT特征點,第k+1幀圖像檢測到的目標有N2個SIFT特征點,兩者的SIFT特征匹配點對為N,則匹配度Rate按如下公式計算:

如圖2為樣本目標與當前檢測目標的匹配結果。其中圖2(a)為匹配度大于匹配度閾值TR的情況,因此判斷當前檢測目標與對應樣本為同一目標而進行跟蹤;圖2(b)為匹配度小于閾值的情況,雖然事實上該跟蹤樣本與當前檢測目標為同一車輛,但由于一段時間后車輛行駛姿態改變導致該檢測車輛與對應樣本差異較大,導致匹配失敗。為了避免此類現象的發生,必須對跟蹤樣本進行實時更新。

圖2 樣本目標與檢測目標的匹配結果
論文建立的跟蹤樣本集,是已標記的所有運動目標的集合。定義跟蹤樣本集:

對跟蹤樣本集進行實時更新,可以避免樣本集發生退化現象。導致退化的因素有3種,分別對應樣本集更新的3種情況:
1)對于第k幀檢測到的運動目標,若跟蹤樣本集中存在與該目標匹配度大于閾值TR的樣本,則用當前檢測到的目標對樣本集中對應樣本進行更新;
2)對于當前幀圖像檢測到的某一運動目標,若跟蹤樣本集中的所有跟蹤樣本與其匹配度均低于閾值TR,則認為該目標新進入相機視野,并將其加入跟蹤樣本集中;
3)對于跟蹤樣本集中的某一樣本,若在第k幀及第k+1幀中均未檢測到與其匹配度高于閾值TR的目標,則認為該目標離開相機視野,并將該目標對應樣本從樣本集中剔除。
論文通過大量測試發現,TR=80.31%時能得到理想的實驗結果。
實驗采用PeopleImageAnalysisConsortium(PIAC)以及Change Detection.NET(CDNET)視頻圖像數據庫中的多組測試視頻,在Matlab2012a環境下對論文算法的有效性進行驗證。
如圖3(a)(b)為兩組視頻場景下的運動目標檢測結果,其中攝像機為運動狀態(為保證運動目標始終處于攝像機視野范圍內)。表1所示為論文算法與文獻[3]基于光流法的檢測方法以及文獻[6]基于混合高斯背景建模的檢測方法檢測時間的對比結果。從表中可以看出,與其他兩種算法相比,論文基于SIFT特征匹配的目標檢測方法耗時較短,有利于需要實時檢測的應用場景(如視頻監控系統)。如圖4所示為三組視頻序列下的運動目標跟蹤結果。從實驗結果可以看出,論文所提的基于SIFT特征匹配的目標檢測及跟蹤算法能夠實現攝像機運動情況下不同場景中的目標檢測及跟蹤。

圖3 運動目標檢測結果
文中提出一種基于SIFT特征匹配的運動目標檢測和跟蹤算法。對于兩幀待檢測圖像,首先采用SIFT算法提取特征點并尋找兩幀圖像的特征匹配點對,經K-D Tree搜索算法進行特征點初匹配后,再利用RANSAC算法求解兩幀圖像之間的幾何變換矩陣,實現圖像幾何對齊,從而消除相機運動、光照變化、背景干擾等因素。然后將兩幅對齊圖像差分,通過在差分區域尋找SAD最大值區域來確定運動目標區域。最后將已檢測到的目標作為跟蹤樣本,與后檢測到的目標區域進行SIFT特征匹配,結合論文提出的跟蹤樣本集更新機制實現目標跟蹤。實驗結果證明論文算法復雜度低,檢測與跟蹤準確度較高,適用于運動目標的實時檢測。然而論文中只實現了單一運動目標的檢測和跟蹤,后續研究工作中將針對多目標的檢測及跟蹤此類復雜情況對算法進行改進。

表1 3種算法目標檢測時間對比(單位:s)

圖4 運動目標跟蹤結果
[1]劉定通.復雜背景下視頻運動目標檢測與跟蹤算法研究[D].成都:電子科技大學,2015.
[2]Sayanan Sivaraman,Mohan Manubhai Trivedi.Looking at vehicles on the road:A survey of visionbased vehicle detection,tracking,and behavior analysis[J]. IEEE Transactions on Intelligent Transportation Systems,2013,14(4):1773-1795.
[3]劉洪彬,常發亮.權重系數自適應光流法運動目標檢測[J].光學精密工程,2016,24(2):460-468.
[4]姜明新,王洪玉,劉曉凱.基于多相機的多目標跟蹤算法[J].自動化學報,2012,38(4):531-539.
[5]孟燦.基于全方位視覺的運動目標檢測與跟蹤算法研究[D].杭州:中國計量學院,2015.
[6]LING Qiang,YAN Jin-feng,LI Feng,et al.A background modeling and foreground segmentation approach based on the feedback of moving objects in traffic surveillance systems[J].Neurocomputing,2014(133):32-45.
[7]王亮芬.基于SIFT特征匹配和動態更新背景模型的運動目標檢測算法[J].計算機應用與軟件,2010,27(2):267-270.
[8] Jon Arróspide, Luis Salgado,Marcos Nieto.Vehicle detection and tracking using homographybased plane rectification and particle filtering[J].2010 IEEE IntelligentVehicles Symposium.University of California,San Diego,CA,USA.2010:150-155.
[9]Cao X,Gao C,Lan J,et al.Ego motion guided particle filter for vehicle tracking in airborne videos[J].Neurocomputing,2014,124(124):168-177.
[10]Ding J,Lei B,Hong P,et al.Adaptive homochromous disturbance elimination and feature selection based mean-shift vehicle tracking method[J].Proceedings of SPIE-The International Society for Optical Engineering,2011,8200(10):4869-4871.
[11]張煥龍,胡士強,楊國勝.基于外觀模型學習的視頻目標跟蹤方法綜述[J].計算機研究與發展,2015,52(1):177-190.
[12]龐國瑞.基于DSP的運動目標檢測與跟蹤技術的應用研究[D].聊城:聊城大學,2013.
[13]李明.基于SIFT特征點匹配的目標跟蹤算法研究[D].合肥:合肥工業大學,2011.
[14]Xiangqian Wua,Qiushi Zhaoa,Wei Bub.A SIFT-based contactless palmprint verification approach usingiterativeRANSAC and localpalmprint descriptors[J].Pattern Recognition,2014,47(10):3314-3326.