999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于示例選擇的目標(biāo)跟蹤改進算法

2015-06-27 08:26:03汪榮貴蔣守歡梁啟香
計算機工程 2015年1期

李 想,汪榮貴,楊 娟,蔣守歡,梁啟香

(合肥工業(yè)大學(xué)計算機與信息學(xué)院,合肥230009)

基于示例選擇的目標(biāo)跟蹤改進算法

李 想,汪榮貴,楊 娟,蔣守歡,梁啟香

(合肥工業(yè)大學(xué)計算機與信息學(xué)院,合肥230009)

多示例學(xué)習(xí)是一種處理包分類問題的新型學(xué)習(xí)模式,傳統(tǒng)基于多示例學(xué)習(xí)的目標(biāo)跟蹤算法在自適應(yīng)獲取正包時受到無益或有害示例的干擾,不能很好地提取目標(biāo)的鑒別性特征。為此,設(shè)計基于核密度估計的示例選擇方法,剔除訓(xùn)練集中的無益示例或有害示例,提高多示例學(xué)習(xí)算法的有效性,并在此基礎(chǔ)上提出一種基于示例選擇的目標(biāo)跟蹤改進算法,針對負示例占多數(shù)的情況建立核密度估計函數(shù)來精簡正包中的示例,使用精簡后的樣本數(shù)據(jù)進行訓(xùn)練學(xué)習(xí),最終實現(xiàn)對目標(biāo)的實時跟蹤。實驗結(jié)果表明,該算法在光照變化、目標(biāo)部分遮擋及形體變化等情形下都具有較好的穩(wěn)健性。

多示例學(xué)習(xí);有害示例;核密度估計;示例選擇;穩(wěn)健性;目標(biāo)跟蹤

1 概述

視頻中運動目標(biāo)的自動跟蹤是計算機視覺的重要研究內(nèi)容,在安全監(jiān)控、視頻內(nèi)容分析、機器人導(dǎo)航等領(lǐng)域都有著廣闊的應(yīng)用前景。然而,在實際跟蹤過程中,通常會遇到光照變化、復(fù)雜背景的干擾,以及目標(biāo)的部分遮擋和形體變化等情況,這些都會導(dǎo)致跟蹤精度下降甚至跟蹤漂移或丟失。因此,跟蹤算法的穩(wěn)健性在視頻跟蹤過程中具有非常關(guān)鍵的作用。

穩(wěn)健性跟蹤算法是視頻目標(biāo)跟蹤研究的重點和難點,其具有代表性的研究成果主要有:文獻[1]提出了基于MeanShift的目標(biāo)跟蹤方法,該方法在物體遇到目標(biāo)遮擋和形體變形時仍能實時的跟蹤,但當(dāng)背景與目標(biāo)相似情況下該算法魯棒性較差;文獻[2]提出使用支持向量機(SVM)對目標(biāo)進行跟蹤,但該算法計算量大跟蹤實時性弱;文獻[3]提出基于子塊的積分直方圖跟蹤方法,該跟蹤方法可以很好地處理部分遮擋問題,但不能較好地適應(yīng)形體變化;文獻[4]提出基于AdaBoost級聯(lián)的人臉檢測方法,使用Haar-like小波特征和積分圖方法提取人臉特征訓(xùn)練AdaBoost,并對AdaBoost訓(xùn)練出的強分類器級聯(lián)對人臉進行檢測,并取得較好的檢測結(jié)果;文獻[5]提出基于分類的目標(biāo)跟蹤方法,在線的方式訓(xùn)練Boosting特征分類器提取鑒別性特征分離目標(biāo)和背景,實現(xiàn)了對目標(biāo)物體地跟蹤。Boosting算法通過對復(fù)雜背景模型的在線學(xué)習(xí),可以較好地處理跟蹤時出現(xiàn)的干擾和自身變化等情況。然而Boosting算法在訓(xùn)練階段利用已知的概念標(biāo)記類更新分類器,可是在實際應(yīng)用中能標(biāo)記的信息少而模糊[6],導(dǎo)致Boosting算法具有內(nèi)在不確定性即樣本的歧義性[7]。

多示例學(xué)習(xí)(Multiple Instance Learning,MIL)[8]由Dietterich于上個世紀90年代提出。這種學(xué)習(xí)的訓(xùn)練樣本由包組成,因而在處理標(biāo)記模糊性問題上比傳統(tǒng)的學(xué)習(xí)方法更加靈活。Paul Viola提出一種基于多示例學(xué)習(xí)目標(biāo)跟蹤方法,該方法通過對包的訓(xùn)練學(xué)習(xí)將內(nèi)在不確定性傳遞給學(xué)習(xí)算法,以此構(gòu)造MILBoost分類器對目標(biāo)進行檢測。文獻[9-10]在Paul Viola的基礎(chǔ)上采用自適應(yīng)外觀模型,并改進MILBoost算法將其應(yīng)用到目標(biāo)跟蹤,取得了較好的跟蹤效果。但對于MILBoost跟蹤系統(tǒng)來說,通過跟蹤結(jié)果來預(yù)測目標(biāo)的最佳位置,根據(jù)該點位置在一定搜索半徑內(nèi)選擇出樣本訓(xùn)練集正包和負包,然而在搜索半徑內(nèi)獲取滿足條件的訓(xùn)練樣本較多,會阻礙多示例學(xué)習(xí)的有效性。事實上,該方法得到的正包訓(xùn)練樣本占主導(dǎo)地位的往往是負示例,此時通過提取目標(biāo)鑒別性特征來更新分類器反而降低跟蹤精度。

本文通過對多示例進行在線篩選的思想解決上述問題,提出一種基于高斯核密度估計的在線示例選擇方法。通過對多示例學(xué)習(xí)框架和核密度估計方法的研究,以及對獲取的訓(xùn)練樣本中負示例占多數(shù)現(xiàn)象的分析,利用AdaBoost分類器訓(xùn)練得到的特征集,建立基于負示例的高斯核密度估計函數(shù)來在線篩選正包中的示例,用篩選過后的正包在線更新AdaBoost分類器預(yù)測目標(biāo)的最佳位置,由此提高跟蹤算法的穩(wěn)健性。

2 多示例學(xué)習(xí)與核密度估計

2.1 多示例學(xué)習(xí)

多示例學(xué)習(xí)被認為是與監(jiān)督學(xué)習(xí)、非監(jiān)督學(xué)習(xí)和強化學(xué)習(xí)并列的一種新型機器學(xué)習(xí)框架,文獻[11]提出多示例學(xué)習(xí)概念,將每一種分子作為一個包,分子的每一個同分異構(gòu)體作為包中的一個示例。拓展到理論研究上即訓(xùn)練樣本集由若干個概念標(biāo)記的包組成,每個包包含若干個沒有概念標(biāo)記的示例,若一個包中至少包含一個正樣本,則該包標(biāo)記為正,若一個包中的所有示例都是負樣本,則該包標(biāo)記為負。通過對訓(xùn)練包的學(xué)習(xí),盡可能正確地對訓(xùn)練集之外包的概念標(biāo)記進行預(yù)測[12]。

在傳統(tǒng)的學(xué)習(xí)框架的訓(xùn)練模式下,處理的樣本是一類已知的標(biāo)記類,然而實現(xiàn)應(yīng)用中可提供的標(biāo)記信息少而模糊,而多示例學(xué)習(xí)處理的訓(xùn)練樣本是以包為單位,只需知道包的概率標(biāo)記而不是示例,在處理標(biāo)記模糊性方面更加靈活[13]。多示例學(xué)習(xí)方法在圖像檢索、數(shù)據(jù)挖掘以及圖像分割、目標(biāo)檢測和目標(biāo)跟蹤等領(lǐng)域具有良好的應(yīng)用前景。

傳統(tǒng)鑒別性學(xué)習(xí)算法訓(xùn)練二值分類器來估算p(y|x),{(x1,y1),(x2,y2),…,(xn,yn)}表示訓(xùn)練樣本集(xi表示樣本,yi表示二值標(biāo)記),在多示例學(xué)習(xí)框架里訓(xùn)練數(shù)據(jù)由包組成,表示形式為{X1,X2,…,Xn},其中,包Xi={xi1,xi2,…,xim};xij表示包中示例,yi∈{0,1}是包的概念標(biāo)記,則包的概念標(biāo)記定義為:

其中,yij是示例標(biāo)記,實際訓(xùn)練過程中yij是未知的。由多示例學(xué)習(xí)框架得知,訓(xùn)練集由若干個具有概念標(biāo)記的包組成,每個包包含若干沒有概念標(biāo)記的示例。從訓(xùn)練角度來看,如果訓(xùn)練數(shù)據(jù)過多,會導(dǎo)致跟蹤算法的計算復(fù)雜度增加,且訓(xùn)練數(shù)據(jù)中會存在對分類結(jié)果無用的示例,導(dǎo)致分類器精度下降。由于非參數(shù)核密度估計方法不需要假定數(shù)據(jù)的密度分布形式,直接從數(shù)據(jù)中估計未知密度函數(shù)。因此,本文在訓(xùn)練階段運用核密度估計方法對訓(xùn)練樣本進行篩選。

2.2 核密度估計

核密度估計是由Rosenblatt和Parzen提出的一種非參數(shù)檢驗方法。該方法不使用數(shù)據(jù)分布的先驗知識,是一種從數(shù)據(jù)樣本本身出發(fā)研究數(shù)據(jù)分布特征的方法,因而在統(tǒng)計學(xué)和應(yīng)用領(lǐng)域均受到高度重視。下面簡要介紹核密度估計基本知識。

設(shè)數(shù)據(jù){x1,x2,…,xn}取自連續(xù)分布,在任意點x處的總體概率密度函數(shù)f(x)的核密度定義為:

其中,h為預(yù)先給定的正數(shù),通常稱為窗寬或者平滑參數(shù)。

(x)表現(xiàn)的好壞與核函數(shù)K(u)和窗寬h有關(guān),當(dāng)窗寬較大時(x)的估計較穩(wěn)定,方差波動較小,反之,當(dāng)窗寬較小時,估計的偏差較小,使得f^(x)的波動方差較大。

為了保持概率密度估計的合理性,通常要求核密度滿足以下條件:

常用的核函數(shù)有以下3種:

(1)高斯核函數(shù):

(2)Epanechnikov核函數(shù):

(3)Biweight核函數(shù):

依據(jù)高斯模型運算簡單的優(yōu)勢,核密度估計模型對隨機序列分布描述精確的特點,本文將非參數(shù)的核密度估計方法和高斯模型結(jié)合,綜合利用兩者的優(yōu)勢與特點對示例進行選擇。

3 基于高斯核密度估計的示例選擇

本文利用多示例學(xué)習(xí)框架對目標(biāo)進行跟蹤時,采用自適應(yīng)方式選擇訓(xùn)練樣本數(shù)據(jù),通過預(yù)測目標(biāo)物體的最佳位置l?,將滿足條件X+={||l(x)-l?(x)||<r}選取得到的訓(xùn)練樣本集作為正包中的示例,而滿足條件X-={r<||l(x)-l?(x)||<β}選取得到的訓(xùn)練樣本集作為負包中的示例。

這種方式選擇得到的訓(xùn)練樣本會存在以下2個問題:(1)訓(xùn)練樣本提取的特征過多,增加計算復(fù)雜度;(2)訓(xùn)練樣本包會存在干擾示例,并且干擾示例具有絕對的選擇權(quán),會弱化分類器的分類結(jié)果,導(dǎo)致下一幀跟蹤目標(biāo)的預(yù)測位置錯誤。因此,在基于多示例框架的跟蹤過程中,需要摒棄對分類過程產(chǎn)生干擾的無益示例或者有害示例[14]。其中,無益示例指一些類中不能提供有用的信息的示例;有害示例指在分類過程提供錯誤信息導(dǎo)致分類錯誤的示例。

假設(shè)對于某個示例集合C={a1,a2,…,as}(ai是類中的示例)。運用多樣性密度(Diverse Density, DD)算法來計算某個示例ai在全部包的概率大小,如式(4)所示:

根據(jù)Bayes理論計算ai概率大小其復(fù)雜度高,而且DD方法在選擇示例方面更加嚴格,因為它總是只能尋找一個示例。這種示例選擇方法獲得的訓(xùn)練集中仍存在很多無益示例或者有害示例。所以,本文提出基于核密度估計的示例選擇,以有效減少訓(xùn)練集中無益示例或者有害示例對分類結(jié)果的干擾,提高目標(biāo)跟蹤算法的穩(wěn)健性。

假設(shè){x1,x2,…,xn}是n個離散的樣本,其服從的分布概率密度函數(shù)f(x),則密度估計為:

其中均勻核函數(shù)為:

若將式(5)窗寬放寬就得到一般核密度估計表示形式(式(2))。

為提高核密度估計的計算效率,本文采用運算簡單高斯核密度,即高斯核密度估計函數(shù)。假設(shè)fei為某一特征,則fei的高斯核密度函數(shù)如下:

其中,mi表示第i個負包中掃描示例得到fei個數(shù);xij表示第i負包中第j個示例的特征值;μ表示對應(yīng)特征fei負包示例的均值;σ表示對應(yīng)特征fei負包示例的方差。

示例選擇的基本原理如下:

(1)利用AdaBoost分類器訓(xùn)練得到的特征集,對于每個特征計算負包中示例的特征值。

(2)建立相應(yīng)的高斯核密度分布函數(shù)fei(x)。

(3)計算正包中的示例特征值,如果對于正包中的某示例的分布多次滿足建立的高斯核密度分布(即正包中的示例滿足分布兩垂直虛線之間,如圖1所示),則認為它是負示例,將其剔除;反之,則保留。

圖1 高斯核密度函數(shù)分布

將通過高斯核密度估計函數(shù)篩選過后得到訓(xùn)練樣本的正包,與原負包的樣本一起訓(xùn)練AdaBoost分類器,再對目標(biāo)物體進行分類并預(yù)測跟蹤目標(biāo)的最佳位置。但是每當(dāng)有新的數(shù)據(jù){(x1,y1),(x2,y2),…,(xn,yn)}時,若還采用原有的高斯核密度估計分布函數(shù)對正包進行篩選,會直接導(dǎo)致跟蹤精度的下降,算法的穩(wěn)健性減弱。因此,本文采用如下策略對示例選擇算法的高斯核進行在線更新:

圖2舉例說明基于高斯核密度估計的示例選擇算法,其中,實現(xiàn)為正包樣本;虛線為負包樣本(圖中所框定出來的正負包樣本只是訓(xùn)練樣本一部分)。

圖2 示例選擇說明

4 穩(wěn)健性目標(biāo)跟蹤算法

本文提出一種基于高斯核密度估計示例選擇的目標(biāo)跟蹤算法。該算法在訓(xùn)練階段,剔除正包中無益或者有害的示例,并訓(xùn)練AdaBoost分類器進而對目標(biāo)物體進行跟蹤。然而跟蹤的初始化階段并不進行示例選擇,而是通過人機交互方式提取樣本,并訓(xùn)練AdaBoost分類器。以圖3為例,先將第1幀作為訓(xùn)練幀,通過手動定義樣本的位置信息并規(guī)定樣本統(tǒng)一的高寬來選取正負包,將目標(biāo)位置四周的樣本如實線框所示樣本作為正包中的示例,而遠離目標(biāo)的樣本如虛線框框所示樣本作為負包中的示例。圖3中黑色實框的樣本為正包樣本,白色虛框的樣本為負包樣本(其中圖中所框定出來的正負包樣本只是訓(xùn)練樣本一部分),并對得到的訓(xùn)練樣本集利用AdaBoost分類器進行訓(xùn)練。

圖3 訓(xùn)練樣本手動定義示例

本文訓(xùn)練AdaBoost訓(xùn)練器所用特征是Haarlike特征[15],如圖4所示。利用積分圖方式求出圖像中所有區(qū)域像素和,針對圖中的矩形特征的計算,通過計算特征矩形的端點積分圖,再進行簡單的加減運算得到特征值,這樣計算方式大大提高計算速度。

圖4 Haar-like特征

訓(xùn)練AdaBoost分類器除了得到的特征集建立高斯核密度估計外;同時還利用得到的弱分類器組合成強分類器來預(yù)測下一目標(biāo)的最佳位置l?,目標(biāo)的最佳位置l?采用具有連續(xù)置信度輸出的LUT型弱分類器,如圖5所示,其中,hj(x)表示特征對應(yīng)的弱分類器,Wk+1和Wk

-1分別表示作為正示例和負示例的權(quán)重之和(其中,k表示第k區(qū)間),將正包中示例的置信度高作為當(dāng)前幀t的目標(biāo)位置即為目標(biāo)的最佳位置

圖5 LUT型弱分類器

綜上所述,本文跟蹤算法步驟如下:

Setp 1初始幀,通過人機交互獲取樣本集,運用積分圖計算Harr-like特征,并訓(xùn)練AdaBoost分類器,所有的特征均值和方差都設(shè)置為0。

Setp 2預(yù)測當(dāng)前幀t的最佳位置,根據(jù){||l(x)-l?(x)||<r}和{r<||l(x)-l?(x)||<β}將樣本分為正包和負包。

Setp 3并利用上一幀訓(xùn)練AdaBoost分類器得到的特征集,計算負包中的示例的Harr-like特征,建立高斯核密度函數(shù),在線更新均值μ和方差σ。

Setp 4計算正包中某示例是否滿足某個特征的高斯核密度分布,通過對每個示例設(shè)置計數(shù)變量來判斷;如果某示例多次滿足高斯核密度函數(shù)分布,則將該示例刪除,以此篩選正包中的示例。

Setp 5在線更新AdaBoost分類器。

Setp 6預(yù)測下一幀的位置前,先判斷這幀是否是最后一幀,如果是則結(jié)束,否則轉(zhuǎn)步驟Step2。

本文目標(biāo)跟蹤算法流程如圖6所示。

圖6 本文目標(biāo)跟蹤算法流程

5 實驗結(jié)果與分析

本文實驗平臺為CPU雙核2.6 GHz,內(nèi)存2 GB,軟件為Matlab R2009a,Windows XP操作系統(tǒng)。為了驗證本文算法的有效性,實驗中選取了多組具有代表性的視頻進行處理,這些視頻中包含了目標(biāo)的遮擋,光照的劇烈變化,目標(biāo)的快速移動等較難處理的情況。本文采用 MIL跟蹤方法以及 OAB(Online AdaBoost)跟蹤方法作為對比實驗,并且分別通過主觀觀察和客觀評價方法驗證本文算法的優(yōu)越性。

本文所采用的實驗對比方法采用相同的運動模型,算法在跟蹤的初始化階段,需要手動定義目標(biāo)的訓(xùn)練樣本,初始時設(shè)置μ0=0,σ0=0。本文算法和OAB算法設(shè)置搜索半徑為30像素,在搜索半徑內(nèi)未發(fā)現(xiàn)目標(biāo)時,下一幀將擴大搜索半徑,擴大率為ε=1.1。對于本文算法,對于本文算法每一幀的半徑r=5范圍內(nèi)視為正包中的示例,一般情況下正包中包含約60個的圖像子塊;對于負包示例的半徑設(shè)置為β=55,一般情況下負包中會生成約70個的圖像子塊。更新策略的參數(shù)本文設(shè)置為α=0.85。圖7為實驗結(jié)果對比,其中,黑色直線為本文算法;白色點劃線為MIL算法;白色虛線為 OAB算法。圖7(a)為視頻 david inside的跟蹤效果,本文提供了#1,#14,#154,#277, #316和#460幀作為效果展示圖,從效果圖可以看出視頻跟蹤中遇到光線變化和自身變化等情況,本文算法較MIL和OAB都具有較好的跟蹤效果。圖7(b)為視頻sylverster的跟蹤效果,此視頻主要難點在于目標(biāo)的自身變化和光照變化,如#1,#389,#608,#866,#933, #1344圖中所示,本文算法在跟蹤效果方面比MIL算法和OAB算法好。圖7(c)從occluded face2中選取#1,#282,#411,#658,#732,#812的效果圖,本視頻存在的主要處理難點是人臉遮擋問題,該視頻中人臉的遮擋率大75%,,如#732,本文算法仍然有較好的跟蹤效果。圖7(d)從tiger2中選取#1,#53,#114,#205,#329, #362的效果圖,該視頻主要處理的是物體的快速移動以及經(jīng)常性遮擋,從圖中可以看出,當(dāng)目標(biāo)出現(xiàn)全遮擋本文算法依然可以跟蹤。

上述的實驗結(jié)果對比是從主觀上來評價本文算法的優(yōu)越性,下面從客觀角度來衡量本文算法性能。目前對于跟蹤算法主要采用中心像素誤差作為評價標(biāo)準,中心像素距離指的是目前跟蹤到的目標(biāo)中心位置與目標(biāo)實際中心位置的像素距離。圖8為每個視頻基于中心像素距離標(biāo)準的跟蹤效果對比,其中對于每個視頻每隔5幀,提取該目標(biāo)的中心位置和實際中心位置的像素距離。

但是這種方法并不能很好地分析跟蹤算法準確性,如圖9所示,由圖9(a)可以看出,盡管它們的中心點重合,但是由于文章采用自適應(yīng)選取樣本,因此它在大小和形狀相差很大,如果單獨考慮中心像素誤差,會認為跟蹤精確度達到100%,但事實情況并非如此。圖9(b)顯示目標(biāo)較大時,盡管中心平均像素誤差較大,但還是有較多區(qū)域重合,而目標(biāo)較小時,如圖9(c)所示,盡管中心平均像素誤差較小,但跟蹤結(jié)果已偏離目標(biāo)。因此,本文認為跟蹤目標(biāo)的準確度和目標(biāo)的中心位置有關(guān),還和目標(biāo)的大小有關(guān),為此本文采用一種更加嚴格的評價標(biāo)準,基于重合面積的精確度計算方法[16-17]。

圖7 實驗結(jié)果對比

圖8 中心像素距離對比

圖9 跟蹤結(jié)果現(xiàn)象分析

如圖10所示,S1代表真實目標(biāo)區(qū)域面積,S2代表跟蹤到的目標(biāo)區(qū)域面積,S3為S1和S2面積的重合部分,則其精確度評價標(biāo)準p為:

圖10 重合面積表示

基于此評價標(biāo)準,對圖8中的每個視頻的跟蹤效果進行對比,結(jié)果如圖11所示。

由圖8和圖11的實驗結(jié)果可以看出,在視頻跟蹤的前期階段,MIL算法跟蹤效果較好,因為MIL算法主要通過基于部分模型解決遮擋問題,但不能很好地解決目標(biāo)的自身變化。而OAB算法跟蹤整體效果不錯,但跟本文算法相比,由于訓(xùn)練樣本過多,導(dǎo)致跟蹤精度都不如本文算法。從上面的主觀和客觀的分析結(jié)果可以看出本文提出的方法能夠更加穩(wěn)健的跟蹤到目標(biāo),并且在背景復(fù)雜,光線變化,物體的快速移動,目標(biāo)遮擋等復(fù)雜條件下,都具有較高的準確率。

圖11 重合精確度對比

6 結(jié)束語

本文對多示例學(xué)習(xí)框架訓(xùn)練分類器的優(yōu)點與不足進行分析,根據(jù)選取訓(xùn)練樣本的樣本分布特點,提出了基于高斯核密度估計的示例選擇的目標(biāo)跟蹤方法,并針對負示例占據(jù)主導(dǎo)優(yōu)勢的情況,建立基于負示例分布的高斯核密度,對正包中的示例進行篩選,得到最終的訓(xùn)練樣本數(shù)據(jù),然后更新訓(xùn)練AdaBoost分類器對目標(biāo)進行跟蹤。實驗結(jié)果表明,本文算法在處理遮擋、光照變化、快速移動以及自身變化的情況時,具有較好的跟蹤效果。

[1] Comaniciu D,Rameshand V,Meer P.Real-time Tracking of Non-rigid Objects Using Mean Shift[C]// Proceedings of CVPR’00.Hilton Head Island,USA: IEEE Press,2000:142-149.

[2] Avidan S. Subset Selection for Efficient SVM Tracking[C]//Proceedings of CVPR’03.Madison, USA:IEEE Press,2003:85-92.

[3] Adam A,Rivlin E,Shimshoni I.Robust MILments-based Tracking Using the Integral Histogram [C]// Proceedings of CVPR’06.New York,USA:IEEE Press, 2006:798-805.

[4] Viola P,Jones M J.Real-time Face Detection[J]. International Journal of Computer Vision,2004,57(2): 137-154.

[5] Grabner H,Grabner M,Bischof H.Real-time Tracking via Online Boosting[C]//Proceedings of BMVC’06. Edinburgh,UK:[s.n.],2006:47-56.

[6] Li Mu,Kwok J T,Lu Baoliang.Online Multiple Instance Learning with No Regret[C]//Proceedings of CVPR’10.San Francisco,USA:IEEE Press,2010: 1395-1401.

[7] Viola P,PlattJC,Zhang Cha.Multiple Instance Boosting for Object Detection[C]//Proceedings of NIPS’05.Whistler,Canada:[s.n.],2005:1417-1426.

[8] Dietterich T G,Lathrop R H,Lozano-Pérez T.Solving the Multiple-instance Problem with Axis-parallel Rectangles[J].Artificial Intelligence,1997,89(1/2):31-71.

[9] Babenko B,Yang M H,Belongie S.Visual Tracking with Online Multiple Instance Learning[C]// Proceedings of CVPR’09.Miami,USA:IEEE Press, 2009:983-990.

[10] Babenko B,Yang M H,Belongie S.Robust Object Tracking with Online Mutltiple Instance Learning[C]// Proceedings of PAMI’11.Miami,USA:IEEE Press, 2011:983-990.

[11] Maron O,Lozano-Perez T.A Framework for Multiple Instance Learning[C]//Proceedings of NIPS’98. [S.l.]:MIT Press,1998:570-576.

[12] 鄧劍勛,熊忠陽.多示例圖像檢索算法研究及在人臉識別中的應(yīng)用[D].重慶:重慶大學(xué),2012.

[13] Zho Zhihua,Xu Junming.On the Relation Between Multi-instanceLearning and Semi-supervised Learning[C]//Proceedings of ICML’07.New York,USA: [s.n.],2007:1167-1174.

[14] Fu Zhouyu,Robles-Kelly A,Zhou Jun.MILIS:Multiple Instance Learning with Instance Selection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(5):958-977.

[15] Suha K,Nam W,Han B.Learning Occlusion with Likehoods for Visual Tracking[C]//Proceedings of ICCV’11.Barcelona,Spain:[s.n.],2011:1551-1558.

[16] 戴經(jīng)成,汪榮貴,游生福,等.在線多示例學(xué)習(xí)目標(biāo)跟蹤方法研究[J].計算機工程與應(yīng)用,2012,48(15): 129-135.

[17] 戴經(jīng)成,汪榮貴.基于多示例學(xué)習(xí)的圖像分析方法研究[D].合肥:合肥工業(yè)大學(xué),2013.

編輯 金胡考

Improved Object Tracking Algorithm Based on Instance Selection

LI Xiang,WANG Ronggui,YANG Juan,JIANG Shouhuan,LIANG Qixiang
(School of Computer and Information,Hefei University of Technology,Hefei 230009,China)

Multiple Instance Learning(MIL)is a new learning paradigm that deals with the problem of bags classification.The object tracking algorithm based on MIL is often interfered by useless or harmful instances when adaptively choose positive bags,and can not extract good discriminative feature,and this will affect the robustness of tracking algorithm.Therefore,this paper proposes an instance selection method based on kernel density estimation to improve the efficiency of MIL algorithm,which eliminates useless or harmful instances in training set,and then on this basis it provides a robust object tracking algorithm based on instance selection.Firstly,the algorithm builds up kernel density estimation function,uses it to optimize instances of positive bag for the majority of them are negative instances, and then uses the optimized training data to training-and-learning,and finally achieves real-time object tracking. Experimental results demonstrate that when the object suffers from the illumination changes,object partial occlusions, appearance changes and some other situations,the proposed object tracking algorithm is more robust.

Multiple Instance Learning(MIL);harmful instance;kernel density estimation;instance selection; robustness;object tracking

1000-3428(2015)01-0150-08

A

TP181

10.3969/j.issn.1000-3428.2015.01.028

國家自然科學(xué)基金資助項目“霧天視頻中目標(biāo)跟蹤的視覺計算模型與方法研究”(61075032);安徽省自然科學(xué)基金資助項目(1408085AF117)。

李 想(1990-),女,碩士,主研方向:計算機視覺;汪榮貴(通訊作者),教授、博士;楊 娟,講師、博士;蔣守歡、梁啟香,碩士研究生。

2014-02-18

2014-03-21 E-mail:wangrgui@hfut.edu.cn

中文引用格式:李 想,汪榮貴,楊 娟,等.基于示例選擇的目標(biāo)跟蹤改進算法[J].計算機工程,2015,41(1):150-157.

英文引用格式:Li Xiang,Wang Ronggui,Yang Juan,et al.Improved Object Tracking Algorithm Based on Instance Selection[J].Computer Engineering,2015,41(1):150-157.

主站蜘蛛池模板: 久久青草精品一区二区三区| 久久亚洲AⅤ无码精品午夜麻豆| 人妻丰满熟妇啪啪| 久久99国产综合精品女同| 国产精品熟女亚洲AV麻豆| 国产视频自拍一区| 福利视频一区| 欧美一级夜夜爽| 在线亚洲小视频| 国产av无码日韩av无码网站| 亚洲人成人无码www| 丁香五月婷婷激情基地| 超级碰免费视频91| 亚洲成人精品久久| 亚洲一级毛片免费观看| 亚洲色大成网站www国产| 亚洲综合色吧| 国产成人精品优优av| 91精品国产一区| 一本大道视频精品人妻| 青青草原国产免费av观看| 啪啪免费视频一区二区| 91网站国产| 国产成人精品2021欧美日韩| 日本免费精品| 五月天婷婷网亚洲综合在线| 在线一级毛片| 72种姿势欧美久久久大黄蕉| 999国内精品视频免费| 成人国产小视频| 亚洲日本中文综合在线| 波多野结衣视频一区二区| 美女一区二区在线观看| 国产99免费视频| 国产精品欧美激情| 免费高清自慰一区二区三区| 久青草网站| 欧美中文字幕在线视频| 欧美亚洲国产精品第一页| 福利视频99| 波多野结衣在线se| 日本高清免费一本在线观看 | 国产亚洲欧美在线专区| 波多野结衣中文字幕一区二区| 久久这里只精品热免费99| 亚洲av日韩av制服丝袜| 97精品伊人久久大香线蕉| 91成人免费观看在线观看| 国产视频久久久久| P尤物久久99国产综合精品| 色天天综合| 超清人妻系列无码专区| 高清无码手机在线观看| 亚洲美女久久| 亚洲黄色成人| 国产激情国语对白普通话| 亚洲日韩久久综合中文字幕| 91九色视频网| 亚洲一区二区黄色| 亚洲第一区在线| 欧美自慰一级看片免费| 亚洲天堂免费| 国产女人在线视频| 91麻豆精品视频| 亚洲 成人国产| AV在线麻免费观看网站| 国产成人精品亚洲77美色| 日本黄色a视频| 熟女视频91| 亚洲精品在线影院| 狠狠色丁香婷婷综合| 国产打屁股免费区网站| 成人国产精品视频频| a毛片在线播放| 91小视频在线| 国产一线在线| 91亚瑟视频| 欧美日韩国产在线观看一区二区三区| av色爱 天堂网| 亚洲欧美激情另类| 凹凸国产分类在线观看| 亚洲无码视频喷水|