999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

視頻目標跟蹤典型算法比較與分析

2015-09-19 03:42:36吳澤民徐任暉趙曉通徐明月
電視技術 2015年23期
關鍵詞:模型

王 蘋,張 磊,吳澤民,徐任暉,趙曉通,徐明月

(解放軍理工大學 通信工程學院,江蘇 南京210007)

視頻目標跟蹤實質是在連續圖像序列中找到具有最相似特征的區域,核心問題是對輸入圖像序列每一幀圖像中的目標能夠實現魯棒地預測其運動趨勢。隨著計算機自身硬件配置性能的不斷提高,加之圖像處理分析技術的不斷發展,實時目標跟蹤得以實現。

穩定的視頻跟蹤正是視頻分析處理和計算機視覺的重要問題,在軍事偵查、自動機器人導航、人機交互接口、視頻標注等方面有廣泛應用。視頻圖像提供的信息是復雜和海量的,依靠人工進行信息識別和提取是不現實的。2009 年,美軍通過無人機在阿富汗和伊拉克獲得的視頻信息總量,一個人需要24 年才能看完;在通常戰備執勤時,需要至少一個人緊盯屏幕發現可疑目標,而其他的輔助人員進行信息甄別和記錄。在我國,邊海防哨所已經配備了大量的視頻采集裝備,但是受人員數量限制,僅僅依靠人工方法進行視頻目標的捕捉與記錄不但工作強度大,而且工作效率低,及時發現可疑目標的時機往往把握不住。目前,各大城市的智能交通系統都具有車輛違章檢測功能,可以極大地提高發現交通違法事件的效率。但是受目前視頻目標跟蹤性能的限制,還僅能對交通燈道口的違章行為進行識別,不能完全獲得各路段的違章行為。各方面的需求不斷推動著視頻目標跟蹤研究的進一步深化。

然而,當目標發生劇烈的運動或者形變、背景相對復雜或者與目標相似、外界環境發生較大變化時,大多數視頻目標跟蹤算法不具有很好的魯棒性。歸結來看,對于大量跟蹤算法[1]的問題主要是由于外觀和運動的變化造成的。外觀變化包括目標幾何和光度變化,如遮擋、形變、亮度變化等。運動變化往往發生在較低幀率的視頻中或者目標運動劇烈的情況下。以上問題的存在,使得視頻目標跟蹤研究仍有很長的路要走。

本文將對視頻目標跟蹤技術的研究背景、系統組成原理進行闡述;對當前幾種前沿的跟蹤算法進行詳細的分析比較;并且對跟蹤算法的評價指標和典型的標準庫進行介紹;最后總結了視頻目標跟蹤技術的發展前景和面臨的困難挑戰。

1 視頻目標跟蹤系統構成及研究現狀

視頻目標跟蹤系統是一個動態系統的估計問題,利用的是目標在時間上的連續性和空間上的相關性。視頻目標跟蹤系統的一般框架如圖1 所示。

圖1 視頻目標跟蹤系統框架

典型的視頻目標跟蹤系統由四部分組成:目標初始化,外觀模型,運動估計,目標定位。目標初始化包括手動初始化和自動初始化,手動初始化是用戶用邊緣框注釋出目標的位置,自動則通過檢測器進行檢測目標。外觀模型包括視覺描述和統計模型。視覺描述主要是用不同類型的視覺特征來構造魯棒的目標描述子。統計模型是用統計學習的方法構造有效的數學模型來識別目標。運動估計主要是利用了狀態方程和觀測方程構成的預測器進行估計,常用預測器包括線性回歸技術[2],卡爾曼濾波[3]和粒子濾波[4-6]等。目標的跟蹤定位是目標跟蹤中的核心問題,主要利用貪婪搜索或者是最大后驗概率來實現[7]。

目前,很多跟蹤算法通過在特征提取、外觀模型和結構信息方面的改進,跟蹤的精度和魯棒性得到極大的提高。較為常用的特征包括像素值[8]、顏色[9-12]、文本描述子[13-14]。利用目標外觀模型較為常用的有顏色分布[10-11]、子空間[8,15]、支持向量機SVM[16]以及稀疏表示[17-19]等。類似于目前較為流行的目標檢測[20]和識別[21]的算法,通過獲取結構信息對目標進行跟蹤的算法也越來越多[9,22-24]。在目標發生遮擋和形變時,目標的內部結構信息對于模型的恢復和魯棒性跟蹤尤為重要。

2 典型視頻目標跟蹤算法

判定目標跟蹤算法好壞往往從魯棒性、準確性和快速性三個方面比較[25]:

1)魯棒性(Robustness)。魯棒性是指在各種環境中算法都能實現對目標的穩定持續跟蹤。但往往會受到目標自身形變、環境中的光照變化、部分或者全遮擋等影響。

2)準確性(Accuracy)。在目標跟蹤的研究中,準確性包括兩個方面,一是對運動目標檢測的準確性,這一點主要是在監控系統中要求比較嚴格,為的是對目標檢測的漏警率和虛警率的降低,將檢測到真實目標的概率提高;另一個是對運動目標分割的準確性,主要應用在圖像壓縮編碼領域,其實質是圖像分割(Image Segmentation)問題。將運動目標和背景進行準確的分割后,方便提取目標準確的運動信息。

3)快速性(Speed)。在實際的視頻目標跟蹤系統中,對運動目標實時的跟蹤就要求跟蹤算法必須快速,計算量相對較小。然而跟蹤算法本身處理的圖像序列包含大量的數據,所需的運算量極大,很難能夠滿足實時的要求。一種通用的減小運算量的方法是利用金字塔分解或者小波變換將圖像分層處理;另一種思路是設計專用硬件實現實時的視頻目標跟蹤。

本節將從以上提到的跟蹤器性能出發,詳細介紹當前前沿的四種視頻目標跟蹤算法,即LGT,TLD,ALIEN 和DGT,并對其工作原理、性能進行分析和比較。

2.1 LGT(Local-Global layer Tracker)跟蹤器

隨著低成本、小規模攝像機傳感器的應用不斷增多,對視頻序列的魯棒的自動跟蹤需求也隨之迅速增加[26]。實際應用中,目標外觀隨著形變、角度變化、光照變化等因素的變化而變化。因此,魯棒的跟蹤取決于能否隨著目標外形的變化自適應地更新目標模型。

最早是Stolkin 等人[27]進行的兩層模型的嘗試。目標像素的亮度模型的重新學習使用剛性目標物體的運動和幾何模型增強結構。L.Cehovin 等人在2013 年針對目標迅速和劇烈的外觀變化提出一種雙層視覺LGT 模型[28],即整合的目標全局和局部外觀的兩層模型。跟蹤算法如圖2 所示。

圖2 雙層結構目標跟蹤算法

其中,局部層是由局部塊組成的集合,反映目標外觀發生的幾何變化。隨著目標幾何形變,局部層通過移除或添加局部塊來更新結構。添加的局部塊是由全局層約束得到的。全局層主要是反映目標全局的視覺特性,包括顏色、形狀和表面上的局部運動。全局層的更新需要依賴跟蹤過程中得到的穩定的局部塊。LGT 算法的魯棒性更好,并且跟蹤精度更高,對參數變化不敏感。這篇文章的重要貢獻就是在兩層模型的貝葉斯公式中應用了雙層約束。

這種交叉的雙層視頻模型是較為先進的技術,效果優于其他的跟蹤器。

2.2 TLD(Tracking-Learning-Detection)跟蹤器

考慮手持攝像機拍攝的視頻流,各種事物從相機拍攝范圍內出入。僅在單獨的一幀中用邊緣框框出了感興趣目標,而需要解決的問題是,在接下來的每一幀中自動標出目標的邊緣框或者當目標沒有出現時給出提示。該視頻流需要長時間實時跟蹤處理。在文獻[29]中,將這類任務定義為長期跟蹤問題。

解決長期跟蹤問題的關鍵是目標的檢測。首先,目標外觀會變化,甚至跟初始幀中外觀沒有任何關聯;其次一個成功的長期跟蹤器要能夠應對尺度、光照的變化,復雜背景,部分遮擋,以及實時地完成處理。

在文獻[29]中Kalal 的出發點立足于單獨的跟蹤或檢測無法解決長期跟蹤問題。文中提出一種新穎的跟蹤框架TLD(Tracking-Learning-Detection),如圖3 所示。文章將長期的目標跟蹤分解為跟蹤、學習、檢測。跟蹤器逐幀跟蹤目標,檢測器局部化目前位置出現的所有外觀,在必要時修正跟蹤器,學習階段評估檢測器的誤差并更新,避免這些誤差。作者研究確定檢測器誤差并學習,提出一種新穎的學習方式(P-N學習):1)P 評估遺漏的檢測;2)N 評估錯誤預警。學習過程模型化為一個離散的動態系統,學習中確保有改善的情況被查找到。

圖3 TLD 算法跟蹤框架

Kalal 提出的TLD 跟蹤系統,能夠實現對視頻流中的目標的實時地跟蹤、學習、檢測,利用標準數據庫和同時期較為前沿的跟蹤器相比,TLD 的長期實時跟蹤性能優于其他跟蹤器。

2.3 ALIEN(Appearance Learning In Evidential Nuisance)跟蹤器

文獻[30]中給出妨礙因素(Nuisance Factors)的定義。妨礙因素是指影響圖像結構處理的因素,不是用于跟蹤的直接興趣點,然而又必須考慮在內。妨礙因素分為可逆妨礙和不可逆妨礙??赡娣恋K主要是指反差、視角變化等,不可逆妨礙包括遮擋、傳感器量化、一般光照變化等。不可逆的妨礙通常可以轉化為可逆妨礙。

ALIEN 跟蹤器利用弱匹配目標模板的多尺度不變局部特征,考慮到三維形狀和平面的絕對偏差,以及陰影、遮擋、傳感器量化等不可逆妨礙因素的影響。同時基于傳遞匹配特性的無參學習算法,將目標從上下文分離出來,防止遮擋情況下的目標模板的錯誤更新。這種學習準則在緩慢變化的情況下具有漸近穩定的特性,確保了算法在長時間跟蹤中的無偏移特性。

文章作者從一般的觀察出發,嘗試同時解決可逆和非可逆的妨礙因素?;谶@種考慮,作者選用局部特征來表示目標,同時利用過采樣保留多數目標和場景信息。

文中算法的基本流程如圖4 所示。

圖4 ALIEN 算法流程圖

2.4 DGT(Dynamic-Graph-Tracking)跟蹤器

目前,很多文章對遮擋問題都有所討論,例如將目標進行水平垂直的分割對抗遮擋;稀疏表示對遮擋問題也不敏感;以及利用場景學習機制、上下文信息等。絕大多數的跟蹤器在解決遮擋問題[9,18,31]時沒有考慮到目標自身的形變[12,23]問題。針對目標形變問題通常采用局部塊進行表示,但此時塊之間的結構信息將被忽略。

文獻[35]在一個統一的框架中同時考慮到遮擋和形變的問題,引入動態圖進行跟蹤。圖表示利用目標的內部結構信息,能夠識別幾何形變的目標,同時能夠借助目標未被遮擋部分定義出被遮擋目標。

作者的基本思路是:首先,將視頻目標跟蹤問題公式化為跟蹤動態無向圖的問題,即目標圖和候選圖的匹配問題,利用馬爾科夫隨機場(Markov Random Filed)將候選圖中的局部塊與背景分割,再利用譜聚類(Spectral Clustering)的方法完成圖匹配;其次,目標狀態利用塊一致性的依賴關系通過帶權重的投票獲得,同時由前景和背景的分割進一步改善;最后,有效地在線更新機制更新模型,魯棒地適應目標結構的變化。

文中的算法同時考慮到目標出現遮擋和發生形變的情況,利用無向圖更好地記錄目標的內部信息,有效對抗遮擋和形變。

2.5 對比與歸納

通過對上述4 種跟蹤器的工作原理的詳細分析,可以歸納出以下幾點:

1)LGT 算法在目標表示上結合局部和全局特征。局部特征包含大量空間信息,對部分遮擋具有魯棒性,全局特征作為局部特征選取時的約束信息。雙層的貝葉斯公式對跟蹤進行雙層約束,提高目標模型更新的精確性,基本達到實時的要求。但是實際應用中該算法對于雜亂背景,以及目標發生尺度變化時都較為敏感。

2)TLD 算法能夠通過檢測、學習跟蹤目標,針對長期實時的跟蹤環境,處理效果較好。但由于算法沒有考慮到目標的遮擋和形變等問題,在處理非剛性目標跟蹤中存在一定的局限性。同時針對劇烈運動的目標跟蹤效果不佳。

3)ALIEN 算法無差別地處理可逆和不可逆妨礙因素,算法對遮擋是否發生作出判定給出不同的計算思路。將目標和上下文同時進行建模和模型更新,保留了較多跟蹤目標的信息。但在復雜背景下以及目標發生形變的情況下,跟蹤器將無法準確跟蹤。

4)DGT 算法提出利用無向圖表征目標,將目標跟蹤的問題公式化為無向圖匹配問題,同時在長期跟蹤中具有漸近穩定的特性。該算法同時考慮到目標的遮擋和形變問題。但是無加權表示的無向圖在尺度發生變化時較為敏感。同時由于光照變化造成的前景、背景不易區分也給跟蹤帶來一定的難度。

幾種算法各有優勢和劣勢,針對不同的應用場景,需要充分理解它們的算法特性加以改進應用。同時算法較為新穎的思路為今后的研究給出極大的啟示。

3 算法評價指標及標準庫

近年來,視頻目標跟蹤技術在計算機視覺領域的廣泛應用推動著跟蹤算法的不斷提升改進。但是仍舊有很多的因素影響著跟蹤算法的性能。因此,評估主流跟蹤算法的優勢和劣勢非常重要,能夠給未來這個方向的研究提供更多的方向。

首先,關于跟蹤算法的評價指標問題。定量分析(Quantitative Analysis)算法性能,能夠更加清晰地看出算法的各方面優勢。較為常用的指標包括成功率(Success Rate)如Pascal Score[33],F-measure,和精度率(Precision Rate)如CLE(Center-Location-Error),Precision Plot[13,34]。其次,用于測試的數據庫也是至關重要的部分。具有代表性的數據庫對綜合評估跟蹤算法至關重要。現有的用于視頻跟蹤的監控場景的視頻庫包括VIVID[35],CAVIAR[36],PETS,VIRAT(Video and Image Retrieval Analysis Tool)等。

3.1 視頻目標跟蹤算法評價指標

多數跟蹤算法將目標表示為邊緣框(A Bounding Box),通過比較邊緣框重疊面積確定跟蹤的成功率(Success Rate)。

式中,Bp,Bgt分別表示跟蹤器跟蹤的目標邊緣框和真實邊緣框(Ground Truth),等式右邊表示邊緣框交疊部分面積占邊緣框并面積的比率。設置門限值t0(一般取0.5),大于此門限為跟蹤成功,小于則跟蹤失敗。

2)F-measure,與之類似

跟蹤精度率(Precision Rate)的比較,較為常用的指標也有兩種。

3)CLE(Center-Location-Error),計算跟蹤的邊緣框內中心點與真實邊緣框內中心點的像素距離。距離越大表示跟蹤的精確度越低。

4)Precision Plot,近段時間的研究常用Precision Plot 來衡量整體跟蹤的表現。主要反映的是跟蹤器估計出的位置距離真實位置在某個門限范圍內的圖像幀的百分率。門限值單位為像素。

3.2 視頻目標跟蹤算法標準庫

可用于測試的視頻庫有很多,但是大多數的圖像序列沒有給出真實位置注釋(Ground Truth Annotations),在進行定量評估時會產生誤差。包含多種特殊場景(光照變化、復雜背景、部分遮擋或全遮擋等)同時具有真實位置的數據庫非常的重要。

2008 年美國國防部高級研究項目署開始的VIRAT(Video and Image Retrieval Analysis Tool)系統,用于進行無人機航拍圖像的分析處理,用以實現針對特定事件的有效預警等功能。視頻庫包含多場景,如大型公共場所、停車場、校園等。背景復雜簡單情況不一,同時包含攝像機自身運動的情況。另外,文獻[37]收集構建了目前較為常用且含真實位置標注的具有典型代表性的圖像序列數據庫,如遮擋、劇烈形變、光照變化、陰影情況等。

以上數據庫都包含復雜多樣的場景狀況,普遍適用于跟蹤器的測試,是較為全面合理的測試數據庫。

4 視頻目標跟蹤技術發展前景與挑戰

視頻目標跟蹤技術是一個多學科相結合的研究領域,包括機器視覺、人工智能、計算機科學、模式識別、圖像處理等方面。該領域仍處在發展階段,很多的問題亟需解決。跟蹤的特征選擇、動態外觀模型、運動估計等方面將是研究非常重要的領域。目前,研究人員針對特定的應用場景下的視頻目標跟蹤問題已經提出了很多的解決的方案策略,但是仍然存在著很多的進步空間,需要新的思路進行完善。

綜上,對視頻目標跟蹤技術的未來發展趨勢可以歸結如下:一是運動目標外觀的模型化,即外觀建模,運動目標外觀模型隨著目標自身運動能夠自適應的作出調整是目前的一個研究的熱點問題;二是目標模型的更新策略,較多的算法在模型更新階段會出現誤差和偏移,往往會導致跟蹤失敗;三是多傳感器的視頻目標跟蹤,這其中就要重點考慮到數據關聯融合的問題;四是對目標動作的識別問題,通過目標運動狀態進行目標的進一步的行為分析。

5 結語

本文對視頻目標跟蹤算法中較為常見的問題進行歸納,對該技術進行了綜述,重點分析比較了目前較為前沿的跟蹤算法。對跟蹤性能比較的評價指標以及標準庫進行簡單介紹。視頻目標跟蹤基本流程是利用目標的運動信息、顏色、紋理等特征采樣描述子形式描述目標,通過外觀建模以及模型更新的策略實現運動目標的運動狀態的預測,獲取目標的位置信息。

由于最終的具體應用背景的不同,視頻目標跟蹤領域的研究內容存在較大差異,極具挑戰性的問題也有很多,不管是在研究領域還是在實際的工程應用中都具有非常重要的意義和廣闊的前景。

[1]蔡榮太,吳元昊,王明佳,等.視頻目標跟蹤算法綜述[J]. 電視技術,2010,34(12):135-138.

[2]ELLIS L,DOWSON N,MATAS J,et al. Linear regression and adaptive appearance models for fast simultaneous modelling and tracking[J]. International Journal of Computer Vision,2011,95(2):154-179.

[3]KALMAN R E. A new approach to linear filtering and prediction problems[J]. Journal of Fluids Engineering,1960,82(1):35-45.

[4]ISARD M,BLAKE A. Condensation—conditional density propagation for visual tracking[J]. International Journal of Computer Vision,1998,29(1):5-28

[5]ARULAMPALAM M S,MASKELL S,GORDON N,et al.A tutorial on particle filters for online nonlinear/non-Gaussian Bayesian tracking[J].IEEE Trans.Signal Processing,2002,50(2):174-188.

[6]SHEN C,BROOKS M J,VAN DEN H A.Augmented particle filtering for efficient visual tracking[C]//Proc. ICIP 2005.[S.l.]:IEEE Press,2005:856-859.

[7]LI X,HU W,SHEN C,et al. A survey of appearance models in visual object tracking[J]. ACM Trans. Intelligent Systems and Technology,2013,4(4):58.

[8]LIM J,ROSS D A,LIN R S,et al.Incremental learning for visual tracking[C]//SAUL LK,WEISS Y BOTTOU L.Advances in Neural Information Processing Systems 7.[S.l.]:Neural Information Processing Systems Foundation,Inc.,2004:793-800.

[9]ADAM A,RIVLIN E,SHIMSHONI I. Robust fragments-based tracking using the integral histogram[C]//Proc.2006 IEEE Computer Society Conference on Computer vision and pattern recognition,[S.l.]:IEEE Press,2006:798-805.

[10]COMANICIU D,RAMESH V,MEER P. Real-time tracking of non-rigidobjects using mean shift[C]//Proc.2000 IEEE Conference on Computer Vision and Pattern Recognition.[S.l.]:IEEE Press,2000:142-149.

[11]PéREZ P,HUE C,VERMAAK J,et al. Color-based probabilistic tracking[M]//Computer vision—ECCV 2002.[S.l.]:Springer Berlin Heidelberg,2002:661-675.

[12]WANG S,LU H,YANG F,et al.Superpixel tracking[C]//Proc.ICCV 2011.[S.l.]:IEEE Press,2011:1323-1330.

[13]BABENKO B,YANG M H,BELONGIE S. Robust object tracking with online multiple instance learning[J]. IEEE Trans. Pattern Analysis and Machine Intelligence,2011,33(8):1619-1632.

[14]GRABNER H,BISCHOF H. On-line boosting and vision[C]//Proc.CVPR 2006.[S.l.]:IEEE Press,2006:260-267.

[15]WEN L,CAI Z,LEI Z,et al. Online spatio-temporal structural context learning for visual tracking[M]//Computer Vision–ECCV 2012.Berlin:Springer,2012:716-729.

[16]TIAN M,ZHANG W,LIU F.On-line ensemble SVM for robust object tracking[M]//Computer Vision – ACCV 2007. Berlin:Springer,2007:355-364.

[17]LIU B,HUANG J,YANG L,et al. Robust tracking using local sparse appearance model and k-selection[C]//Proc. CVPR 2011.[S.l.]:IEEE Press,2011:1313-1320.

[18]MEI X,LING H. Robust visual tracking using L1 minimization[C]//Proc. ICCV 2009.[S.l.]:IEEE Press,2009:1436-1443.

[19]ZHANG K,ZHANG L,YANG M. Fast compressive tracking[J].IEEE Trans. Pattern Analysis&Machine Intelligence,2014,36(10):2002-2015.

[20]FELZENSZWALB P F,GIRSHICK R B,MCALLESTER D,et al.Object detection with discriminatively trained part-based models[J]. IEEE Transa. Pattern Analysis and Machine Intelligence,2010,32(9):1627-1645.

[21]QUATTONI A,COLLINS M,DARRELL T. Conditional random fields for object recognition[C]//Proc.Advances in Neural Information Processing Systems 2004.[S.l.]:Neural Information Processing Systems Foundation,Inc.,2004:1097-1104.

[22]GRACIANO A B V,CESAR R M,BLOCH I. Graph-based object tracking using structural pattern recognition[C]//Proc.Computer Graphics and Image Processing,2007.[S.l.]:IEEE Press,2007:179-186.

[23]KWON J,LEE K M. Tracking of a non-rigid object via patchbased dynamic appearance modeling and adaptive basin hopping monte carlo sampling[C]//Proc. CVPR 2009. [S.l.]:IEEE Press,2009:1208-1215.

[24]YANG M,WU Y,HUA G. Context-aware visual tracking[J].IEEE Trans. Pattern Analysis and Machine Intelligence,2009,31(7):1195-1209.

[25]侯志強,韓崇昭. 視覺跟蹤技術綜述[J]. 自動化學報,2006,32(4):603-617.

[26]WANG X. Intelligent multi-camera video surveillance:a review[J].Pattern recognition letters,2013,34(1):3-19.

[27]STOLKIN R,GREIG A,HODGETTS M,et al.An EM/E-MRF algorithm for adaptive model based tracking in extremely poor visibility[J].Image and Vision Computing,2008(26):480-495.

[28]CEHOVIN L,KRISTAN M,LEONARDIS A. Robust visual tracking using an adaptive coupled-layer visual model[J]. IEEE Trans.Pattern Analysis and Machine Intelligence, 2013, 35(4):941-953.

[29]KALAL Z,MIKOLAJCZYK K,MATAS J. Tracking-learning-detection[J]. IEEE Trans. Pattern Analysis and Machine Intelligence,2012,34(7):1409-1422.

[30]PERNICI F,DEL BIMBO A.Object tracking by oversampling local features[J]. IEEE Trans. Pattern Analysis and Machine Intelligence,2014,36(12):2538-2551.

[31]GRABNER H,MATAS J,VAN GOOL L,et al. Tracking the invisible:Learning where the object might be[C]//Proc. CVPR 2010.[S.l.]:IEEE Press,2010:1285-1292.

[32]CAI Z,WEN L,LEI Z,et al.Robust deformable and occluded object tracking with dynamic graph[J]. IEEE Trans. Image Processing,2014,23(12):5497-5509.

[33]EVERINGHAM M,VAN GOOL L,WILLIAMS C K I,et al. The pascal visual object classes(VOC)challenge[J]. International Journal Of Computer Vision,2010,88(2):303-338.

[34]HENRIQUES J F,CASEIRO R,MARTINS P,et al.Exploiting the circulant structure of tracking-by-detection with kernels[M]//Computer Vision–ECCV 2012.Berlin:Springer,2012:702-715.

[35]COLLINS R,ZHOU X,TEH S K.An open source tracking testbed and evaluation web site[C]//Proc.IEEE International Workshop on Performance Evaluation of Tracking and Surveillance. [S.l.]:IEEE Press,2005:17-24.

[36]FISHER R B.The PETS04 surveillance ground-truth data sets[C]//Proc.6th IEEE international workshop on performance evaluation of tracking and surveillance.[S.l.]:IEEE Press,2004:1-5.

[37]WU Y,LIM J,YANG M H. Online object tracking:A benchmark[C]//Proc.CVPR 2013.[S.l.]:IEEE Press,2013:2411-2418.

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 超清无码一区二区三区| 国产幂在线无码精品| 亚洲精品无码AⅤ片青青在线观看| av一区二区人妻无码| 国产免费福利网站| 国产精品天干天干在线观看| 精品久久久久久久久久久| 青青操国产视频| 午夜天堂视频| 99久久精品免费视频| 狠狠做深爱婷婷久久一区| 亚洲有码在线播放| 日本影院一区| 亚洲制服中文字幕一区二区 | 午夜在线不卡| 亚洲天堂精品在线| 另类欧美日韩| 自拍中文字幕| 亚洲色图欧美| 国产呦视频免费视频在线观看| 美女无遮挡被啪啪到高潮免费| 国产成人精品高清在线| 一级福利视频| 亚洲精品无码日韩国产不卡| 999精品在线视频| 精品午夜国产福利观看| 亚洲男人在线| 日韩精品一区二区深田咏美| 国产亚洲高清在线精品99| av在线手机播放| 午夜福利视频一区| 欧美国产日韩在线播放| 国产精品亚洲αv天堂无码| 99视频国产精品| 亚洲中文久久精品无玛| 久久男人资源站| a级毛片免费看| 国产免费a级片| 无码专区在线观看| 亚洲欧美自拍视频| 永久天堂网Av| 国产成人你懂的在线观看| 欧美在线天堂| 亚洲精品无码久久毛片波多野吉| 亚洲不卡无码av中文字幕| 一本大道香蕉高清久久| 亚洲aⅴ天堂| 中文字幕 91| 欧美视频二区| 亚洲熟妇AV日韩熟妇在线| 中文字幕第4页| 久久香蕉国产线看精品| 国产噜噜在线视频观看| 亚洲免费人成影院| 日本午夜精品一本在线观看| 毛片在线看网站| 一级成人欧美一区在线观看 | 久久中文电影| 18禁色诱爆乳网站| 国内精品久久久久久久久久影视| 久热这里只有精品6| 色天堂无毒不卡| 国产主播一区二区三区| 国产91小视频| 久久精品无码国产一区二区三区| 国产最新无码专区在线| 99re这里只有国产中文精品国产精品 | 午夜视频免费一区二区在线看| 亚洲有码在线播放| 亚洲国产中文精品va在线播放 | 国产丝袜无码精品| 老司机午夜精品视频你懂的| 欧美亚洲欧美区| 久久激情影院| 国产在线98福利播放视频免费 | 欧美一级黄片一区2区| 婷婷色在线视频| 亚洲精品视频免费观看| 国产新AV天堂| 日韩午夜片| 欧美成人aⅴ| 精品少妇人妻无码久久|