999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于多通道孿生網絡的魯棒目標跟蹤算法?

2021-11-08 06:16:20范都耀
計算機與數字工程 2021年10期
關鍵詞:特征提取特征區域

鄒 鵬 范都耀

(南京理工大學計算機科學與工程學院 南京 210094)

1 引言

隨著視頻行為分析、自動駕駛、人機交互等技術的廣泛應用和發展,視覺目標跟蹤技術引起了人們的重視。近年來學者們對其進行了大量的研究,尤其是深度學習技術的興起,使視覺目標跟蹤算法發展出了許多分支。但是由于視覺目標跟蹤的場景中存在的光照變化、變形、旋轉、背景雜亂、存在相似干擾物體、相機運動不均勻等干擾因素[1~2],視覺目標跟蹤在實踐中仍然是一項十分具有挑戰性的任務。

一般跟蹤算法的核心是進行目標圖像與輸入幀的匹配。對于理想的跟蹤匹配算法,即使在視頻中的目標被遮擋、發生尺度變化、旋轉、光照不均勻等干擾因素下,也應需要提供魯棒的匹配。之前很長一段時間研究者們的解決方法是,通過引入仿射變換[3]、概率匹配[4]、特征圖像[5]、光照不變量[6]、遮擋檢測[7]等操作,在匹配中顯式地對這些畸變進行建模。但是這種方法存在的缺陷是,不可能建立一個模型可以良好地應對各種干擾因素,一種建模后的匹配機制也許可以很好地解決一種干擾,但是它很可能會產生另一種干擾。在本文中,我們學習一種匹配機制,而不是對特定的干擾因素進行顯式的建模匹配。我們從包含各種干擾因素的訓練視頻中學習不變量,當訓練視頻集足夠大時,可以先驗地學習一個通用的匹配函數,這個匹配函數可以處理視頻中發生的常見干擾因素,比如目標外觀變化。

本文在Siamese-fc[8]目標跟蹤方法基礎上,提出基于Triplet network[9]的目標跟蹤方法TriTer(Triplet Network Based Tracker)。首先,使用三個并行的卷積神經網絡對輸入的第一幀目標、上一幀目標和當前幀搜索區域進行特征提取,得到三個區域的高層語義信息。然后,分別將第一幀目標特征和上一幀目標特征與當前搜索區域特征進行對應卷積,然后得到搜索區域中各個位置與第一目標和上一幀目標的相似度,從而生成兩個相似度分數圖。最后,對兩個分辨率較小的分數圖進行插值放大處理,并使用分數圖的APCE[10]值作為融合的加權系數參考,將兩個分數圖進行融合,得到最終的目標位置分數圖。網絡模型都是通過離線預訓練得到,跟蹤過程不需要根據當前跟蹤結果對模型進行更新,因此幀率能夠滿足實時跟蹤的要求。實驗表明,本方法在魯棒性上超過了原有算法,實時性略有下降,但是仍然可以滿足大多數場景下實時跟蹤的需求。

2 基于孿生網絡的目標跟蹤算法

2.1 孿生神經網絡

孿生神經網絡[11](Siamese neural network,Sia?mese-net)的結構如圖1所示,它具有兩個或多個相同子結構的神經網絡。各子網絡結構相同,共享參數及權重。孿生網絡的思路是讓兩路輸入分別經過兩個子網絡,然后進行特征提取,得到兩個輸入的特征向量。然后通過構造距離度量函數,比如余弦距離、歐式距離等,可以用來計算兩路輸入的匹配程度。在訓練時根據結果來學習一個相似度匹配函數,用于之后的匹配。

圖1 典型孿生網絡結構

孿生神經網絡從網絡結構上可以分為以下兩個部分。

1)特征提取網絡

孿生網絡的主要部分,用于對兩路輸入分別進行特征提取,得到可以有效描述輸入的特征信息。通常用卷積神經網絡(Convolutional Neural Net?works,CNN)來實現。CNN通常包含卷積層、池化層、全連接層、非線性激活函數等部分,可以提取到輸入圖像的高維語義信息,相比于HOG特征[12]、LBP特征[13]、CN顏色特征[14]等,CNN特征在復雜背景變化、目標外觀變化等影響下具有更好的魯棒性。

2)決策網絡

在提取到兩路輸入的特征后,需根據匹配函數來確定它們的相似程度,在訓練時,結合網絡輸出和真實輸出不斷調整模型參數,以習得一個性能良好的決策函數。在不同的任務中,決策網絡有不同的形式,有的直接用損失函數、度量函數來度量,有的是繼續使用神經網絡來驗證結果的置信度,提高決策可靠性。

2.2 基于孿生網絡的的目標跟蹤算法

基于孿生網絡的目標跟蹤算法中,輸入為目標圖像z和候選圖像x,通過模板特征和相關性匹配,得到一個基于候選圖像x的相關性響應圖,然后通過最大響應來確定跟蹤目標的位置。即將目標跟蹤問題轉化成一個學習相似度函數的問題。

全連接孿生網絡的相似度函數定義如下:

其中φ為CNN特征提取函數,*表示卷積操作,可以計算二者的相關性,b為偏差值,f(z,x)代表z和x的相似度分數。參考目標z和候選圖像x越相似,則函數返回分數值越高,反之則越低。在待檢測幀中,通過一定的策略選出若干個候選圖像,分別計算相似度得分后可以得到一張分數響應度,響應圖中分數最高的位置即為算法預測的該幀中跟蹤對象目標位置。

在跟蹤階段,在當前幀中以上一幀檢測到的目標中心為中心獲取一個較大的搜索區域x,可以通過對上一幀的bounding box進行padding操作得到。然后用特征提取函數φ分別提取該區域和第一幀中參考目標x的特征φ(z)和φ(x),然后通過卷積操作得到φ(z)和φ(x)的相似度分數向量f(z,x),從而得到相似度分數圖,其中分數最大的位置即對應該幀中目標的位置。

以Siamese-fc算法為例,在其模型的訓練和跟蹤過程中,網絡輸入分別是第一幀真實的標記框和當前幀的搜索區域。兩個輸入圖像大小分別是127×127和255×255,最終網絡輸出的分數圖大小為17×17。分數圖中每個位置代表著一個候選區域為目標區域的置信值。后續再采用合適的處理方法可以得到更精確的目標中心位置。

3 TriTer目標跟蹤算法

3.1 TriTer算法架構

原始的基于孿生網絡的目標跟蹤算法一般都采取的是淺層網絡,比如LeNet[15],AlexNet網絡[16]。AlexNet網絡是一個包含5層卷積層和3層全連接層的只有8層的網絡。淺層網絡在信息表征能力上要較深層網絡遜色,所提取的特征難以應對較復雜的場景。其次,孿生網絡的參考目標只在第一幀時給出,如果第一幀給出的目標區域對真實目標的描述不具有非常高的普遍性,那么將會較大影響后續跟蹤的準確度。當跟蹤場景較為復雜的時候,尤其是出現與跟蹤目標相似的物體的干擾時,基于孿生網絡的跟蹤很容易失敗。因為其無法較好地辨別類間區別。因此,本文針對Siamese network這一不足提出了一種基于Triplet network的網絡結構的改進方案TriTer,將原來Siamese-fc算法中子網絡由AlexNet改為更深層的VGGNet[17],且同時結合第一幀真實值和上一幀的輸出值,綜合比較得到當前幀的輸出值,從而提升在復雜場景下跟蹤的魯棒性。

Triplet network的結構如圖2所示,它與Sia?mese network非常類似,是一種特殊的孿生網絡。Triplet network由三個具有相同結構的子網絡組成,且它們共享參數和權重。跟孿生網絡一樣,從網絡結構上可以將Triplet network分為特征提取網絡和決策網絡兩個部分。

圖2 Triplet network網絡結構

本文提出的TriTer跟蹤算法的架構如圖3所示。算法將第一幀真實目標區域、待檢測幀、上一幀算法輸出的目標區域作為輸入,通過相同的三路特征提取網絡提取特征,然后計算第一幀目標和上一幀目標與當前幀搜索區域的相似度,最后將兩個相似度分數圖(score map)進行融合,通過融合分數圖中分數最高的位置來確定最終的目標區域。下面對網絡的具體細節進行說明。

圖3 TriTer目標跟蹤算法結構

3.2 特征提取

對于輸入的第一幀目標區域z、上一幀目標區域z'和當前幀搜索區域x,使用三個相同的全卷積神經網絡(Fully Convolutional Networks,FCN)對其進行特征提取,輸出的特征記為φ(z)、φ(z')和φ(x)。

FCN的好處是可以接受大小不同的輸入的優點,這使得我們不需先用檢測窗口在當前幀中取出大小與第一幀目標框大小相同的窗口再進行輸入。且可以在一次特征提取后計算當前幀所有候選區域與參考目標區域的相似性,進而得到分數圖。在實際操作中,可以通過將一般CNN中的全連接層的權重重塑成卷積層的卷積核,將全連接層轉化為卷積層,進而實現全卷積網絡。

本文算法中特征提取網絡參考Simonyan等在文獻[17]中提出的VGG-16網絡結構以及文獻[18]中的網絡結構,并對其結構加以改進以適合TriTer算法的需求。特征提取網絡結構如表1所示。

表1 TriTer中特征提取網絡結構

本文特征提取網絡包含11個卷積層和3個池化層。所有卷積層均采用3*3的卷積核,所有池化層均采用2*2的卷積核。采用多層小卷積核,可以獲取更加豐富的語義信息。此外,在Conv2、Conv4和Conv7后都添加了一個2*2的pooling層,采用最大池化,步長為2,可以進一步降低特征的維度,同時保持特征的旋轉不變性。每一層的網絡的輸出都采用ReLU激活函數進行處理。每層網絡的輸入都不采取padding操作。

3.3 模型訓練

TriTer算法中網絡的損失函數使用logistic loss,形式為

其中,ν代表網絡輸出的相應候選區域的置信分數值,y?{+1,-1}表示其真實的標簽,兩個值分別對應是跟蹤目標和不是跟蹤目標。在模型訓練時,以處理第一幀目標對象與輸入圖像為例,通過特征提取網絡后,輸入圖像中的多個候選框會得到多個置信分數,然后以分數圖ν:D→R的形式輸出,最終采用每個候選框的logistic loss的平均值作為總體損失函數,形式如下:

其中y[u]、ν[u]分別表示輸入圖像中位置u處的真實標簽和網絡計算的置信值。

在訓練過程中,采用隨機梯度下降法進行網絡參數的優化。

3.4 分數圖生成與融合

TriTer的三路輸入,即第一幀目標區域(117*117*3)、上一幀目標區域(117*117*3)以及當前幀搜索區域(225*225*3),在通過特征提取網絡后可以得到大小分別為6*6*128的特征φ(z)、6*6*128的特征φ(z')和22*22*128的特征φ(x)。

特征之間的匹配原理如圖4所示。以大小為6*6*128的特征φ(z)和大小為22*22*128的特征φ(x)之間的匹配為例,首先在φ(x)中取一個大小與φ(z)相等的立體滑動窗口,然后讓取的滑動窗口與φ(z)做三維卷積操作,然后得到一個匹配分數值,填入對應的分數圖中。滑動窗口的移動步長為1,這樣得到的分數圖大小就為17*17。

圖4 特征匹配并生成分數圖原理

基于圖4所示原理,求得φ(x)基于φ(z)的匹配分數圖m1和φ(x)基于φ(z')的匹配分數圖m2。兩個分數圖的大小均為17*17。

大小為17*17的分數圖由于分辨率相對于原圖過小,因此不利于對目標的精確定位。對于這個問題的解決辦法是:使用插值算法將分數圖放大。例如本文采用常用的雙三次插值算法,可以將17*17的分數圖放大到272*272,然后得到放大后的分數圖M1和M2。最后再對兩個放大后的分數圖進行融合,得到最終的分數圖M:

其中λ代表分數圖的權重。融合分數圖M的波峰位置即TriTer算法計算得到的目標位置。

本文中λ的取值參考文獻[10],通過計算分數圖的APCE值來確定兩個響應圖各自的置信圖,即在融合分數圖中的加權系數。

4 實驗與分析

4.1 測試數據集與評價指標

為驗證本文提出的跟蹤算法TriTer的有效性,在目標跟蹤數據集OTB100[2]上進行相關實驗,共測試94個視頻序列。同時進行與當前主流且效果較好的算法的對比實驗,得出更具有說服力的結論。實驗環境為Ubuntu16.04系統,Intel Core i7 7800X處理器(頻率為3.5GHz),48GB內存,NVID?IA GeForce GTX 1080Ti顯卡,使用TensorFlow1.4深度學習框架,算法語言為Python。實驗中判斷是否屬于成功跟蹤的重疊率閾值設為0.5。

OTB100數據集根據視覺目標跟蹤中的挑戰性因素對視頻序列進行了歸類,如表2所示。

表2 基于視覺的目標跟蹤中的挑戰性因素

本文采取以下兩種指標來衡量實驗效果:距離精度(Distance precision,DP)和重疊精度(Overlap precision,OP)。DP定義如下:在一個視頻序列中,輸出的跟蹤目標位置中心與真實目標中心(標注值)的平均歐式距離小于設定閾值的幀數占該視頻序列總幀數的比例。本實驗中,該閾值設為20個像素。OP定義如下:

即反映算法輸出的跟蹤對象位置與其真實位置的重疊度。式(5)中,Ag表示跟蹤對象在畫面中的真實位置,Ap表示算法輸出的跟蹤跟蹤對象位置,以矩形框面積參與計算,score值反映重疊度,值越大則跟蹤精度越高。

4.2 定性比較分析

為驗證TriTer跟蹤算法的魯棒性,測試與分析了包含所有目標跟蹤中的挑戰性因素的數據集。在Girl2、Basketball、Walking2、Soccer視頻序列中,不僅目標外觀發生了畸變,視頻中還出現了與跟蹤目標非常相似的干擾對象。圖5、圖6、圖7分別列出 了TriTer、Siamese-fc分 別 在Girl2、Basketball、Walking2這三個視頻序列中的跟蹤效果對比。

圖5 TriTer與Siamese-fc在Girl2視頻序列中的跟蹤表現對比。

圖6 TriTer與Siamese-fc在Basketball視頻序列中的跟蹤表現對比

圖7 TriTer與Siamese-fc在Walking2視頻序列中的跟蹤表現對比

在Girl2視頻序列中,當被跟蹤的小女孩從右至左穿過右邊的大人時,圖像中產生了相似類型跟蹤對象的干擾,但是由于小女孩并沒有被遮擋,此時Siamese-fc與TriTer均能進行有效的跟蹤,在第100幀左右時,小女孩被路過的行人遮擋住了,此后,Siamese-fc對跟蹤對象產生了誤判,但是此時TriTer仍然能夠進行有效的跟蹤;在Basketball視頻序列中,在第471幀中,兩個外觀相似的籃球運動員位置產生了部分重疊然后又錯開,此時Sia?mese-fc算法則發生了誤判,將另一個運動員當做了跟蹤對象,對比之下,TriTer并沒有發生誤判,仍能對原跟蹤對象進行有效跟蹤;在Walking2視頻序列中,發生了與在Basketball視頻序列中類似的情況,當圖像中出現了與被跟蹤女子相似的男子時,TriTer仍能有效跟蹤目標,但是Siamese-fc算法則發生了誤判。此外,在沒有發生跟蹤對象丟失或者誤判的情況的幀中,也可以發現TriTer相對于Sia?mese-fc的跟蹤重疊精度明顯更高。

由于TriTer算法的輸入不僅包含視頻第一幀中跟蹤目標的信息,還包含了上一幀中網絡輸出的跟蹤目標信息。一方面,當前幀中目標相對于上一幀目標的畸變會小于當前幀目標相對于第一幀目標的畸變,另一方面,有了上一幀目標的位置,即使在背景中出現了多個與目標類似的干擾對象,算法也不容易發生誤判,因此,理論上TriTer具有比Sia?mese-fc更加魯棒的跟蹤性能,實驗驗證了這一點。

4.3 多算法定量對比分析

為了較為全面地評估TriTer算法的性能,在OTB100數據集上進行了OPE(one-pass evaluation)測試,在所有100個視頻均參與測試的情況下,得出算法的DP和OP值,并與Siamese-fc算法及其他主流的實時目標跟蹤算法,包括LCT[19]、Staple[20]、KCF[21]、Struck[22]算法進行了對比實驗。實驗選取了具有代表性的8個視頻序列,比較了各個算法的具體表現,實驗結果如表3和表4所示。

表3 TriTer和其他一些主流實時跟蹤算法在OTB100數據集中的中心點誤差DP(單位:像素)

表4 TriTer和其他一些主流實時跟蹤算法在OTB100數據集中的重疊率OP(單位:%)

表3和表4中,CarScale、Couple、Tiger2代表著較為簡單環境下的目標跟蹤,雖然目標外觀發生了較大變化,但是背景中出現的如類似跟蹤對象物體的干擾較少,TriTer算法表現與Siamese-fc算法性能接近,在大多數視頻序列中有微弱領先,在大多數情況下比其他的非孿生網絡方法有性能優勢。在Soccer、Bird1為代表的具有復雜背景的視頻序列中,跟蹤算法收到了來自于跟蹤對象外觀相似的物體、不斷變化的背景、跟蹤對象本身形變較大變化較快等干擾,此時TriTer算法表現出了較大的優勢,在中心點誤差和重疊率方面相對于Siamese-fc和其他算法都表現出了較大的優勢。

在跟蹤速度上,在本文實驗條件下,TriTer、Sia?mese-fc跟蹤的平均幀率如表5所示。

表5 算法運行速度對比

從表5可以看出,TriTer算法的跟蹤速度要比Siamese-fc略慢,但是仍然可以滿足大部分場景下目標跟蹤的需求,可以進行實時跟蹤。從網絡結構上分析,在特征提取階段,TriTer比Siamese-fc多了一半左右的計算量,所以在跟蹤速度要慢于Sia?mese-fc。

5 結語

針對復雜環境下的視覺目標跟蹤問題,本文提出了一個高魯棒性的目標跟蹤算法TriTer。TriTer在Siamese-fc算法的基礎上,算法的輸入增加了上一幀算法輸出的跟蹤目標信息,采用三個并行的卷積神經網絡進行特征提取,相當于兩路并行的Sia?mese-fc,然后對輸出的兩個分數圖進行融合,從而確定當前幀中跟蹤對象的位置。在OTB100數據集上進行的有關實驗表明,TriTer算法在光照變化、跟蹤對象外觀變化、遮擋等復雜背景下依然能執行非常魯棒的跟蹤,對比之下,沒有上一幀作為輸入的Siamese-fc算法在復雜背景下的跟蹤過程中則非常容易發生誤判跟蹤對象的問題,且TriTer在跟蹤過程中,計算出的目標位置的中心點誤差在總體上也要好于Siamese-fc。由于TriTer增加了一路輸入,因此跟蹤的速度要慢于Siamese-fc,但是實驗表明,在一般的跟蹤場景下,TriTer仍然可以滿足實時跟蹤的需求。

猜你喜歡
特征提取特征區域
如何表達“特征”
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識別算法
關于四色猜想
分區域
基于嚴重區域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
基于MED和循環域解調的多故障特征提取
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 亚洲天堂网视频| 欧美翘臀一区二区三区| 免费一级无码在线网站| 99久久精品国产麻豆婷婷| 免费人欧美成又黄又爽的视频| 伊人成人在线| 亚洲无线一二三四区男男| 日本a级免费| 国产国产人成免费视频77777| 亚洲国产中文欧美在线人成大黄瓜 | 国产日韩精品欧美一区灰| 91亚洲精选| 日本91视频| 成人噜噜噜视频在线观看| 色窝窝免费一区二区三区| 男女精品视频| 国产成人综合在线视频| 亚洲动漫h| 欧美日韩国产在线人成app| www.亚洲色图.com| 国内视频精品| 亚洲成在人线av品善网好看| 国产一区成人| 麻豆国产原创视频在线播放| 欧美日本中文| 一级爆乳无码av| 国产激情无码一区二区免费 | 国产成人亚洲无码淙合青草| 成年A级毛片| 在线免费亚洲无码视频| 天天爽免费视频| 2021最新国产精品网站| 国产91熟女高潮一区二区| 欧美精品亚洲精品日韩专区| 日本人又色又爽的视频| 欧美日韩国产成人高清视频| 国产jizz| 国产一区二区网站| 无套av在线| 日本人妻丰满熟妇区| 操美女免费网站| 久久国语对白| 欧美成人午夜视频免看| 制服丝袜一区| 99热这里只有精品在线观看| 老司机精品久久| 国产青青操| 久久国产精品无码hdav| 成人国产小视频| 欧美成人影院亚洲综合图| 久久黄色毛片| 无遮挡国产高潮视频免费观看| 亚洲欧美另类久久久精品播放的| 久久综合干| 国产激爽大片高清在线观看| 狠狠干欧美| 亚洲中文字幕23页在线| 99久久精品视香蕉蕉| 国产精品自拍露脸视频| 91丝袜美腿高跟国产极品老师| 免费看美女毛片| 亚洲精品午夜天堂网页| 国产a网站| 国产18页| 色播五月婷婷| 国产白丝av| 波多野结衣久久高清免费| 国产精品冒白浆免费视频| 99偷拍视频精品一区二区| 青草视频网站在线观看| 免费一级毛片在线观看| 精品国产香蕉在线播出| 国产swag在线观看| 亚洲va视频| 97国产精品视频人人做人人爱| 国产Av无码精品色午夜| 久久激情影院| 波多野结衣第一页| 欧美视频在线不卡| 国产午夜人做人免费视频中文| 1769国产精品视频免费观看| 成人韩免费网站|