999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于無人機圖像的行人目標跟蹤技術

2021-08-30 05:19:54李方用
魅力中國 2021年25期
關鍵詞:特征模型

李方用

(中國電子科技集團公司第五十四研究所,河北 石家莊 050081)

目標跟蹤技術現有方法大多基于深度學習技術,行人目標跟蹤技術主要包括兩類:單目標跟蹤、多目標跟蹤。單目標跟蹤算法主要通過構建復雜的外觀模型來跟蹤連續幀的單個目標,多目標跟蹤并不僅僅依賴外觀模型,因為在高度擁擠或目標間存在相似外觀的多目標跟蹤場景中,僅依賴外觀模型可能降低算法的效率和準確率。

一、單目標跟蹤算法

基于孿生網絡算法的目標跟蹤技術是通過卷積神經網絡對目標與搜索區域的特征進行提取,并分析所提取的目標與搜索區域的特征之間的相關性,在目標相關性響應圖中,響應值最大則說明與目標相關性最強,相關性最強的位置即為目標所在位置。Bertinetto 等人[1]提出全卷積孿生網絡(Siamese fully-convolutional networks,Siam FC)算法,該算法使用全卷積層的輸出作為模板分支與搜索分支的特征。在訓練階段對兩個分支提取的特征進行相關性計算得到響應圖,生成相關性強度分布圖,并將相關性強度圖與標簽進行對比,將得到的誤差回傳至卷積層。在跟蹤階段,卷積層的參數固定不變,在一幀目標位置附近裁剪得到多尺度搜索區域,根據計算得到響應圖中最大響應值的位置即得到目標位置。Siam FC類算法能達到80FPS的跟蹤速度,但是此算法存在的問題在于其不對模板進行更新,因此不能有效的利用視頻中的目標物的特征與信息追蹤特征變化的物體。針對上述問題,Bertinetto等人[2]將相關濾波算法處理成可微網絡層嵌入到模板分支,提出端到端的相關濾波網絡算法(Correlation Filters Network,CFNet),該算法能夠與卷積神經網絡一起得到訓練,實現在線學習,使得模板分支能夠對變化目標提取鑒別能力強的特征。Bertinetto 等人[3]采用相關濾波層對模板分支與搜索域分支特征進行判別,訓練階段利用模型輸出的響應圖與響應圖標簽之間的誤差進行反向傳遞,形成輕量級的卷積神經網絡(Discriminative Correlation Filters Network,DCFNet)算法。DCFNet 算法在跟蹤階段,根據相關濾波層的響應圖確定目標位置。相比于Siam FC 與CFNet 算法,由兩層卷積層和一層相關濾波層組成的DCFNet 算法網絡結構更加簡單,在線更新并進行跟蹤速度能夠達到70 幀每秒的運行速度 。但是DCFNet 算法由于結構過于簡單,其提取的特征難以應對復雜背景環境,其適用性在一定程度上受到了限制。因此訓練抗干擾能力強的目標特征提取神經網絡是亟待解決的問題。LeCun 等人提出LeNet[4],模仿了視覺神經網絡的工作方式,并將其命名為卷積神經網絡。但由于當時硬件條件的限制,神經網絡算法并沒有得到較為廣泛的應用。到2012 年,AlexNet 在 ImageNet 競賽[5]中達到了80%以上的精度,自此卷積神經網絡成為研究熱點。如今,隨著硬件條件的提高以及標記數據處理能力的增強,促進了卷積神經網絡的快速發展,深度學習理論在計算機視覺的眾多領域大放異彩。

運動模型主要目的是捕獲目標的運動行為,學習目標運動的方式。在多目標跟蹤算法中引入運動模型,可以預估目標在后續幀中可能存在的位置,減少了網絡對圖像的搜索空間,相比于僅使用外觀模型的跟蹤算法,基于運動模型與外觀模型的跟蹤算法能夠大幅度提升目標跟蹤算法的準確度。一般情況下,我們把多目標跟蹤按照對數據的處理方式分類為在線跟蹤(online)和離線跟蹤(batch/offline)。在線和離線的主要區別在于,離線跟蹤的方式允許使用未來幀的信息,而在線跟蹤只能使用當前和時間序列之前的幀。雖然實時跟蹤算法是以在線方式運行,但由于計算性能瓶頸的限制,并不是所有在線跟蹤算法都在實時的環境中使用,尤其是在使用深度學習算法的時候。盡管多目標跟蹤有各種各樣的方法,但大多數算法還是包含以下的步驟:首先是檢測階段,目標檢測算法會分析每一個輸入幀,并識別屬于特定類別的對象,給出分類和坐標。第二是特征提取/運動軌跡預測階段,這個階段采用一種或者多種特征提取算法用來提取表觀特征,運動或者交互特征。此外,還可以使用軌跡預測器預測該目標的未來可能在的位置。接下來是相似度計算階段,在此階段表觀特征和運動特征可以被用于計算目標之間的相似性。最后是關聯階段,此階段使用計算得到的相似性作為依據,將屬于同一目標的檢測對象和軌跡關聯起來,并給檢測對象分配和軌跡相同的ID。

二、實驗

實驗步驟說明

首先在實際采集的13 個場景中測試行人跟蹤方法的效果。除了場景的變化因素之外,尺度因素、遮擋因素以及人數密集等問題都會對跟蹤效果產生影響,因此我們需要在不同場景、不同變化因素下對檢測器進行測試。測試步驟如表1 所示:

表1 行人目標跟蹤算法測試步驟

實驗結果介紹說明

將不同場景的典型案例測試結果進行展示,如圖3、圖4 所示:

圖3 場景1 的行人跟蹤效果:(a)、(b)、(c)、(d)分別表示同一視頻中的不同幀,數字表示行人的身份編號,跟蹤任務旨在判斷出各個行人的運動軌跡。

圖4 場景2 的行人跟蹤效果:(a)、(b)、(c)、(d)分別表示同一視頻中的不同幀,數字表示行人的身份編號,跟蹤任務旨在判斷出各個行人的運動軌跡。

結語:本文設計的基于無人機圖像的行人目標跟蹤技術基于優化設計的卷積網絡,對行人特征進行了較好的表達,并利用了外觀相似度、軌跡吻合度對不同時刻物體的關聯性進行評估。本文算法在無人機視角下的圖像中,克服了行人存在尺度、視角及圖像質量的變化,獲得了較好的行人目標跟蹤效果。

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學特征認識
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 日韩在线2020专区| 全部免费毛片免费播放| 精品久久香蕉国产线看观看gif| 国内毛片视频| 欧美精品影院| 在线亚洲精品福利网址导航| 欧美全免费aaaaaa特黄在线| 精品国产成人a在线观看| 精品一区国产精品| 老司国产精品视频91| 亚洲视频四区| 国产jizz| 91精品日韩人妻无码久久| 免费jjzz在在线播放国产| 99精品国产高清一区二区| 午夜免费视频网站| 草草线在成年免费视频2| 大学生久久香蕉国产线观看| 亚洲第一区在线| 午夜久久影院| 日韩精品无码免费一区二区三区 | 久久精品无码中文字幕| 亚洲人成人伊人成综合网无码| 国产精品一区二区国产主播| 超碰色了色| 亚洲人成网18禁| 免费看美女毛片| 狠狠五月天中文字幕| 久久精品波多野结衣| 一区二区午夜| 国产精品免费p区| 一级毛片a女人刺激视频免费| 国产va免费精品观看| 精品国产一二三区| 亚洲精品日产AⅤ| 四虎国产成人免费观看| 亚亚洲乱码一二三四区| 亚洲国产成人精品青青草原| 影音先锋丝袜制服| 亚欧美国产综合| 97在线国产视频| 一本视频精品中文字幕| 国产香蕉97碰碰视频VA碰碰看 | 成人毛片在线播放| 国产精品2| 宅男噜噜噜66国产在线观看| 99热这里只有精品国产99| 亚洲精品黄| 国产正在播放| 国产亚洲欧美在线中文bt天堂| 欧美成人午夜影院| 四虎永久在线精品影院| 亚洲va视频| 国产无码制服丝袜| 毛片大全免费观看| 国产在线98福利播放视频免费 | 国产在线观看91精品亚瑟| 国产一区二区三区免费观看| 67194在线午夜亚洲| 国产电话自拍伊人| 成人韩免费网站| 亚洲首页在线观看| 亚洲最大综合网| 91网站国产| 无码内射在线| 久久人妻系列无码一区| 国产欧美日韩在线一区| 亚洲欧美日韩天堂| 午夜国产精品视频| 亚洲精品国偷自产在线91正片| 漂亮人妻被中出中文字幕久久| 毛片久久网站小视频| 青青青国产视频手机| 一本大道无码日韩精品影视| 亚洲福利一区二区三区| 丰满的少妇人妻无码区| 国产欧美一区二区三区视频在线观看| 亚洲最猛黑人xxxx黑人猛交 | 亚洲天堂视频网站| 亚洲天堂精品在线| 91精品日韩人妻无码久久| 亚洲高清中文字幕|