999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深度學(xué)習(xí)在紅外目標(biāo)跟蹤中的應(yīng)用展望

2019-03-25 08:13:50莊旭陽陳寶國張景山
航空兵器 2019年1期
關(guān)鍵詞:深度學(xué)習(xí)

莊旭陽 陳寶國 張景山

摘要:近年來,深度學(xué)習(xí)算法研究持續(xù)升溫,已經(jīng)在自動駕駛、工業(yè)檢測以及醫(yī)療等領(lǐng)域占據(jù)了主要地位。紅外目標(biāo)跟蹤是紅外導(dǎo)引的一項(xiàng)關(guān)鍵技術(shù),然而,對于復(fù)雜的紅外場景,已有的跟蹤算法很難適用所有情況,跟蹤效果遭遇瓶頸。本文通過介紹紅外目標(biāo)跟蹤算法發(fā)展現(xiàn)狀、基于深度學(xué)習(xí)的目標(biāo)跟蹤算法最新發(fā)展,分析了目前主流深度學(xué)習(xí)算法的優(yōu)缺點(diǎn),結(jié)合紅外目標(biāo)跟蹤的特點(diǎn)和深度學(xué)習(xí)方法的工作思路,展望了深度學(xué)習(xí)方法在紅外領(lǐng)域的應(yīng)用前景及未來的工作方向。

關(guān)鍵詞:目標(biāo)跟蹤;深度學(xué)習(xí);紅外導(dǎo)引技術(shù);弱小目標(biāo)

中圖分類號:TJ760;TP391文獻(xiàn)標(biāo)識碼:A文章編號:1673-5048(2019)01-0047-06[SQ0]

0引言

紅外目標(biāo)跟蹤是紅外導(dǎo)引的一項(xiàng)關(guān)鍵技術(shù)。其基本研究內(nèi)容是從紅外圖像序列或視頻流中確定感興趣的目標(biāo)區(qū)域,在之后的連續(xù)幀中定位該目標(biāo)在紅外場景中的位置,形成目標(biāo)的運(yùn)動軌跡。紅外場景的目標(biāo)跟蹤可以全天時工作,在導(dǎo)彈制導(dǎo)、戰(zhàn)場偵察等航空航天領(lǐng)域具有重要的地位。

在實(shí)際應(yīng)用中,紅外目標(biāo)跟蹤面臨著諸多難題,如成像分辨率低、目標(biāo)的尺度及外觀變化、復(fù)雜的背景雜波、干擾以及遮擋。然而,傳統(tǒng)的跟蹤算法主要采用的特征有尺度不變特征(SIFT)、方向梯度直方圖(HOG)、局部二值模式算子(LBP)、壓縮感知(CS)和仿射不變特征(MSA)等[1],但這些特征本質(zhì)上是一種手工設(shè)計(jì)特征,根據(jù)不同的場景而特別設(shè)計(jì)。對于復(fù)雜的紅外場景,已有算法很難適用所有情況,跟蹤能力提升遭遇瓶頸[2]。

2006年,Hinton等人提出深度學(xué)習(xí)的概念,引起了業(yè)界的廣泛關(guān)注,迅速成為全球研究熱點(diǎn)[3]。深度學(xué)習(xí)在學(xué)術(shù)界和工業(yè)界持續(xù)升溫,首先在語音識別的問題上取得了突破性進(jìn)展,之后在2012年基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型進(jìn)軍圖像分類領(lǐng)域,取得了非常大的性能提升。在CVPR2016中,基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)跟蹤方法已占據(jù)主要地位,基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)跟蹤系統(tǒng)是當(dāng)前性能最好的系統(tǒng)之一。相較于傳統(tǒng)特征提取方法,包含更多層隱藏層的卷積神經(jīng)網(wǎng)絡(luò)擁有更強(qiáng)大的特征學(xué)習(xí)和表征能力。對于分辨率不高、對比度低、噪聲大的紅外目標(biāo)跟蹤問題有很好的應(yīng)用前景。

1紅外目標(biāo)跟蹤算法發(fā)展現(xiàn)狀

由于軍事需求,紅外目標(biāo)跟蹤的研究主要集中在對弱小目標(biāo)的跟蹤,其算法是與目標(biāo)檢測相輔相成的。紅外弱小目標(biāo)的跟蹤算法一般分為兩類:第一種是基于單幀圖像的跟蹤前檢測算法(DBT),第二種是基于圖像序列的檢測前跟蹤算法(TBD)[4-5]。

1.1紅外弱小目標(biāo)的跟蹤前檢測算法

跟蹤前檢測的基本思路是:首先將輸入圖像進(jìn)行預(yù)處理和分割,并根據(jù)目標(biāo)灰度或紋理特征等,利用先驗(yàn)知識確認(rèn)真實(shí)目標(biāo)。這種方法思路清

晰,且容易實(shí)現(xiàn)。但是,對于真實(shí)目標(biāo)信噪比較低的場景,容易將真實(shí)目標(biāo)遺漏。

在紅外場景下,DBT算法主要利用濾波算法對圖像進(jìn)行預(yù)處理,濾除緩慢變化的背景,然后分割出所有疑似目標(biāo),再根據(jù)序列圖像確定真實(shí)目標(biāo)并跟蹤。目前,預(yù)處理算法主要分為兩類:頻域?yàn)V波法和空域?yàn)V波法,兩類算法都是利用高通濾波抑制紅外圖像中的低頻背景信號。主流的空域?yàn)V波算法有:高通模板濾波法、中值濾波法、最大中值(均值)濾波法和形態(tài)學(xué)方法等。頻域?yàn)V波算法有:經(jīng)典頻域高通濾波法和小波濾波法[6]。

1.2紅外弱小目標(biāo)的檢測前跟蹤算法

檢測前跟蹤的基本思路是:紅外場景下,在不確定真實(shí)目標(biāo)的情況時,對所有的疑似目標(biāo)進(jìn)行跟蹤,然后根據(jù)序列圖像中各目標(biāo)的運(yùn)動、形態(tài)等信息,判斷出真實(shí)目標(biāo)的軌跡。相比之下,TBD算法更加復(fù)雜,能有效提高在復(fù)雜紅外場景下檢測出低信噪比目標(biāo)的可能性。主流的檢測前跟蹤算法有:管道濾波法、多假設(shè)檢驗(yàn)法、動態(tài)規(guī)劃法、貝葉斯估計(jì)及粒子濾波法、高階相關(guān)法和投影變換法等[6]。

1.3兩種目標(biāo)跟蹤算法的比較

DBT算法和TBD算法基于不同的思路設(shè)計(jì)。DBT算法難以處理背景復(fù)雜、目標(biāo)信噪比低的場景,容易遺漏目標(biāo);而TBD算法設(shè)計(jì)復(fù)雜、實(shí)時性不好。

但是DBT算法簡單,容易實(shí)現(xiàn),在紅外目標(biāo)跟蹤領(lǐng)域是不可或缺的一部分;而TBD算法善于處理背景復(fù)雜、目標(biāo)信噪比較低的跟蹤任務(wù)。兩種算法的性能對比如表1所示。

2深度學(xué)習(xí)方法在目標(biāo)跟蹤中的應(yīng)用

自2006年Hinton等人提出深度置信網(wǎng)絡(luò)以來[7],深度學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域大顯身手,解決了許多重要問題。深度學(xué)習(xí)首先在語音識別領(lǐng)域取得突破性進(jìn)展。2012年,基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型進(jìn)軍圖像分類領(lǐng)域,并取得了非常大的性能提升。目前深度學(xué)習(xí)算法已經(jīng)在圖像分類、語音識別、自動翻譯等領(lǐng)域處于絕對領(lǐng)先的地位,已有數(shù)種學(xué)習(xí)框架,如卷積神經(jīng)網(wǎng)絡(luò)[8]、遞歸神經(jīng)網(wǎng)絡(luò)[9]和孿生神經(jīng)網(wǎng)絡(luò)[10]。

航空兵器2019年第26卷第1期

莊旭陽,等:深度學(xué)習(xí)在紅外目標(biāo)跟蹤中的應(yīng)用展望2013年,深度學(xué)習(xí)開始進(jìn)軍目標(biāo)跟蹤領(lǐng)域,一系列優(yōu)秀算法逐漸在跟蹤精度上取得絕對優(yōu)勢。2016年,由Held[11]提出的GOTURN網(wǎng)絡(luò)完全拋棄線上的模型更新,在NVIDIATitian上可以達(dá)到165fps,是首個做到100fps的深度學(xué)習(xí)算法。從目前的研究成果來看,深度學(xué)習(xí)算法已然成為目標(biāo)跟蹤領(lǐng)域的重要組成部分,算法設(shè)計(jì)主要分為兩個思路:

(1)追求跟蹤精度。在測試階段,繼續(xù)進(jìn)行網(wǎng)絡(luò)的訓(xùn)練微調(diào):跟蹤的同時,在線提取目標(biāo)區(qū)域的正負(fù)樣本,每一幀跟蹤都對網(wǎng)絡(luò)進(jìn)行一次訓(xùn)練,防止目標(biāo)變化造成的跟蹤框漂移,最大化深度學(xué)習(xí)算法的跟蹤精度。

(2)兼顧速度精度。割棄在線的模型更新,損失一定精度,保證跟蹤速度:一般通過巧妙的模型設(shè)計(jì),盡可能讓離線訓(xùn)練替代在線更新,保證算法可觀的跟蹤精度,并擁有可以比擬傳統(tǒng)算法的跟蹤速度。

本文將從這兩個發(fā)展方向,對基于深度學(xué)習(xí)的目標(biāo)跟蹤算法進(jìn)行介紹。

2.1利用在線訓(xùn)練的深度學(xué)習(xí)網(wǎng)絡(luò)

在深度學(xué)習(xí)進(jìn)軍目標(biāo)跟蹤領(lǐng)域伊始,算法仍是利用目標(biāo)分類網(wǎng)絡(luò)進(jìn)行跟蹤,如SO-DLT[12]和FCNT[13]。近年來,研究者們設(shè)計(jì)出更加輕量級的、精度更好的專用于目標(biāo)跟蹤的網(wǎng)絡(luò)模型。

2.1.1基于多域卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)跟蹤

多域卷積神經(jīng)網(wǎng)絡(luò)(MDNet)[14]是VOT2015(VisualObjectTracking)[15]的冠軍,該方法設(shè)計(jì)了專門針對跟蹤任務(wù)的網(wǎng)絡(luò)模型。該網(wǎng)絡(luò)模型直接利用不同場景的視頻序列進(jìn)行訓(xùn)練,并為不同視頻設(shè)計(jì)各自的全連接層,以此來學(xué)習(xí)運(yùn)動目標(biāo)普遍的特征表示,增強(qiáng)跟蹤效果。MDNet在兩個公共數(shù)據(jù)集OTB[16]和VOT2014上進(jìn)行了充分驗(yàn)證,跟蹤精度達(dá)到90%以上。MDNet的訓(xùn)練流程如圖1所示。

MDNet將跟蹤看作二分類問題,缺乏應(yīng)對誤差累積效應(yīng)的機(jī)制。同時,由于在線微調(diào)模塊生成正負(fù)樣本數(shù)據(jù)量大,在線訓(xùn)練十分耗時,使得MDNet雖然取得了傲人的跟蹤精度卻在實(shí)時性上很糟糕,速度只有1~2fps。

2.1.2基于樹型卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)跟蹤

為了更好地應(yīng)對跟蹤過程中的誤差累積效應(yīng),MDNet的研發(fā)團(tuán)隊(duì)又提出了樹型卷積神經(jīng)網(wǎng)絡(luò)(TCNN)[17],是VOT2016的冠軍。TCNN認(rèn)為在目標(biāo)被遮擋或跟丟的情況下,更新模型已經(jīng)被污染,不能再根據(jù)此模型繼續(xù)進(jìn)行后續(xù)的跟蹤。用多個CNN跟蹤器組成一個樹型結(jié)構(gòu),每個CNN跟蹤器對結(jié)果估計(jì)的權(quán)重不同,通過計(jì)算所有CNN跟蹤器對目標(biāo)估計(jì)的加權(quán)平均得到每個候選框得分,得分最高的視為目標(biāo)。TCNN的結(jié)構(gòu)如圖2所示。

TCNN在解決遮擋、突變和跟丟的問題上更具優(yōu)勢,但是其算法耗時仍然是難以回避的問題,速度只有1.5fps。

2.2兼顧精度與速度的深度學(xué)習(xí)網(wǎng)絡(luò)

在線訓(xùn)練模塊雖然保證了深度學(xué)習(xí)模型高精度的跟蹤,但是無法完全滿足視頻跟蹤的實(shí)時性要求,近年來,越來越多的研究者開始嘗試設(shè)計(jì)能夠?qū)崟r跟蹤的深度學(xué)習(xí)跟蹤算法。

2.2.1基于全卷積孿生網(wǎng)絡(luò)的目標(biāo)跟蹤

基于全卷積孿生網(wǎng)絡(luò)的目標(biāo)跟蹤算法(SiameseFC)[10]是VOT2017跟蹤速度最快的深度學(xué)習(xí)算法,平均跟蹤速度可以達(dá)到86fps,同時具有一流的跟蹤精度。SiameseFC利用CNN分別對真實(shí)目標(biāo)框位置以及生成的目標(biāo)周圍區(qū)域進(jìn)行特征的映射,將真實(shí)目標(biāo)框映射得到的特征作為卷積核對目標(biāo)周圍搜索區(qū)域特征映射得到的特征卷積,相當(dāng)于對得到的兩個特征進(jìn)行了互相關(guān),得到的結(jié)果中數(shù)值最高的點(diǎn),即對應(yīng)下一幀目標(biāo)位置中心。SiameseFC網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

模型中用于特征映射的兩個CNN是完全相同的,是一種典型的孿生網(wǎng)絡(luò),且該模型中只有卷積層和池化層,因此也是一種典型的全卷積(Fully-Convolutional)神經(jīng)網(wǎng)絡(luò)。

但是SiameseFC并不能區(qū)分不同的物體,只是通過高斯窗的平滑,很快抑制了較遠(yuǎn)的物體??偟膩碚f,SiameseFC并不適合背景嘈雜以及抖動劇烈的場景。

2.2.2孿生網(wǎng)絡(luò)啟發(fā)下的新發(fā)展

SiameseFC網(wǎng)絡(luò)雖然存在缺陷和不足,但基于網(wǎng)絡(luò)簡單、算法速度快的特點(diǎn),迅速成為研究熱點(diǎn),在保證高速跟蹤的前提下,基于孿生網(wǎng)絡(luò)的算法的跟蹤精度正在逼近現(xiàn)有方法的先進(jìn)水平。

在CVPR2018(IEEEConferenceonComputerVisionandPatternRecognition)中,HeAnfeng等人[18]提出的雙倍孿生網(wǎng)絡(luò)在50fps的速度下,在OTB2013/50/100數(shù)據(jù)集上精度優(yōu)于所有實(shí)時跟蹤算法;WangQiang等人[19]使用三個attention機(jī)制對SiameseFC特征的空間和channal進(jìn)行加權(quán),分解特征提取和判別性分析的耦合,提升網(wǎng)絡(luò)判別能力,其算法在80fps的跟蹤速度下,在最新的OTB2015和VOT2017數(shù)據(jù)集上跟蹤精度達(dá)到了行業(yè)領(lǐng)先水平;LiBo等人[20]利用孿生網(wǎng)絡(luò)和區(qū)域候選網(wǎng)絡(luò),構(gòu)建出一種高速高精度的單目標(biāo)跟蹤模型,該模型在160fps的速度下,在VOT2015和VOT2016數(shù)據(jù)集上跟蹤精度可以達(dá)到目前先進(jìn)水平。

3深度學(xué)習(xí)算法在紅外目標(biāo)跟蹤中的應(yīng)用探索

為了初步探索深度學(xué)習(xí)算法在紅外目標(biāo)跟蹤中的應(yīng)用前景,選擇目前主流的MDNet和SiameseFC跟蹤算法,對其做簡單的遷移和優(yōu)化,測試其紅外目標(biāo)跟蹤任務(wù)中的表現(xiàn)。測試視頻序列仿真了空中目標(biāo)投放干擾的過程,視頻長度為900幀,測試使用GPU為NvidiaTeslaP100。

根據(jù)實(shí)測情況,MDNet跟蹤效果更好,可以保證對整個視頻序列的準(zhǔn)確跟蹤,抗干擾能力強(qiáng),沒有目標(biāo)丟失的情況出現(xiàn),但其跟蹤速度很慢,在TeslaP100GPU速度僅為2~3fps,跟蹤結(jié)果如圖4所示。

而對于SiameseFC,可以完成對單目標(biāo)的實(shí)時跟蹤,但其抗干擾能力很弱。在未投放干擾階段,SiameseFC可以很好地跟蹤目標(biāo),但當(dāng)投放干擾時,SiameseFC便會跟上錯誤目標(biāo)。SiameseFC的算法速度很快,在TeslaP100GPU上可以達(dá)到80fps,跟蹤結(jié)果如圖5所示。

4深度學(xué)習(xí)算法在紅外目標(biāo)跟蹤中面臨的挑戰(zhàn)

作為紅外導(dǎo)引技術(shù)的重要子領(lǐng)域,紅外目標(biāo)跟蹤是一個極具挑戰(zhàn)性的研究課題,經(jīng)過數(shù)十年的努力,對一些簡單的紅外場景已經(jīng)可以很好地處理,但是面對場景復(fù)雜且干擾嚴(yán)重的情況,跟蹤效果并不理想。針對紅外場景圖像分辨率低、目標(biāo)像素信息匱乏、目標(biāo)邊沿輪廓模糊的特點(diǎn),深度學(xué)習(xí)應(yīng)用于紅外目標(biāo)跟蹤領(lǐng)域面臨的挑戰(zhàn)主要集中在以下幾個方面:

(1)紅外目標(biāo)成像面積小,像素對比度低,遠(yuǎn)距目標(biāo)通常只有幾個像素。而目前基于深度學(xué)習(xí)的目標(biāo)跟蹤算法需要足夠的像素輸入來提取語義信息,跟蹤的目標(biāo)尺度都在10×10以上,無法適應(yīng)紅外場景下小目標(biāo)的跟蹤。如何搭建針對小目標(biāo)跟蹤的深度網(wǎng)絡(luò)是一個需要進(jìn)一步開展工作的方向。

(2)缺乏紅外序列的數(shù)據(jù)集,沒有大數(shù)據(jù)的支撐,深度學(xué)習(xí)的優(yōu)勢很難發(fā)揮。目前,深度學(xué)習(xí)的研究大部分是基于通過網(wǎng)絡(luò)搜集的超大數(shù)據(jù)集。在紅外跟蹤領(lǐng)域還沒有系統(tǒng)的視頻數(shù)據(jù)集,對深度學(xué)習(xí)工作的開展極其不利。如何根據(jù)紅外目標(biāo)跟蹤的特點(diǎn),建立具有代表性、結(jié)合深度學(xué)習(xí)特點(diǎn)、測試方法嚴(yán)謹(jǐn)?shù)拇笠?guī)模數(shù)據(jù)集是一個亟待解決的問題。同時,作為軍事應(yīng)用,對立雙方都會采取保密措施,這使得紅外圖像集合中的絕大部分其實(shí)是己方的圖像,如何訓(xùn)練和測試網(wǎng)絡(luò),使得網(wǎng)絡(luò)能夠滿足對對方目標(biāo)的跟蹤也是軍事項(xiàng)目中特有的問題。

(3)紅外目標(biāo)跟蹤過程中存在干擾遮擋及長時間遮擋目標(biāo)的情況。目前基于深度學(xué)習(xí)的目標(biāo)跟蹤算法還局限于可見光波段的生活物體跟蹤,場景中出現(xiàn)相似干擾或長時間遮擋的情況很少。然而,紅外場景十分復(fù)雜,目標(biāo)與干擾往往很難區(qū)分,遮擋過程可能會持續(xù)很久。在應(yīng)對紅外目標(biāo)跟蹤領(lǐng)域這些全新的挑戰(zhàn)時,如何防止深度學(xué)習(xí)算法發(fā)生漂移,也將是一個很大的難題。

5思考及展望

深度學(xué)習(xí)方法在視覺目標(biāo)跟蹤領(lǐng)域的巨大成功,為移植或搭建適用于紅外目標(biāo)跟蹤的深度學(xué)習(xí)模型提供了可能。但跟蹤場景的差異性,注定了深度學(xué)習(xí)應(yīng)用于紅外目標(biāo)跟蹤領(lǐng)域時,需要進(jìn)行算法的優(yōu)化以及思路的轉(zhuǎn)換。若要在紅外目標(biāo)跟蹤領(lǐng)域達(dá)到兼具魯棒性、準(zhǔn)確性和實(shí)時性的跟蹤要求,還需要開展大量的研究工作。針對深度學(xué)習(xí)方法在紅外目標(biāo)跟蹤應(yīng)用中可能遇到的困難,提出以下幾點(diǎn)思考:

(1)遞歸神經(jīng)網(wǎng)絡(luò)的應(yīng)用。遞歸神經(jīng)網(wǎng)絡(luò)很重要的一個用途是處理和預(yù)測序列數(shù)據(jù),可能在紅外場景下有所作為。對于缺乏形狀和紋理特征的紅外目標(biāo),可以嘗試?yán)眉t外目標(biāo)的時間維度上的信息,通過遞歸神經(jīng)網(wǎng)絡(luò)進(jìn)行軌跡預(yù)測,賦予跟蹤算法記憶能力,有望減少跟蹤過程的漂移。同時,遞歸神經(jīng)網(wǎng)絡(luò)的記憶能力和軌跡預(yù)測能力一定程度上可以增強(qiáng)跟蹤過程中抗干擾遮擋的能力。如何利用遞歸神經(jīng)網(wǎng)絡(luò)做好目標(biāo)跟蹤,將是一個很好的探索方向。

(2)減少深度網(wǎng)絡(luò)的池化層。在卷積神經(jīng)網(wǎng)絡(luò)中池化層的作用是降低網(wǎng)絡(luò)參數(shù)的維度,減少特征的冗余,一定程度上防止過擬合。這樣的設(shè)定是源于視覺目標(biāo)跟蹤圖像的高分辨率,而對于紅外場景下的小目標(biāo)跟蹤,可以盡可能地減少池化層的數(shù)量,保留特征信息,減小可跟蹤目標(biāo)的尺度。

(3)擺脫線上對網(wǎng)絡(luò)的訓(xùn)練。目前視覺目標(biāo)跟蹤領(lǐng)域主要在解決對非特定目標(biāo)的普適跟蹤,測試的目標(biāo)很可能與訓(xùn)練樣本不是一個類別,這使得跟蹤算法很難擺脫線上對網(wǎng)絡(luò)的訓(xùn)練微調(diào),從而大大增加計(jì)算成本,算法實(shí)時性難以保證。紅外目標(biāo)跟蹤更偏向工程化應(yīng)用,大多跟蹤任務(wù)面向的是特定目標(biāo)的跟蹤,這為網(wǎng)絡(luò)設(shè)計(jì)擺脫線上訓(xùn)練,提高算法實(shí)時性提供了可能。

(4)設(shè)計(jì)專用于紅外目標(biāo)跟蹤的深度學(xué)習(xí)模型。紅外目標(biāo)跟蹤擁有自身的特點(diǎn)和難點(diǎn),嘗試搭建適合紅外目標(biāo)跟蹤的深度學(xué)習(xí)模型也是一個工作方向。紅外圖像是單通道圖像,且分辨率低,不需要很深的網(wǎng)絡(luò)架構(gòu)。同時,如果能夠利用紅外圖像數(shù)據(jù)量小的特點(diǎn),還可以為算法加速提供便利,進(jìn)一步增強(qiáng)實(shí)時性。

6結(jié)束語

在研究者們的不懈努力下,深度學(xué)習(xí)算法正在一步步占領(lǐng)視覺目標(biāo)跟蹤領(lǐng)域,繼傳統(tǒng)算法在精度上被超越之后,其速度領(lǐng)先也逐漸被縮小、抹平。深度學(xué)習(xí)在視覺目標(biāo)跟蹤領(lǐng)域的巨大成功為紅外目標(biāo)跟蹤任務(wù)提供了新的解決思路。盡管目前的算法可能不完全適用于紅外目標(biāo)跟蹤領(lǐng)域,但可以預(yù)見,深度學(xué)習(xí)進(jìn)軍紅外目標(biāo)跟蹤的號角即將吹響,這將是紅外目標(biāo)跟蹤領(lǐng)域的研究方向之一。

參考文獻(xiàn):

[1]張慧,王坤峰,王飛躍.深度學(xué)習(xí)在目標(biāo)視覺檢測中的應(yīng)用進(jìn)展與展望[J].自動化學(xué)報(bào),2017,43(8):1289-1305.

ZhangHui,WangKunfeng,WangFeiyue.AdvancesandPerspectivesonApplicationsofDeepLearninginVisualObjectDetection[J].ActaAutomaticaSinica,2017,43(8):1289-1305.(inChinese)

[2]黃成,王紅梅.干擾條件下的紅外目標(biāo)檢測方法研究[J].航空兵器,2017(5):31-36.

HuangCheng,WangHongmei.ResearchonInfraredTargetDetectionMethodunderJammingCondition[J].AeroWeaponry,2017(5):31-36.(inChinese)

[3]HintonGE,SalakhutdinovRR.ReducingtheDimensionalityofDatawithNeuralNetworks[J].Science,2006,313(5786):504-507.

[4]張惠娟,梁彥,程詠梅,等.運(yùn)動弱小目標(biāo)先跟蹤后檢測技術(shù)的研究進(jìn)展[J].紅外技術(shù),2006,28(7):423-430.

ZhangHuijuan,LiangYan,ChengYongmei,etal.AdvancesonTrackbeforeDetectforDimSmallMovingTargetDetection[J].InfraredTechnology,2006,28(7):423-430.(inChinese)

[5]周冰,王永仲,應(yīng)家駒.弱小目標(biāo)檢測技術(shù)淺析[J].紅外技術(shù),2007,29(1):30-33.

ZhouBing,WangYongzhong,YingJiaju.ASimpleAnalysisofDimTargetDetectionTechnology[J].InfraredTechnology,2007,29(1):30-33.(inChinese)

[6]侯旺,孫曉亮,尚洋,等.紅外弱小目標(biāo)檢測技術(shù)研究現(xiàn)狀與發(fā)展趨勢[J].紅外技術(shù),2015,37(1):1-10.

HouWang,SunXiaoliang,ShangYang,etal.PresentStateandPerspectivesofSmallInfraredTargetsDetectionTechnology[J].InfraredTechnology,2015,37(1):1-10.(inChinese)

[7]HintonGE,OsinderoS,TehYW.AFastLearningAlgorithmforDeepBeliefNets[J].NeuralComputation,2006,18(7):1527-1554.

[8]KrizhevskyA,SutskeverI,HintonGE.ImageNetClassificationwithDeepConvolutionalNeuralNetworks[C]∥InternationalConferenceonNeuralInformationProcessingSystems,2012,60(2):1097-1105.

[9]CuiZhen,XiaoShengtao,F(xiàn)engJiashi,etal.RecurrentlyTargetAttendingTracking[C]∥IEEEConferenceonComputerVisionandPatternRecognition,LasVegas,2016:1449-1458.

[10]BertinettoL,ValmadreJ,HenriquesJF,etal.FullyConvolutionalSiameseNetworksforObjectTracking[C]∥14thEuropeanConferenceonComputerVision,Amsterdam,2016:850-865.

[11]HeldD,ThrunS,SavareseS.LearningtoTrackat100FPSwithDeepRegressionNetworks[C]∥14thEuropeanConferenceonComputerVision,Amsterdam,2016:749-765.

[12]WangNY,LiSY,GuptaA,etal.TransferringRichFeatureHierarchiesforRobustVisualTracking[EB/OL].(2015-04-23)[2018-09-17].https:∥arxiv.org/pdf/1501.04587v2.pdf.

[13]WangLijun,OuyangWanli,WangXiaogang,etal.VisualTrackingwithFullyConvolutionalNetworks[C]∥ProceedingsoftheIEEEInternationalConferenceonComputerVision,Santiago,2015:3119-3127.

[14]NamH,HanB.LearningMultiDomainConvolutionalNeuralNetworksforVisualTracking[C]∥ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition,LasVegas,2016:4293-4302.

[15]VOTChallenge.VOT2015Benchmark[EB/OL].[2018-09-17].http:∥www.votchallenge.net/vot2015/.

[16]VisualTrackerBenchmark[EB/OL].[2018-09-17].http:∥cvlab.hanyang.ac.kr/tracker_benchmark/index.html.

[17]NamH,BaekM,HanB.ModelingandPropagatingCNNsinaTreeStructureforVisualTracking[C]∥ProceedingsoftheIEEEComputerVisionandPatternRecognition,2016:1-10.

[18]HeAnfeng,LuoChong,TianXinmei,etal.ATwofoldSiameseNetworkforRealTimeObjectTracking[C]∥ProceedingsoftheIEEEComputerVisionandPatternRecognition,2018.

[19]WangQiang,TengZhu,XingJunliang,etal.LearningAttentions:ResidualAttentionalSiameseNetworkforHighPerformanceOnlineVisualTracking[C]∥ProceedingsoftheIEEEConferenceonComputerVisionandPattemRecognition,2018.

[20]LiBo,YanJunjie,WuWei,etal.HighPerformanceVisualTrackingwithSiameseRegionProposalNetwork[C]∥ProceedingsoftheIEEEConferenceonComputerVisionandPattemRecognition,2018.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺構(gòu)建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學(xué)習(xí)的三級階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 国产精品亚洲а∨天堂免下载| 亚洲国产看片基地久久1024| 欧美成人综合视频| 97在线碰| 婷婷综合色| 热99精品视频| 亚洲男女天堂| 日韩黄色大片免费看| 伊人久久久久久久| 国产精品女主播| 精品国产香蕉伊思人在线| 久久先锋资源| 国产成人调教在线视频| 国产青青操| 久久人妻xunleige无码| 人妻精品久久无码区| 福利姬国产精品一区在线| 波多野结衣一区二区三视频 | 久草国产在线观看| 婷婷六月天激情| 亚洲日本中文综合在线| 日韩欧美中文在线| av在线人妻熟妇| 中国国产高清免费AV片| 精品久久久久久久久久久| 国产色爱av资源综合区| 无码一区二区三区视频在线播放| 国产黄网永久免费| 夜精品a一区二区三区| 欧美人在线一区二区三区| 国产福利免费视频| 波多野结衣视频网站| 日韩国产另类| 精品无码人妻一区二区| 午夜爽爽视频| 国产18在线| 萌白酱国产一区二区| 国产呦视频免费视频在线观看| av午夜福利一片免费看| 又黄又爽视频好爽视频| 亚洲精品动漫| 国产91在线|日本| 欧美日韩激情| 成人中文在线| 凹凸精品免费精品视频| 精品无码一区二区三区在线视频| 人妻无码中文字幕一区二区三区| 精品国产美女福到在线直播| 久久久成年黄色视频| 亚洲男人在线| 国产色婷婷| 国产精品xxx| 亚洲国模精品一区| 四虎综合网| 一级香蕉视频在线观看| 国产亚洲精品自在线| 欧美综合激情| 亚洲最大福利网站| 精品人妻AV区| 欧美国产日韩另类| 国产男女免费视频| 色噜噜综合网| 欧美高清三区| 亚洲精品天堂在线观看| 狠狠色香婷婷久久亚洲精品| 久青草免费在线视频| 国产成人亚洲无码淙合青草| 国产精品女同一区三区五区| 日韩成人午夜| 丝袜国产一区| 亚洲码在线中文在线观看| 精品国产香蕉在线播出| 2020久久国产综合精品swag| 成人欧美日韩| 狠狠亚洲五月天| 视频一本大道香蕉久在线播放| 亚洲va视频| 亚洲av日韩av制服丝袜| 亚洲天堂视频网站| 特级做a爰片毛片免费69| 免费一级毛片| 午夜福利无码一区二区|