莊旭陽 陳寶國 張景山
摘要:近年來,深度學(xué)習(xí)算法研究持續(xù)升溫,已經(jīng)在自動駕駛、工業(yè)檢測以及醫(yī)療等領(lǐng)域占據(jù)了主要地位。紅外目標(biāo)跟蹤是紅外導(dǎo)引的一項(xiàng)關(guān)鍵技術(shù),然而,對于復(fù)雜的紅外場景,已有的跟蹤算法很難適用所有情況,跟蹤效果遭遇瓶頸。本文通過介紹紅外目標(biāo)跟蹤算法發(fā)展現(xiàn)狀、基于深度學(xué)習(xí)的目標(biāo)跟蹤算法最新發(fā)展,分析了目前主流深度學(xué)習(xí)算法的優(yōu)缺點(diǎn),結(jié)合紅外目標(biāo)跟蹤的特點(diǎn)和深度學(xué)習(xí)方法的工作思路,展望了深度學(xué)習(xí)方法在紅外領(lǐng)域的應(yīng)用前景及未來的工作方向。
關(guān)鍵詞:目標(biāo)跟蹤;深度學(xué)習(xí);紅外導(dǎo)引技術(shù);弱小目標(biāo)
中圖分類號:TJ760;TP391文獻(xiàn)標(biāo)識碼:A文章編號:1673-5048(2019)01-0047-06[SQ0]
0引言
紅外目標(biāo)跟蹤是紅外導(dǎo)引的一項(xiàng)關(guān)鍵技術(shù)。其基本研究內(nèi)容是從紅外圖像序列或視頻流中確定感興趣的目標(biāo)區(qū)域,在之后的連續(xù)幀中定位該目標(biāo)在紅外場景中的位置,形成目標(biāo)的運(yùn)動軌跡。紅外場景的目標(biāo)跟蹤可以全天時工作,在導(dǎo)彈制導(dǎo)、戰(zhàn)場偵察等航空航天領(lǐng)域具有重要的地位。
在實(shí)際應(yīng)用中,紅外目標(biāo)跟蹤面臨著諸多難題,如成像分辨率低、目標(biāo)的尺度及外觀變化、復(fù)雜的背景雜波、干擾以及遮擋。然而,傳統(tǒng)的跟蹤算法主要采用的特征有尺度不變特征(SIFT)、方向梯度直方圖(HOG)、局部二值模式算子(LBP)、壓縮感知(CS)和仿射不變特征(MSA)等[1],但這些特征本質(zhì)上是一種手工設(shè)計(jì)特征,根據(jù)不同的場景而特別設(shè)計(jì)。對于復(fù)雜的紅外場景,已有算法很難適用所有情況,跟蹤能力提升遭遇瓶頸[2]。
2006年,Hinton等人提出深度學(xué)習(xí)的概念,引起了業(yè)界的廣泛關(guān)注,迅速成為全球研究熱點(diǎn)[3]。深度學(xué)習(xí)在學(xué)術(shù)界和工業(yè)界持續(xù)升溫,首先在語音識別的問題上取得了突破性進(jìn)展,之后在2012年基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型進(jìn)軍圖像分類領(lǐng)域,取得了非常大的性能提升。在CVPR2016中,基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)跟蹤方法已占據(jù)主要地位,基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)跟蹤系統(tǒng)是當(dāng)前性能最好的系統(tǒng)之一。相較于傳統(tǒng)特征提取方法,包含更多層隱藏層的卷積神經(jīng)網(wǎng)絡(luò)擁有更強(qiáng)大的特征學(xué)習(xí)和表征能力。對于分辨率不高、對比度低、噪聲大的紅外目標(biāo)跟蹤問題有很好的應(yīng)用前景。
1紅外目標(biāo)跟蹤算法發(fā)展現(xiàn)狀
由于軍事需求,紅外目標(biāo)跟蹤的研究主要集中在對弱小目標(biāo)的跟蹤,其算法是與目標(biāo)檢測相輔相成的。紅外弱小目標(biāo)的跟蹤算法一般分為兩類:第一種是基于單幀圖像的跟蹤前檢測算法(DBT),第二種是基于圖像序列的檢測前跟蹤算法(TBD)[4-5]。
1.1紅外弱小目標(biāo)的跟蹤前檢測算法
跟蹤前檢測的基本思路是:首先將輸入圖像進(jìn)行預(yù)處理和分割,并根據(jù)目標(biāo)灰度或紋理特征等,利用先驗(yàn)知識確認(rèn)真實(shí)目標(biāo)。這種方法思路清
晰,且容易實(shí)現(xiàn)。但是,對于真實(shí)目標(biāo)信噪比較低的場景,容易將真實(shí)目標(biāo)遺漏。
在紅外場景下,DBT算法主要利用濾波算法對圖像進(jìn)行預(yù)處理,濾除緩慢變化的背景,然后分割出所有疑似目標(biāo),再根據(jù)序列圖像確定真實(shí)目標(biāo)并跟蹤。目前,預(yù)處理算法主要分為兩類:頻域?yàn)V波法和空域?yàn)V波法,兩類算法都是利用高通濾波抑制紅外圖像中的低頻背景信號。主流的空域?yàn)V波算法有:高通模板濾波法、中值濾波法、最大中值(均值)濾波法和形態(tài)學(xué)方法等。頻域?yàn)V波算法有:經(jīng)典頻域高通濾波法和小波濾波法[6]。
1.2紅外弱小目標(biāo)的檢測前跟蹤算法
檢測前跟蹤的基本思路是:紅外場景下,在不確定真實(shí)目標(biāo)的情況時,對所有的疑似目標(biāo)進(jìn)行跟蹤,然后根據(jù)序列圖像中各目標(biāo)的運(yùn)動、形態(tài)等信息,判斷出真實(shí)目標(biāo)的軌跡。相比之下,TBD算法更加復(fù)雜,能有效提高在復(fù)雜紅外場景下檢測出低信噪比目標(biāo)的可能性。主流的檢測前跟蹤算法有:管道濾波法、多假設(shè)檢驗(yàn)法、動態(tài)規(guī)劃法、貝葉斯估計(jì)及粒子濾波法、高階相關(guān)法和投影變換法等[6]。
1.3兩種目標(biāo)跟蹤算法的比較
DBT算法和TBD算法基于不同的思路設(shè)計(jì)。DBT算法難以處理背景復(fù)雜、目標(biāo)信噪比低的場景,容易遺漏目標(biāo);而TBD算法設(shè)計(jì)復(fù)雜、實(shí)時性不好。
但是DBT算法簡單,容易實(shí)現(xiàn),在紅外目標(biāo)跟蹤領(lǐng)域是不可或缺的一部分;而TBD算法善于處理背景復(fù)雜、目標(biāo)信噪比較低的跟蹤任務(wù)。兩種算法的性能對比如表1所示。
2深度學(xué)習(xí)方法在目標(biāo)跟蹤中的應(yīng)用
自2006年Hinton等人提出深度置信網(wǎng)絡(luò)以來[7],深度學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域大顯身手,解決了許多重要問題。深度學(xué)習(xí)首先在語音識別領(lǐng)域取得突破性進(jìn)展。2012年,基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型進(jìn)軍圖像分類領(lǐng)域,并取得了非常大的性能提升。目前深度學(xué)習(xí)算法已經(jīng)在圖像分類、語音識別、自動翻譯等領(lǐng)域處于絕對領(lǐng)先的地位,已有數(shù)種學(xué)習(xí)框架,如卷積神經(jīng)網(wǎng)絡(luò)[8]、遞歸神經(jīng)網(wǎng)絡(luò)[9]和孿生神經(jīng)網(wǎng)絡(luò)[10]。
航空兵器2019年第26卷第1期
莊旭陽,等:深度學(xué)習(xí)在紅外目標(biāo)跟蹤中的應(yīng)用展望2013年,深度學(xué)習(xí)開始進(jìn)軍目標(biāo)跟蹤領(lǐng)域,一系列優(yōu)秀算法逐漸在跟蹤精度上取得絕對優(yōu)勢。2016年,由Held[11]提出的GOTURN網(wǎng)絡(luò)完全拋棄線上的模型更新,在NVIDIATitian上可以達(dá)到165fps,是首個做到100fps的深度學(xué)習(xí)算法。從目前的研究成果來看,深度學(xué)習(xí)算法已然成為目標(biāo)跟蹤領(lǐng)域的重要組成部分,算法設(shè)計(jì)主要分為兩個思路:
(1)追求跟蹤精度。在測試階段,繼續(xù)進(jìn)行網(wǎng)絡(luò)的訓(xùn)練微調(diào):跟蹤的同時,在線提取目標(biāo)區(qū)域的正負(fù)樣本,每一幀跟蹤都對網(wǎng)絡(luò)進(jìn)行一次訓(xùn)練,防止目標(biāo)變化造成的跟蹤框漂移,最大化深度學(xué)習(xí)算法的跟蹤精度。
(2)兼顧速度精度。割棄在線的模型更新,損失一定精度,保證跟蹤速度:一般通過巧妙的模型設(shè)計(jì),盡可能讓離線訓(xùn)練替代在線更新,保證算法可觀的跟蹤精度,并擁有可以比擬傳統(tǒng)算法的跟蹤速度。
本文將從這兩個發(fā)展方向,對基于深度學(xué)習(xí)的目標(biāo)跟蹤算法進(jìn)行介紹。
2.1利用在線訓(xùn)練的深度學(xué)習(xí)網(wǎng)絡(luò)
在深度學(xué)習(xí)進(jìn)軍目標(biāo)跟蹤領(lǐng)域伊始,算法仍是利用目標(biāo)分類網(wǎng)絡(luò)進(jìn)行跟蹤,如SO-DLT[12]和FCNT[13]。近年來,研究者們設(shè)計(jì)出更加輕量級的、精度更好的專用于目標(biāo)跟蹤的網(wǎng)絡(luò)模型。
2.1.1基于多域卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)跟蹤
多域卷積神經(jīng)網(wǎng)絡(luò)(MDNet)[14]是VOT2015(VisualObjectTracking)[15]的冠軍,該方法設(shè)計(jì)了專門針對跟蹤任務(wù)的網(wǎng)絡(luò)模型。該網(wǎng)絡(luò)模型直接利用不同場景的視頻序列進(jìn)行訓(xùn)練,并為不同視頻設(shè)計(jì)各自的全連接層,以此來學(xué)習(xí)運(yùn)動目標(biāo)普遍的特征表示,增強(qiáng)跟蹤效果。MDNet在兩個公共數(shù)據(jù)集OTB[16]和VOT2014上進(jìn)行了充分驗(yàn)證,跟蹤精度達(dá)到90%以上。MDNet的訓(xùn)練流程如圖1所示。
MDNet將跟蹤看作二分類問題,缺乏應(yīng)對誤差累積效應(yīng)的機(jī)制。同時,由于在線微調(diào)模塊生成正負(fù)樣本數(shù)據(jù)量大,在線訓(xùn)練十分耗時,使得MDNet雖然取得了傲人的跟蹤精度卻在實(shí)時性上很糟糕,速度只有1~2fps。
2.1.2基于樹型卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)跟蹤
為了更好地應(yīng)對跟蹤過程中的誤差累積效應(yīng),MDNet的研發(fā)團(tuán)隊(duì)又提出了樹型卷積神經(jīng)網(wǎng)絡(luò)(TCNN)[17],是VOT2016的冠軍。TCNN認(rèn)為在目標(biāo)被遮擋或跟丟的情況下,更新模型已經(jīng)被污染,不能再根據(jù)此模型繼續(xù)進(jìn)行后續(xù)的跟蹤。用多個CNN跟蹤器組成一個樹型結(jié)構(gòu),每個CNN跟蹤器對結(jié)果估計(jì)的權(quán)重不同,通過計(jì)算所有CNN跟蹤器對目標(biāo)估計(jì)的加權(quán)平均得到每個候選框得分,得分最高的視為目標(biāo)。TCNN的結(jié)構(gòu)如圖2所示。
TCNN在解決遮擋、突變和跟丟的問題上更具優(yōu)勢,但是其算法耗時仍然是難以回避的問題,速度只有1.5fps。
2.2兼顧精度與速度的深度學(xué)習(xí)網(wǎng)絡(luò)
在線訓(xùn)練模塊雖然保證了深度學(xué)習(xí)模型高精度的跟蹤,但是無法完全滿足視頻跟蹤的實(shí)時性要求,近年來,越來越多的研究者開始嘗試設(shè)計(jì)能夠?qū)崟r跟蹤的深度學(xué)習(xí)跟蹤算法。
2.2.1基于全卷積孿生網(wǎng)絡(luò)的目標(biāo)跟蹤
基于全卷積孿生網(wǎng)絡(luò)的目標(biāo)跟蹤算法(SiameseFC)[10]是VOT2017跟蹤速度最快的深度學(xué)習(xí)算法,平均跟蹤速度可以達(dá)到86fps,同時具有一流的跟蹤精度。SiameseFC利用CNN分別對真實(shí)目標(biāo)框位置以及生成的目標(biāo)周圍區(qū)域進(jìn)行特征的映射,將真實(shí)目標(biāo)框映射得到的特征作為卷積核對目標(biāo)周圍搜索區(qū)域特征映射得到的特征卷積,相當(dāng)于對得到的兩個特征進(jìn)行了互相關(guān),得到的結(jié)果中數(shù)值最高的點(diǎn),即對應(yīng)下一幀目標(biāo)位置中心。SiameseFC網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。
模型中用于特征映射的兩個CNN是完全相同的,是一種典型的孿生網(wǎng)絡(luò),且該模型中只有卷積層和池化層,因此也是一種典型的全卷積(Fully-Convolutional)神經(jīng)網(wǎng)絡(luò)。
但是SiameseFC并不能區(qū)分不同的物體,只是通過高斯窗的平滑,很快抑制了較遠(yuǎn)的物體??偟膩碚f,SiameseFC并不適合背景嘈雜以及抖動劇烈的場景。
2.2.2孿生網(wǎng)絡(luò)啟發(fā)下的新發(fā)展
SiameseFC網(wǎng)絡(luò)雖然存在缺陷和不足,但基于網(wǎng)絡(luò)簡單、算法速度快的特點(diǎn),迅速成為研究熱點(diǎn),在保證高速跟蹤的前提下,基于孿生網(wǎng)絡(luò)的算法的跟蹤精度正在逼近現(xiàn)有方法的先進(jìn)水平。
在CVPR2018(IEEEConferenceonComputerVisionandPatternRecognition)中,HeAnfeng等人[18]提出的雙倍孿生網(wǎng)絡(luò)在50fps的速度下,在OTB2013/50/100數(shù)據(jù)集上精度優(yōu)于所有實(shí)時跟蹤算法;WangQiang等人[19]使用三個attention機(jī)制對SiameseFC特征的空間和channal進(jìn)行加權(quán),分解特征提取和判別性分析的耦合,提升網(wǎng)絡(luò)判別能力,其算法在80fps的跟蹤速度下,在最新的OTB2015和VOT2017數(shù)據(jù)集上跟蹤精度達(dá)到了行業(yè)領(lǐng)先水平;LiBo等人[20]利用孿生網(wǎng)絡(luò)和區(qū)域候選網(wǎng)絡(luò),構(gòu)建出一種高速高精度的單目標(biāo)跟蹤模型,該模型在160fps的速度下,在VOT2015和VOT2016數(shù)據(jù)集上跟蹤精度可以達(dá)到目前先進(jìn)水平。
3深度學(xué)習(xí)算法在紅外目標(biāo)跟蹤中的應(yīng)用探索
為了初步探索深度學(xué)習(xí)算法在紅外目標(biāo)跟蹤中的應(yīng)用前景,選擇目前主流的MDNet和SiameseFC跟蹤算法,對其做簡單的遷移和優(yōu)化,測試其紅外目標(biāo)跟蹤任務(wù)中的表現(xiàn)。測試視頻序列仿真了空中目標(biāo)投放干擾的過程,視頻長度為900幀,測試使用GPU為NvidiaTeslaP100。
根據(jù)實(shí)測情況,MDNet跟蹤效果更好,可以保證對整個視頻序列的準(zhǔn)確跟蹤,抗干擾能力強(qiáng),沒有目標(biāo)丟失的情況出現(xiàn),但其跟蹤速度很慢,在TeslaP100GPU速度僅為2~3fps,跟蹤結(jié)果如圖4所示。
而對于SiameseFC,可以完成對單目標(biāo)的實(shí)時跟蹤,但其抗干擾能力很弱。在未投放干擾階段,SiameseFC可以很好地跟蹤目標(biāo),但當(dāng)投放干擾時,SiameseFC便會跟上錯誤目標(biāo)。SiameseFC的算法速度很快,在TeslaP100GPU上可以達(dá)到80fps,跟蹤結(jié)果如圖5所示。
4深度學(xué)習(xí)算法在紅外目標(biāo)跟蹤中面臨的挑戰(zhàn)
作為紅外導(dǎo)引技術(shù)的重要子領(lǐng)域,紅外目標(biāo)跟蹤是一個極具挑戰(zhàn)性的研究課題,經(jīng)過數(shù)十年的努力,對一些簡單的紅外場景已經(jīng)可以很好地處理,但是面對場景復(fù)雜且干擾嚴(yán)重的情況,跟蹤效果并不理想。針對紅外場景圖像分辨率低、目標(biāo)像素信息匱乏、目標(biāo)邊沿輪廓模糊的特點(diǎn),深度學(xué)習(xí)應(yīng)用于紅外目標(biāo)跟蹤領(lǐng)域面臨的挑戰(zhàn)主要集中在以下幾個方面:
(1)紅外目標(biāo)成像面積小,像素對比度低,遠(yuǎn)距目標(biāo)通常只有幾個像素。而目前基于深度學(xué)習(xí)的目標(biāo)跟蹤算法需要足夠的像素輸入來提取語義信息,跟蹤的目標(biāo)尺度都在10×10以上,無法適應(yīng)紅外場景下小目標(biāo)的跟蹤。如何搭建針對小目標(biāo)跟蹤的深度網(wǎng)絡(luò)是一個需要進(jìn)一步開展工作的方向。
(2)缺乏紅外序列的數(shù)據(jù)集,沒有大數(shù)據(jù)的支撐,深度學(xué)習(xí)的優(yōu)勢很難發(fā)揮。目前,深度學(xué)習(xí)的研究大部分是基于通過網(wǎng)絡(luò)搜集的超大數(shù)據(jù)集。在紅外跟蹤領(lǐng)域還沒有系統(tǒng)的視頻數(shù)據(jù)集,對深度學(xué)習(xí)工作的開展極其不利。如何根據(jù)紅外目標(biāo)跟蹤的特點(diǎn),建立具有代表性、結(jié)合深度學(xué)習(xí)特點(diǎn)、測試方法嚴(yán)謹(jǐn)?shù)拇笠?guī)模數(shù)據(jù)集是一個亟待解決的問題。同時,作為軍事應(yīng)用,對立雙方都會采取保密措施,這使得紅外圖像集合中的絕大部分其實(shí)是己方的圖像,如何訓(xùn)練和測試網(wǎng)絡(luò),使得網(wǎng)絡(luò)能夠滿足對對方目標(biāo)的跟蹤也是軍事項(xiàng)目中特有的問題。
(3)紅外目標(biāo)跟蹤過程中存在干擾遮擋及長時間遮擋目標(biāo)的情況。目前基于深度學(xué)習(xí)的目標(biāo)跟蹤算法還局限于可見光波段的生活物體跟蹤,場景中出現(xiàn)相似干擾或長時間遮擋的情況很少。然而,紅外場景十分復(fù)雜,目標(biāo)與干擾往往很難區(qū)分,遮擋過程可能會持續(xù)很久。在應(yīng)對紅外目標(biāo)跟蹤領(lǐng)域這些全新的挑戰(zhàn)時,如何防止深度學(xué)習(xí)算法發(fā)生漂移,也將是一個很大的難題。
5思考及展望
深度學(xué)習(xí)方法在視覺目標(biāo)跟蹤領(lǐng)域的巨大成功,為移植或搭建適用于紅外目標(biāo)跟蹤的深度學(xué)習(xí)模型提供了可能。但跟蹤場景的差異性,注定了深度學(xué)習(xí)應(yīng)用于紅外目標(biāo)跟蹤領(lǐng)域時,需要進(jìn)行算法的優(yōu)化以及思路的轉(zhuǎn)換。若要在紅外目標(biāo)跟蹤領(lǐng)域達(dá)到兼具魯棒性、準(zhǔn)確性和實(shí)時性的跟蹤要求,還需要開展大量的研究工作。針對深度學(xué)習(xí)方法在紅外目標(biāo)跟蹤應(yīng)用中可能遇到的困難,提出以下幾點(diǎn)思考:
(1)遞歸神經(jīng)網(wǎng)絡(luò)的應(yīng)用。遞歸神經(jīng)網(wǎng)絡(luò)很重要的一個用途是處理和預(yù)測序列數(shù)據(jù),可能在紅外場景下有所作為。對于缺乏形狀和紋理特征的紅外目標(biāo),可以嘗試?yán)眉t外目標(biāo)的時間維度上的信息,通過遞歸神經(jīng)網(wǎng)絡(luò)進(jìn)行軌跡預(yù)測,賦予跟蹤算法記憶能力,有望減少跟蹤過程的漂移。同時,遞歸神經(jīng)網(wǎng)絡(luò)的記憶能力和軌跡預(yù)測能力一定程度上可以增強(qiáng)跟蹤過程中抗干擾遮擋的能力。如何利用遞歸神經(jīng)網(wǎng)絡(luò)做好目標(biāo)跟蹤,將是一個很好的探索方向。
(2)減少深度網(wǎng)絡(luò)的池化層。在卷積神經(jīng)網(wǎng)絡(luò)中池化層的作用是降低網(wǎng)絡(luò)參數(shù)的維度,減少特征的冗余,一定程度上防止過擬合。這樣的設(shè)定是源于視覺目標(biāo)跟蹤圖像的高分辨率,而對于紅外場景下的小目標(biāo)跟蹤,可以盡可能地減少池化層的數(shù)量,保留特征信息,減小可跟蹤目標(biāo)的尺度。
(3)擺脫線上對網(wǎng)絡(luò)的訓(xùn)練。目前視覺目標(biāo)跟蹤領(lǐng)域主要在解決對非特定目標(biāo)的普適跟蹤,測試的目標(biāo)很可能與訓(xùn)練樣本不是一個類別,這使得跟蹤算法很難擺脫線上對網(wǎng)絡(luò)的訓(xùn)練微調(diào),從而大大增加計(jì)算成本,算法實(shí)時性難以保證。紅外目標(biāo)跟蹤更偏向工程化應(yīng)用,大多跟蹤任務(wù)面向的是特定目標(biāo)的跟蹤,這為網(wǎng)絡(luò)設(shè)計(jì)擺脫線上訓(xùn)練,提高算法實(shí)時性提供了可能。
(4)設(shè)計(jì)專用于紅外目標(biāo)跟蹤的深度學(xué)習(xí)模型。紅外目標(biāo)跟蹤擁有自身的特點(diǎn)和難點(diǎn),嘗試搭建適合紅外目標(biāo)跟蹤的深度學(xué)習(xí)模型也是一個工作方向。紅外圖像是單通道圖像,且分辨率低,不需要很深的網(wǎng)絡(luò)架構(gòu)。同時,如果能夠利用紅外圖像數(shù)據(jù)量小的特點(diǎn),還可以為算法加速提供便利,進(jìn)一步增強(qiáng)實(shí)時性。
6結(jié)束語
在研究者們的不懈努力下,深度學(xué)習(xí)算法正在一步步占領(lǐng)視覺目標(biāo)跟蹤領(lǐng)域,繼傳統(tǒng)算法在精度上被超越之后,其速度領(lǐng)先也逐漸被縮小、抹平。深度學(xué)習(xí)在視覺目標(biāo)跟蹤領(lǐng)域的巨大成功為紅外目標(biāo)跟蹤任務(wù)提供了新的解決思路。盡管目前的算法可能不完全適用于紅外目標(biāo)跟蹤領(lǐng)域,但可以預(yù)見,深度學(xué)習(xí)進(jìn)軍紅外目標(biāo)跟蹤的號角即將吹響,這將是紅外目標(biāo)跟蹤領(lǐng)域的研究方向之一。
參考文獻(xiàn):
[1]張慧,王坤峰,王飛躍.深度學(xué)習(xí)在目標(biāo)視覺檢測中的應(yīng)用進(jìn)展與展望[J].自動化學(xué)報(bào),2017,43(8):1289-1305.
ZhangHui,WangKunfeng,WangFeiyue.AdvancesandPerspectivesonApplicationsofDeepLearninginVisualObjectDetection[J].ActaAutomaticaSinica,2017,43(8):1289-1305.(inChinese)
[2]黃成,王紅梅.干擾條件下的紅外目標(biāo)檢測方法研究[J].航空兵器,2017(5):31-36.
HuangCheng,WangHongmei.ResearchonInfraredTargetDetectionMethodunderJammingCondition[J].AeroWeaponry,2017(5):31-36.(inChinese)
[3]HintonGE,SalakhutdinovRR.ReducingtheDimensionalityofDatawithNeuralNetworks[J].Science,2006,313(5786):504-507.
[4]張惠娟,梁彥,程詠梅,等.運(yùn)動弱小目標(biāo)先跟蹤后檢測技術(shù)的研究進(jìn)展[J].紅外技術(shù),2006,28(7):423-430.
ZhangHuijuan,LiangYan,ChengYongmei,etal.AdvancesonTrackbeforeDetectforDimSmallMovingTargetDetection[J].InfraredTechnology,2006,28(7):423-430.(inChinese)
[5]周冰,王永仲,應(yīng)家駒.弱小目標(biāo)檢測技術(shù)淺析[J].紅外技術(shù),2007,29(1):30-33.
ZhouBing,WangYongzhong,YingJiaju.ASimpleAnalysisofDimTargetDetectionTechnology[J].InfraredTechnology,2007,29(1):30-33.(inChinese)
[6]侯旺,孫曉亮,尚洋,等.紅外弱小目標(biāo)檢測技術(shù)研究現(xiàn)狀與發(fā)展趨勢[J].紅外技術(shù),2015,37(1):1-10.
HouWang,SunXiaoliang,ShangYang,etal.PresentStateandPerspectivesofSmallInfraredTargetsDetectionTechnology[J].InfraredTechnology,2015,37(1):1-10.(inChinese)
[7]HintonGE,OsinderoS,TehYW.AFastLearningAlgorithmforDeepBeliefNets[J].NeuralComputation,2006,18(7):1527-1554.
[8]KrizhevskyA,SutskeverI,HintonGE.ImageNetClassificationwithDeepConvolutionalNeuralNetworks[C]∥InternationalConferenceonNeuralInformationProcessingSystems,2012,60(2):1097-1105.
[9]CuiZhen,XiaoShengtao,F(xiàn)engJiashi,etal.RecurrentlyTargetAttendingTracking[C]∥IEEEConferenceonComputerVisionandPatternRecognition,LasVegas,2016:1449-1458.
[10]BertinettoL,ValmadreJ,HenriquesJF,etal.FullyConvolutionalSiameseNetworksforObjectTracking[C]∥14thEuropeanConferenceonComputerVision,Amsterdam,2016:850-865.
[11]HeldD,ThrunS,SavareseS.LearningtoTrackat100FPSwithDeepRegressionNetworks[C]∥14thEuropeanConferenceonComputerVision,Amsterdam,2016:749-765.
[12]WangNY,LiSY,GuptaA,etal.TransferringRichFeatureHierarchiesforRobustVisualTracking[EB/OL].(2015-04-23)[2018-09-17].https:∥arxiv.org/pdf/1501.04587v2.pdf.
[13]WangLijun,OuyangWanli,WangXiaogang,etal.VisualTrackingwithFullyConvolutionalNetworks[C]∥ProceedingsoftheIEEEInternationalConferenceonComputerVision,Santiago,2015:3119-3127.
[14]NamH,HanB.LearningMultiDomainConvolutionalNeuralNetworksforVisualTracking[C]∥ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition,LasVegas,2016:4293-4302.
[15]VOTChallenge.VOT2015Benchmark[EB/OL].[2018-09-17].http:∥www.votchallenge.net/vot2015/.
[16]VisualTrackerBenchmark[EB/OL].[2018-09-17].http:∥cvlab.hanyang.ac.kr/tracker_benchmark/index.html.
[17]NamH,BaekM,HanB.ModelingandPropagatingCNNsinaTreeStructureforVisualTracking[C]∥ProceedingsoftheIEEEComputerVisionandPatternRecognition,2016:1-10.
[18]HeAnfeng,LuoChong,TianXinmei,etal.ATwofoldSiameseNetworkforRealTimeObjectTracking[C]∥ProceedingsoftheIEEEComputerVisionandPatternRecognition,2018.
[19]WangQiang,TengZhu,XingJunliang,etal.LearningAttentions:ResidualAttentionalSiameseNetworkforHighPerformanceOnlineVisualTracking[C]∥ProceedingsoftheIEEEConferenceonComputerVisionandPattemRecognition,2018.
[20]LiBo,YanJunjie,WuWei,etal.HighPerformanceVisualTrackingwithSiameseRegionProposalNetwork[C]∥ProceedingsoftheIEEEConferenceonComputerVisionandPattemRecognition,2018.