馮雪,杜猛俊,向新宇,錢錦,張敏
(國網(wǎng)浙江省電力有限公司杭州供電公司,杭州 310000)
近年來,隨著中國經(jīng)濟(jì)的飛速發(fā)展,電力建設(shè)的規(guī)模也隨之逐年擴(kuò)大。據(jù)國家電網(wǎng)統(tǒng)計,截至2018年底,110 kV 及以上輸電線路長度已達(dá)103.34×104km。這對電網(wǎng)運(yùn)行的穩(wěn)定性和安全性帶來了更高挑戰(zhàn),對變電、輸電、配電等電力系統(tǒng)各環(huán)節(jié)的巡檢提出了更高要求。傳統(tǒng)的人工巡檢方式由于巡檢周期長、效率低、無法覆蓋復(fù)雜地形和惡劣環(huán)境等問題,已無法滿足當(dāng)前電網(wǎng)的巡檢要求。隨著人工智能和計算機(jī)視覺領(lǐng)域的蓬勃發(fā)展,智能電力巡檢方式逐漸成為當(dāng)前電力領(lǐng)域的研究熱點。
事實上,由于輸電線路和桿塔等電力設(shè)備長期暴露在戶外,常常受到各種鳥類、風(fēng)箏、氣球或者空中漂浮塑料袋等移動物體的干擾和威脅,以及工作人員進(jìn)行維修攀爬等作業(yè)時帶來的安全隱患。因此,對運(yùn)動目標(biāo)隱患的檢測和追蹤是電力傳輸系統(tǒng)亟待解決的重要問題?,F(xiàn)有針對電力傳輸系統(tǒng)監(jiān)控視頻流中運(yùn)動物體的檢測方法主要是基于對固定攝像頭拍攝的視頻幀進(jìn)行目標(biāo)檢測,雖然該方法可以取得不錯的準(zhǔn)確率,但是存在兩方面局限:①由于需要對各視頻幀進(jìn)行目標(biāo)檢測,檢測的實時性無法得到保證。②由于固定攝像頭的視野有限,對于運(yùn)動物體常常存在追蹤丟失問題,即運(yùn)動物體移出視野外。因此,為提高目標(biāo)追蹤的準(zhǔn)確率和實時性,本文旨在基于無人機(jī)視覺,并結(jié)合目標(biāo)檢測和目標(biāo)追蹤技術(shù)對電力場景中運(yùn)動目標(biāo)進(jìn)行實時追蹤。該方法具有操作靈活、效率高、對環(huán)境要求低等優(yōu)勢,有利于解決電力領(lǐng)域的實際應(yīng)用問題。
然而,在電力場景下,基于無人機(jī)視覺的運(yùn)動目標(biāo)追蹤技術(shù)的研究存在諸多挑戰(zhàn)。①為了保證方法的實時性,現(xiàn)有基于目標(biāo)檢測和目標(biāo)追蹤相結(jié)合的方法,通常假設(shè)運(yùn)動目標(biāo)的移動速度較慢,即目標(biāo)的前后幀位移較小。因此,如何有效追蹤各種運(yùn)動速度的物體,降低追蹤丟失的問題是本文工作的首要挑戰(zhàn)。②為提高方法的準(zhǔn)確性,保證運(yùn)動目標(biāo)始終保持在無人機(jī)視野的中心,如何有效控制無人機(jī)的飛行速度和方向是另一個重要挑戰(zhàn)。
為了解決以上挑戰(zhàn),本文設(shè)計了一個電力場景下基于無人機(jī)視覺的運(yùn)動目標(biāo)追蹤方法(moving target tracking scheme based on UAV vision for electric scenario,MTTS_UAV),包括追蹤模塊、飛行控制模塊兩部分。對于追蹤模塊,本文基于目標(biāo)檢測方法YOLOv3[1]和目標(biāo)追蹤方法核相關(guān)濾波(kernel correlation filter,KCF)[2]對隱患目標(biāo)進(jìn)行實時低功耗定位與追蹤;對于飛行控制模塊,本文提出了2種解決辦法:啟發(fā)式飛行控制模塊和數(shù)據(jù)驅(qū)動的飛行控制模塊。其中,啟發(fā)式飛行策略旨在針對不同速度的移動物體自適應(yīng)調(diào)節(jié)無人機(jī)的飛行速度和方向,進(jìn)而使隱患目標(biāo)一直處在畫面中心;數(shù)據(jù)驅(qū)動的飛行策略根據(jù)預(yù)先提取的無人機(jī)追蹤目標(biāo)位移序列,基于門控循環(huán)神經(jīng)網(wǎng)絡(luò)(gated recurrent neural network,GRU)[3]預(yù)測每一幀無人機(jī)的位移。
本文提出了一個電力場景下基于無人機(jī)視覺的運(yùn)動目標(biāo)追蹤方法。所提方法通過結(jié)合目標(biāo)檢測和目標(biāo)追蹤方法,使用無人機(jī)可以對電力場景下的運(yùn)動目標(biāo)隱患進(jìn)行準(zhǔn)確地實時追蹤。特別地,本文提出了2種飛行控制模塊:啟發(fā)式飛行控制模塊和數(shù)據(jù)驅(qū)動的飛行控制模塊。這些模塊可以使無人機(jī)自適應(yīng)地調(diào)整飛行速度和方向。此外,本文基于電力場景中的真實數(shù)據(jù)集,開展了大量實驗。相關(guān)結(jié)果證實了本文所提模型的有效性。
目標(biāo)檢測任務(wù)旨在找出圖像中所有感興趣的目標(biāo)(物體),確定它們的類別和位置,這是計算機(jī)視覺領(lǐng)域的核心問題之一,也是電力場景中智能巡檢的重要組成部分。傳統(tǒng)的目標(biāo)檢測方法大多基于手工特征所構(gòu)建。例如,2001年Viola和Jones[4]建立了一種稱為積分圖像的特征,在極為有限的計算資源下第1次實現(xiàn)了人臉的實時檢測,即Viola-Jones目標(biāo)檢測器,速度是同期檢測方法的幾十甚至上百倍;之后,文獻(xiàn)[5]提出了方向梯度直方圖特征的HOG行人檢測器,為了兼顧速度和性能,采用的分類器通常為線性分類器[6]或級聯(lián)決策分類器[7]等。由于深度學(xué)習(xí)的快速發(fā)展和廣泛運(yùn)用,許多檢測能力和實時性都很優(yōu)秀的基于深度學(xué)習(xí)的算法被提出,如 Fast RCNN[8]、Faster R-CNN[9]、YOLOv3[1]、SSD[10]等。面向智能電網(wǎng)領(lǐng)域,這些基于深度學(xué)習(xí)的目標(biāo)檢測方法也取得了一些成績。例如,吳冬梅等[11]針對作業(yè)人員不佩戴安全帽、越界操作等違規(guī)行為,提出了一種基于改進(jìn)的Faster R-CNN的安全帽佩戴檢測及身份識別方法。董召杰[12]針對自動巡檢的精度和速度需求,提出了基于YOLOv3的電力線多種關(guān)鍵部件的實時檢測方法,構(gòu)建了包含5種電力線關(guān)鍵部件的數(shù)據(jù)集,并在該數(shù)據(jù)集上應(yīng)用YOLOv3實現(xiàn)了高精度實時檢測。雖然現(xiàn)有方法在面向電力領(lǐng)域的目標(biāo)檢測任務(wù)中取得了一定成功,但是其在電力場景中運(yùn)動目標(biāo)追蹤任務(wù)中的應(yīng)用尚未被探索。本文利用目前先進(jìn)的目標(biāo)檢測方法糾正目標(biāo)追蹤過程中的目標(biāo)丟失或追錯問題,提高了電力系統(tǒng)中運(yùn)動目標(biāo)追蹤的準(zhǔn)確性和實時性。
目標(biāo)追蹤任務(wù)旨在給定目標(biāo)的初始位置,計算出后續(xù)每幀圖像中目標(biāo)的位置信息。國內(nèi)外的科研工作者對該問題進(jìn)行了廣泛研究。例如,Xiang[13]提出了一種單PTZ攝像頭下的快速運(yùn)動物體的實時跟蹤方法,引入了卡爾曼濾波算法和感興趣區(qū)域(region of interest,ROI)來達(dá)到跟蹤快速物體的效果。Zhang等[14]提出了一個基于單PTZ攝像頭的視頻監(jiān)控系統(tǒng),利用背景差分的方法檢測出運(yùn)動目標(biāo)。然而這些傳統(tǒng)的靜態(tài)攝像頭下的目標(biāo)追蹤,受限于攝像頭視角的有限性,難以對感興趣目標(biāo)進(jìn)行大范圍和長時間的跟蹤。近年來,隨著無人機(jī)技術(shù)的發(fā)展,基于無人機(jī)進(jìn)行目標(biāo)追蹤被廣泛應(yīng)用于航拍、電力巡檢、物流、軍事偵察、目標(biāo)打擊等領(lǐng)域。例如,Dong和Zou[15]介紹了基于視覺的無人機(jī)目標(biāo)追蹤方法,采用數(shù)傳將攝像機(jī)采集到的圖像數(shù)據(jù)發(fā)送到遠(yuǎn)端進(jìn)行處理后再發(fā)送指令給無人機(jī)。林勇等[16]介紹了一種基于合作目標(biāo)的無人機(jī)目標(biāo)追蹤方法,能夠?qū)崿F(xiàn)準(zhǔn)確跟蹤,主要用于危險物排除。
盡管上述方法取得了突破性進(jìn)展,但大多只考慮了改進(jìn)追蹤方法,而沒有采用一定的控制策略以控制無人機(jī)飛行,使其達(dá)到變速飛行的效果,無法在復(fù)雜電力場景中對運(yùn)動隱患目標(biāo)進(jìn)行有效追蹤。因此,本文提出了一種電力場景下基于視覺的運(yùn)動目標(biāo)追蹤方法,通過目標(biāo)檢測和目標(biāo)追蹤相結(jié)合的方式,再引入啟發(fā)式和數(shù)據(jù)驅(qū)動的飛行控制模塊,采用一定的控制策略控制無人機(jī)飛行,對電力系統(tǒng)中的運(yùn)動隱患實時追蹤,保障電力系統(tǒng)安全運(yùn)行。
假設(shè)無人機(jī)拍攝的實時視頻流表示為v=[I1,I2,…,IN],Ij表示視頻流中的第j幀圖像,N為視頻的幀數(shù)。本文使用t0=(x0,y0,w0,h0)表示待追蹤的運(yùn)動目標(biāo)的初始位置,其中,(x0,y0)表示圖像中初始目標(biāo)框的左上角坐標(biāo),w0和h0分別為目標(biāo)框的寬度和高度。本文所提出的電力場景下基于無人機(jī)視覺的運(yùn)動目標(biāo)追蹤方法,旨在基于給定的目標(biāo)初始位置t0,通過實時調(diào)整無人機(jī)的飛行速度和方向,也就是無人機(jī)的幀間位置偏移量,追蹤目標(biāo)在視頻流中各幀的位置,即tj=(xj,yj,wj,hj),j=1,2,…,N,其中,(xj,yj)表示運(yùn)動目標(biāo)框在第j幀圖像中的左上角坐標(biāo),wj和hj分別為目標(biāo)框的寬度和高度。
為了準(zhǔn)確實時地對電力場景下運(yùn)動的隱患目標(biāo)進(jìn)行追蹤,本文采用目標(biāo)追蹤和目標(biāo)檢測相結(jié)合的方式,在目標(biāo)追蹤方法追錯或追丟的情況下,能夠通過目標(biāo)檢測方法及時糾正或找回,進(jìn)而保障追蹤的準(zhǔn)確性。具體而言,本文有機(jī)結(jié)合了簡潔高效的目標(biāo)追蹤方法KCF和目標(biāo)檢測方法YOLOv3,其具體模型結(jié)構(gòu)如圖1所示。值得一提的是,本文所提框架也適用于其他的目標(biāo)檢測和目標(biāo)追蹤方法。

圖1 電力場景下基于無人機(jī)視覺的運(yùn)動目標(biāo)追蹤方法結(jié)構(gòu)Fig.1 Framework of UAV-vision-based moving target tracking scheme in electric scenario
2.2.1 KCF目標(biāo)追蹤
經(jīng)典的KCF追蹤算法,通過使用循環(huán)移位得到的循環(huán)矩陣來采集正負(fù)樣本,利用循環(huán)矩陣在傅里葉空間可對角化的性質(zhì),將矩陣的運(yùn)算轉(zhuǎn)化為元素的點乘,從而降低了運(yùn)算量,使得算法滿足實時性要求,在眾多目標(biāo)追蹤相關(guān)任務(wù)中取得了出色的效果[17-20]。為了保證追蹤效果,本文選擇KCF常見的提高算法判別能力的高斯核函數(shù)[2],其表達(dá)式為

式中:x和x′分別為2個任意樣本;σ為標(biāo)準(zhǔn)差;F-1代表傅里葉逆變換;“⊙”表示內(nèi)積。
根據(jù)KCF算法,可以得到待追蹤運(yùn)動目標(biāo)在每一幀的坐標(biāo)位置tj=(xj,yj,wj,hj)。
為了降低追蹤目標(biāo)丟失的可能性,本文提出采用YOLOv3來重新捕獲可能丟失的運(yùn)動目標(biāo),以提高模型效果。如果基于KCF算法預(yù)測的相鄰2幀的目標(biāo)區(qū)域tj和tj-1之間的顏色直方圖相似性小于一定閾值γ1,或者當(dāng)前幀未檢測到運(yùn)動目標(biāo),則觸發(fā)目標(biāo)檢測方法YOLOv3來重新選定目標(biāo)區(qū)域,以開展后續(xù)的目標(biāo)追蹤。本文相似性采用最直觀的相鄰幀直方圖相似性。令Hj-1和Hj分別表示第j-1和第j幀的目標(biāo)區(qū)域tj-1和tj的顏色直方圖向量。當(dāng)前幀Ij和前一幀Ij-1的目標(biāo)區(qū)域的直方圖相似性S的計算如下:


此時,根據(jù)YOLOv3預(yù)測的當(dāng)前幀目標(biāo)區(qū)域^tj與KCF追蹤算法預(yù)測的前一幀目標(biāo)區(qū)域tj-1的相似性是否大于閾值γ2,判定當(dāng)前YOLOv3檢測到的目標(biāo)區(qū)域^tj是否應(yīng)當(dāng)被選作新的目標(biāo),供后續(xù)KCF追蹤。為了增強(qiáng)模型的準(zhǔn)確性,不僅考慮了基于直方圖的相似度,也考慮了當(dāng)前幀和前一幀目標(biāo)框的空間相似度,即交并比IOU,設(shè)其閾值為δ,計算公式如下:


基于2.2節(jié)所述追蹤模塊,可以獲得當(dāng)前幀運(yùn)動目標(biāo)的位置。為了增強(qiáng)追蹤效果,使待追蹤目標(biāo)保持在無人機(jī)的視野中心,本文引入了2種飛行控制模塊,以引導(dǎo)無人機(jī)以合適的速度和方向追蹤目標(biāo),具體為啟發(fā)式飛行控制模塊和數(shù)據(jù)驅(qū)動的飛行控制模塊。
2.3.1 啟發(fā)式飛行控制模塊
很顯然,在控制無人機(jī)追蹤時,不能單純地依靠單一速度來追蹤不同的物體。因此,本文提出無人機(jī)應(yīng)能夠自適應(yīng)地追蹤具有不同速度的運(yùn)動目標(biāo)。直觀上說,無人機(jī)的速度應(yīng)當(dāng)和運(yùn)動物體的速度保持一致,以防止無人機(jī)速度過快帶來的搖擺情況和速度過慢引起的目標(biāo)丟失等問題。為此,本文首先按照式(5)計算無人機(jī)速度vj,即




為全面驗證本文提出的面向電力場景中基于無人機(jī)視覺的運(yùn)動目標(biāo)追蹤方法的效果和實時性,采用真實變電站的數(shù)據(jù)集進(jìn)行了充分實驗,其中,真實變電站數(shù)據(jù)集共計24個電力場景佩戴安全帽人員追蹤視頻。
為訓(xùn)練數(shù)據(jù)驅(qū)動的飛行控制模塊,對每個視頻進(jìn)行100次隨機(jī)控制追蹤。每個視頻都可以獲得100個長短不一的目標(biāo)序列和對應(yīng)的無人機(jī)位置序列。隨后,對所有獲得的視頻序列根據(jù)序列長度進(jìn)行排序,挑選出長度最長的1 000個序列作為訓(xùn)練樣本。由于視頻序列長度較長,以及考慮無人機(jī)控制的穩(wěn)定性,進(jìn)一步對這些序列進(jìn)行了截取。具體地,將序列截取成長度為10 s的序列。最終,獲得了1 354個序列數(shù)據(jù)。
使用的視頻流中的所有圖像幀經(jīng)過預(yù)處理后,大小均為960×540。對于真實變電站安全帽人員數(shù)據(jù)集進(jìn)行劃分,其中80%作為訓(xùn)練集,10%作為驗證集,10%作為測試集。采用網(wǎng)格搜索策略來決定網(wǎng)絡(luò)中超參數(shù)的最優(yōu)值,同時根據(jù)已有經(jīng)驗,分別設(shè)置了追蹤模塊中的顏色直方圖相似性、追蹤目標(biāo)重定位模塊中的顏色直方圖相似性、追蹤模塊中的空間相似度閾值,即γ1=0.7,γ2=0.1,δ=0.01。通過多次迭代訓(xùn)練優(yōu)化模型,得到最佳效果的本文方法模型。對于數(shù)據(jù)驅(qū)動的飛行控制模塊,使用PyTorch構(gòu)建模型并完成訓(xùn)練。其中,GRU與全連接層的隱含狀態(tài)個數(shù)均設(shè)置為10,學(xué)習(xí)效率設(shè)置為0.001,優(yōu)化方法使用隨機(jī)梯度下降法,通過多次迭代訓(xùn)練優(yōu)化模型。
為進(jìn)一步評估本文方法在電力場景中對運(yùn)動隱患目標(biāo)的追蹤效果,采用目標(biāo)追蹤任務(wù)中常用的評價指標(biāo)——平均像素誤差(average pixel error,APE)、平均重疊率(average overlap rate,AOR)、平均重啟次數(shù)及平均連續(xù)追蹤幀數(shù)。
根據(jù)OTB標(biāo)準(zhǔn)[23],平均像素誤差指的是預(yù)測目標(biāo)中心位置與真實目標(biāo)中心位置的平均歐氏距離,平均重疊率指的是預(yù)測目標(biāo)框和真實目標(biāo)框面積的平均交并比,其具體計算公式如下:

另外,在視頻跟蹤處理的一段序列中,當(dāng)目標(biāo)丟失或者顏色直方圖相似性低于閾值γ1(本文設(shè)置的γ1為0.7),則判定為跟蹤失敗,并重新初始化目標(biāo)框。因此,根據(jù)VOT2013[24]標(biāo)準(zhǔn),本文采用平均重啟次數(shù)來評價追蹤器跟蹤目標(biāo)的穩(wěn)定性。追蹤器的魯棒性定義如下:

式中:F(k)為追蹤器在第k次重復(fù)追蹤中失敗的次數(shù);Nrep為重復(fù)追蹤次數(shù)。
同時,根據(jù)VOT2015[25]標(biāo)準(zhǔn),本文定義了評估指標(biāo)平均連續(xù)追蹤幀數(shù),即上一次跟蹤失敗后能夠持續(xù)跟蹤的視頻幀的平均數(shù)量。
由于控制無人機(jī)進(jìn)行實驗不具備可重復(fù)性,本文在視頻追蹤上設(shè)置了與真實情況下無人機(jī)相對應(yīng)的感知窗口,對無人機(jī)的移動進(jìn)行模擬實驗。在安全帽數(shù)據(jù)集上,分別對本文提出的啟發(fā)式飛行控制模塊和數(shù)據(jù)驅(qū)動的飛行控制模塊進(jìn)行了評估。共有2組對照實驗:實驗1比較了3個不同策略下平均像素誤差和平均重疊率,實驗2比較了啟發(fā)式飛行控制模塊和數(shù)據(jù)驅(qū)動的飛行控制模塊的追蹤效果;實驗3對模型的參數(shù)敏感性進(jìn)行了分析。
3.4.1 實驗1
在本節(jié)實驗中,分別設(shè)置了3組對照實驗:目標(biāo)檢測+啟發(fā)式飛行控制模塊、目標(biāo)檢測+KCF+啟發(fā)式飛行控制模塊和目標(biāo)檢測+KCF+數(shù)據(jù)驅(qū)動的飛行控制模塊。
1)目標(biāo)檢測+啟發(fā)式飛行控制模塊(方法1)。目標(biāo)檢測采用YOLOv3算法,飛行控制模塊通過對目標(biāo)檢測中目標(biāo)移動距離的預(yù)測值進(jìn)行加權(quán),得到窗口移動的位移值。該位移模擬了無人機(jī)追蹤場景下無人機(jī)的位移。其中無人機(jī)的飛行速度由超參w控制。
2)目標(biāo)檢測+KCF+啟發(fā)式飛行控制模塊(方法2)。在方法1的基礎(chǔ)上,添加KCF算法,旨在當(dāng)目標(biāo)丟失時,再啟動目標(biāo)檢測方法。
3)目標(biāo)檢測+KCF+數(shù)據(jù)驅(qū)動的飛行控制模塊(本文方法)。在方法2的基礎(chǔ)上,替換啟發(fā)式飛行控制模塊為基于深度學(xué)習(xí)的數(shù)據(jù)驅(qū)動的飛行控制模塊。
3.4.2 實驗2
本節(jié)實驗中在啟用KCF的平等環(huán)境下,對比啟發(fā)式飛行控制模塊和數(shù)據(jù)驅(qū)動的飛行控制模塊,比較其在追蹤目標(biāo)時的平均重啟次數(shù)與平均連續(xù)追蹤幀數(shù)。重啟目標(biāo)檢測的次數(shù)越少,意味著追蹤越不容易丟失目標(biāo),越流暢。連續(xù)追蹤幀數(shù)越大,代表著追蹤時長越長,追蹤能力越強(qiáng)。
3.4.3 實驗3
為了全面驗證本文模型,對模型的3個重要參數(shù):追蹤中的當(dāng)前幀和前一幀目標(biāo)框顏色直方圖相似性閾值γ1、目標(biāo)重定位中的直方圖相似性閾值γ2、空間相似度閾值δ,分別進(jìn)行了參數(shù)敏感性實驗。將追蹤中的顏色直方圖相似性閾值γ1設(shè)置在[0.1,0.9]范圍內(nèi),并以0.2為步長進(jìn)行調(diào)節(jié);將目標(biāo)重定位中的直方圖相似性閾值γ2設(shè)置在[0.1,0.5]范圍內(nèi),并以0.1為步長進(jìn)行調(diào)節(jié);將空間相似度閾值δ設(shè)置在[0.001,0.003,0.01,0.03,0.1]中取值。
3.4.4 實驗結(jié)果分析
從實驗1模塊的對比中可以看出,啟發(fā)式飛行控制模塊中超參w的設(shè)置對檢測的效果有明顯的影響。隨著啟發(fā)式飛行控制模塊參數(shù)w從初始值1開始增加,檢測的效果開始逐漸提升,并在w=2后這種趨勢逐漸放緩。同時,從表1和表2的對比結(jié)果可以看出,盡管本文提出的數(shù)據(jù)驅(qū)動的飛行控制方法效果只是接近方法1的最優(yōu)值(w=5),但是由于方法1需要對每一幀進(jìn)行目標(biāo)檢測,其時間代價遠(yuǎn)遠(yuǎn)大于目標(biāo)檢測與目標(biāo)追蹤結(jié)合的方法2和本文方法。

表1 平均像素誤差結(jié)果統(tǒng)計Table 1 Statistical results of average pixel error

表2 平均重疊率結(jié)果統(tǒng)計Table 2 Statistical results of average overlap rate
實驗2對比了啟發(fā)式飛行控制模塊和數(shù)據(jù)驅(qū)動的飛行控制模塊的平均重啟次數(shù)和平均連續(xù)追蹤幀數(shù)。如表3和表4所示,數(shù)據(jù)驅(qū)動的飛行控制模塊平均重啟次數(shù)36.70明顯小于啟發(fā)式飛行控制模塊,即在相同的幀數(shù)內(nèi)數(shù)據(jù)驅(qū)動的飛行控制模塊的追蹤效果更好。對比連續(xù)追蹤幀數(shù)可以發(fā)現(xiàn),數(shù)據(jù)驅(qū)動的飛行控制模塊可以連續(xù)追蹤到41幀,也高于啟發(fā)式飛行控制模塊,說明其追蹤效果較強(qiáng)。

表3 平均重啟次數(shù)統(tǒng)計Table 3 Statistics of average restart times

表4 平均連續(xù)追蹤幀數(shù)統(tǒng)計Table 4 Statistics of the number of average consecutive tracking frames
實驗3對模型進(jìn)行了參數(shù)敏感度分析,分別探索了超參(γ1、γ2和δ)對于目標(biāo)追蹤效果的影響。如圖2所示,本文模型對于各參數(shù)均表現(xiàn)出了良好的魯棒性。當(dāng)γ1在0.3~0.9之間,γ2在0.1~0.5之間,δ在0.003~0.1之間,模型取得的平均像素誤差和平均重疊率均變化不大。但是當(dāng)γ1=0.1或者δ=0.001時,模型在平均像素誤差這一評價指標(biāo)上變化較大。說明當(dāng)顏色直方圖相似性閾值或者空間相似度閾值過低,可能會造成目標(biāo)追丟或者追錯問題。因此,合理設(shè)置超參對目標(biāo)追蹤的效果能起到一定的促進(jìn)作用。

圖2 參數(shù)敏感性實驗結(jié)果Fig.2 Sensitivity analysis w.r.t.different γ1,γ2 and δ
1)本文方法可實現(xiàn)較為優(yōu)異的電力場景下的運(yùn)動目標(biāo)追蹤性能,基于真實數(shù)據(jù)集,平均像素誤差和平均重疊率分別可達(dá)到2.37和0.67,平均重啟次數(shù)和平均連續(xù)追蹤幀數(shù)分別可達(dá)到36.70和41.00,驗證了方法的有效性。
2)通過采用目標(biāo)檢測和目標(biāo)追蹤相結(jié)合的方式,能夠彌補(bǔ)追丟和追錯目標(biāo)的不足。
3)引入2種飛行控制模塊,使無人機(jī)可以自適應(yīng)地調(diào)節(jié)飛行速度和方向。
本文方法目前著眼于考慮圖像特征。在未來工作中,將引入光流、紅外、聲音等信息,進(jìn)一步提高電力場景中對運(yùn)動隱患目標(biāo)的追蹤效果。