999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于SE-Hardnet網(wǎng)絡(luò)的無人機(jī)圖像目標(biāo)匹配算法

2024-01-01 00:00:00蘇文博房群忠徐保樹張程碩
關(guān)鍵詞:特征區(qū)域檢測

摘 要:針對無人機(jī)對目標(biāo)進(jìn)行匹配定位過程中,面臨圖像旋轉(zhuǎn)變化及視角尺寸過小導(dǎo)致的圖像特征提取困難等問題,提出了一種融合候選區(qū)域檢測與SEHardnet特征提取網(wǎng)絡(luò)的無人機(jī)目標(biāo)圖像匹配算法。通過EdgeBoxes算法檢測候選區(qū)域,結(jié)合SEHardnet網(wǎng)絡(luò)進(jìn)行特征提取,實(shí)現(xiàn)了目標(biāo)圖像的精確匹配。實(shí)驗(yàn)結(jié)果表明,所提算法在圖像發(fā)生角度、尺寸變化時(shí),具有更高的匹配正確率和魯棒性,在近距離條件下圖片數(shù)據(jù)集中的匹配正確率比現(xiàn)階段圖像匹配算法高8% ~11%。為無人機(jī)目標(biāo)定位提供了一種可行和有效的手段。

關(guān) 鍵 詞:圖像匹配;候選區(qū)域檢測;EdgeBoxes算法;特征提取;注意力機(jī)制;SEHardnet網(wǎng)絡(luò);相似性度量;無人機(jī)目標(biāo)定位

中圖分類號:TP391.41 文獻(xiàn)標(biāo)志碼:A 文章編號:1000-1646(2024)05-0693-09

近年來,無人機(jī)在幾次高技術(shù)局部戰(zhàn)爭中的卓越表現(xiàn)引起了世界各國的高度重視,許多國家開始大力發(fā)展軍用無人機(jī)技術(shù)。為了滿足現(xiàn)代信息化戰(zhàn)爭精確打擊的要求,利用無人機(jī)偵察圖像實(shí)現(xiàn)對探測目標(biāo)的精確定位成為研究熱點(diǎn)[1]。由于無人機(jī)具有飛行特性復(fù)雜、飛行高度較高、成像條件多變的特點(diǎn)[2],無人機(jī)偵察圖像與目標(biāo)基準(zhǔn)圖像不可避免地存在尺度、角度的不同。為了解決該問題,實(shí)現(xiàn)對目標(biāo)基準(zhǔn)圖像的精確定位,需要把無人機(jī)圖像與目標(biāo)基準(zhǔn)圖像進(jìn)行精確匹配,因此,構(gòu)建對圖像尺度、旋轉(zhuǎn)變化具有更好的魯棒性,準(zhǔn)確度高的圖像匹配算法成為其中的關(guān)鍵。

檢測技術(shù)是解決圖像匹配問題的一種潛在方法,目前流行的目標(biāo)檢測算法(如YOLOV8[3]和FasterRCNN[4]等)通過收集大量的目標(biāo)數(shù)據(jù),并對這些數(shù)據(jù)進(jìn)行詳細(xì)地標(biāo)注和訓(xùn)練學(xué)習(xí),可以準(zhǔn)確地檢測指定的目標(biāo)。由于對數(shù)據(jù)集的強(qiáng)烈依賴,模型的泛化能力往往受到限制。特別在某些特定領(lǐng)域或應(yīng)用場景中,目標(biāo)數(shù)據(jù)非常匱乏,如建筑圖像匹配定位、稀有物種匹配定位等。因此,只利用幾張簡單圖像實(shí)現(xiàn)目標(biāo)匹配的能力變得尤為重要。

近年來,圖像匹配方法從傳統(tǒng)的特征點(diǎn)檢測與匹配(如尺度不變特征變換(SIFT)[5]和加速穩(wěn)健特征(SURF)[6]算法)逐步發(fā)展到利用深度學(xué)習(xí)提取局部特征點(diǎn)(如LoFTR[7]和SuperPoint[8]算法),但這些方法需對圖像下采樣,常忽略無人機(jī)圖像中小尺寸物體的特征,不適用于無人機(jī)圖像匹配。線特征由于其豐富的場景和對象結(jié)構(gòu)信息而受到關(guān)注,MSLD算法[9]通過分析梯度向量構(gòu)建描述子矩陣,提高了描述符的魯棒性。但線段匹配依賴于端點(diǎn),容易受到無人機(jī)圖像中常見的遮擋和變形影響。區(qū)域特征因其不變性和穩(wěn)定性成為有效的匹配途徑,如最大穩(wěn)定極值區(qū)域(MSER)[10]和FASTMatch算法[11]。此外,基于深度學(xué)習(xí)的圖像區(qū)域匹配成為新興的研究熱點(diǎn),MatchNet算法[12]通過卷積神經(jīng)網(wǎng)絡(luò)(CNN)執(zhí)行圖像區(qū)域特征提取和相似性度量;Hardnet算法[13]則利用CNN比較灰度圖像塊的相似性。

現(xiàn)階段圖像匹配算法通常直接對整幅圖像進(jìn)行下采樣以提取特征,完成圖像匹配任務(wù)[14]。該方法對于尺寸較大的物體在匹配效果上表現(xiàn)良好。然而,從無人機(jī)視角拍攝的物體通常較小,且特征不明顯,這使得實(shí)現(xiàn)精確匹配變得極為困難。此外,無人機(jī)的飛行高度、飛行姿態(tài)以及圖像采集條件的動態(tài)隨機(jī)性增加了圖像特征提取和匹配的難度,從而嚴(yán)重影響了圖像匹配的精度。

鑒于上述問題,本研究提出了一種通用的圖像匹配算法,只需要獲取目標(biāo)圖像的幾張圖片,就可以實(shí)現(xiàn)準(zhǔn)確匹配定位。該算法首先對整幅圖像進(jìn)行目標(biāo)候選區(qū)域檢測,避免了因下采樣而導(dǎo)致的小目標(biāo)特征提取不足問題。隨后,對檢測到的區(qū)域進(jìn)行特征提取,通過相似性度量實(shí)現(xiàn)匹配區(qū)域檢測。通過候選區(qū)域檢測初步篩選關(guān)注區(qū)域,然后針對這些區(qū)域進(jìn)行深入的特征提取和匹配,這不僅提高了小目標(biāo)匹配的準(zhǔn)確性,也增強(qiáng)了算法在面對無人機(jī)偵察圖像時(shí)的魯棒性。

1 候選區(qū)域提取算法

候選區(qū)域提取算法基于一種核心理念:物體與其背景之間可以通過視覺特性差異進(jìn)行區(qū)分。算法通過識別這些視覺特性,在整幅圖像中分離出可能含有目標(biāo)物體的區(qū)域,以便進(jìn)行更深入的分析。該步驟對于后續(xù)的目標(biāo)檢測至關(guān)重要,因?yàn)槿绻谶@個(gè)階段某些目標(biāo)區(qū)域未能被識別并提取,則這些目標(biāo)在后續(xù)的檢測中很可能會被遺漏。

在候選區(qū)域提取方面,算法的執(zhí)行速度是一個(gè)至關(guān)重要的考慮因素。不同算法在處理速度上存在顯著差異。Objectness算法[15]通過綜合考慮邊界框的外觀特征、空間位置和內(nèi)部像素分布等因素,確定最有可能包含物體的候選邊界框,但算法計(jì)算耗時(shí)較長,難以實(shí)際應(yīng)用。SelectiveSearch算法[16]利用圖像分割思想,綜合考慮顏色、紋理、大小等多種特征來計(jì)算并合并相似區(qū)域,從而生成可能包含物體的候選區(qū)域,這種方法能夠在一定程度上減少候選區(qū)域的數(shù)量,提高目標(biāo)檢測的效率和準(zhǔn)確性。但處理1張640像素×360像素的圖像需要約10s,不適合實(shí)時(shí)應(yīng)用。區(qū)域生成網(wǎng)絡(luò)(RPN)通過訓(xùn)練學(xué)習(xí),能夠高效生成少數(shù)高質(zhì)量的目標(biāo)候選框,實(shí)現(xiàn)高召回率,但對數(shù)據(jù)集依賴性強(qiáng)、泛化能力弱,特別是在未知場景或?qū)ο髼l件下,性能可能下降。EdgeBoxes算法[17]基于滑動窗口的得分函數(shù)評價(jià)候選區(qū)域,考慮窗口內(nèi)完整邊緣段的數(shù)量,處理同等大小圖像僅需約0.25s,顯著提高了實(shí)時(shí)處理能力。

EdgeBoxes算法的主要思想是基于物體邊緣信息,提取一系列物體候選框,用于加速現(xiàn)有的目標(biāo)物體檢測。該算法首先使用結(jié)構(gòu)化邊緣檢測算法求得圖像的邊緣響應(yīng)圖,接著將邊緣點(diǎn)的空間和方向約束進(jìn)行組合得到多組邊緣片段,然后根據(jù)邊緣片段與候選框的空間幾何關(guān)系給每個(gè)邊緣片段賦予權(quán)值,并根據(jù)這些邊緣片段的權(quán)值給候選框賦予得分。算法的具體步驟歸納如下:

1)輸入圖像,利用結(jié)構(gòu)化邊緣檢測算法對圖像進(jìn)行邊緣檢測,通過非最大抑制處理得到最終的邊緣響應(yīng)圖。

2)根據(jù)邊緣點(diǎn)的空間相鄰關(guān)系和方向的約束對邊緣點(diǎn)進(jìn)行組合,得到多個(gè)邊緣片段。

3)計(jì)算任意2個(gè)邊緣片段的相似度,其計(jì)算表達(dá)式為

f(si,sj)= |cos(θi-θij)cos(θj-θij)| (1)

式中:si、sj為2個(gè)邊緣片段;θi、θj和θij分別為兩組邊緣點(diǎn)的平均方向角和兩組邊緣之間的方向夾角。

4)給定一個(gè)候選框,計(jì)算每個(gè)邊緣片段在該候選框內(nèi)的權(quán)值,具體可以分為4類:位于候選框內(nèi)的邊緣片段權(quán)值為1;候選框邊界相交的邊緣片段權(quán)值為0;邊緣點(diǎn)和邊緣點(diǎn)幾何中心均在候選框之外的邊緣片段權(quán)值為0;而剩下的邊緣點(diǎn)全在候選框外部,其幾何中心位于候選框內(nèi)部的邊緣片段權(quán)值計(jì)算表達(dá)式為

式中,T為該邊緣片段往候選框內(nèi)部延伸時(shí)與候選框邊界相交的邊緣片段組成的路徑。如果該路徑不存在,則將權(quán)值賦為1。

5)統(tǒng)計(jì)和候選框相關(guān)聯(lián)的所有邊緣片段并計(jì)算候選框的最終得分,其得分計(jì)算表達(dá)式為

式中:mi為邊緣片段的模長;bl和bw 分別為候選框的長和寬;Cin為落在候選框內(nèi)的邊緣片段的集合;k值取1.5,用于抵消大的矩形框或包含較多的邊緣片段所帶來的影響。位于物體內(nèi)部的邊緣片段往往沒有物體輪廓上的邊緣重要,所以最終候選框的得分由式(4)計(jì)算的hin來表示。

圖1為由EdgeBoxes算法檢測到的響應(yīng)值前500的候選框。紅色框標(biāo)示了物體的真實(shí)位置,而綠色框則代表算法檢測的候選區(qū)域。

與目前流行的目標(biāo)檢測算法不同,EdgeBoxes算法作為一種通用的候選框生成算法,利用圖像的邊緣信息來生成候選區(qū)域,無須預(yù)先收集特定目標(biāo)的信息進(jìn)行訓(xùn)練學(xué)習(xí)。這種方法不僅使其具備了更廣泛的適用性,還能夠靈活應(yīng)用于各種場景和不同類型的目標(biāo)提取任務(wù)中。

2 區(qū)域特征提取算法

當(dāng)2幅圖像存在較大的非線性變化時(shí),通過計(jì)算鄰域梯度信息的SIFT算法不能保證特征描述的穩(wěn)定性。特別是在無人機(jī)偵察的圖像景物較為模糊時(shí),基于手工設(shè)計(jì)的特征描述子表達(dá)能力有限。然而,CNN算法逐漸展現(xiàn)出其優(yōu)越的特征提取性能,因此,圖像特征提取的研究逐漸從SIFT特征轉(zhuǎn)向CNN特征。

本文利用Hardnet網(wǎng)絡(luò)提取物體塊的深度特征,基于公共數(shù)據(jù)集Brown訓(xùn)練提取網(wǎng)絡(luò),網(wǎng)絡(luò)輸入為提取的物體塊,輸出為構(gòu)建的物體塊特征。訓(xùn)練過程中,同時(shí)輸入一組相同的物體塊,通過特征提取網(wǎng)絡(luò)生成各自的特征描述符;結(jié)合物體塊標(biāo)簽構(gòu)建網(wǎng)絡(luò)損失函數(shù),使得匹配物體塊間的特征距離盡量小,非匹配物體塊間的特征距離盡量大。實(shí)驗(yàn)表明,Hardnet學(xué)習(xí)的描述子在圖像匹配方面優(yōu)于傳統(tǒng)的SIFT、SURF等手工設(shè)計(jì)的描述子。

2.1 Hardnet網(wǎng)絡(luò)結(jié)構(gòu)

Hardnet的網(wǎng)絡(luò)共有7個(gè)卷積層,如圖2所示,網(wǎng)絡(luò)的輸入為固定尺寸(32像素×32像素)的灰度物體塊,卷積層除最后一層外都用零填充。除最后一層之外,每個(gè)層后面依次進(jìn)行批處理歸一化和ReLU激活操作。網(wǎng)絡(luò)的輸出被L2歸一化以產(chǎn)生具有單位長度的128維描述符。

2.2 Hardnet損失函數(shù)

損失函數(shù)旨在優(yōu)化匹配描述子之間的距離,確保2幅圖像中匹配的描述子間距離盡量小,而不匹配描述子間距離盡量大。即最小化正樣本的距離、最大化負(fù)樣本的距離。

已知2幅待匹配圖像,Ai和Pi表示2個(gè)圖像的訓(xùn)練集,其中有2n個(gè)圖像塊,n個(gè)匹配對,a1和p1為描述子。描述子之間的距離可表示為

訓(xùn)練集采樣過程如圖3所示。

對于匹配的描述子a1、p1,距離最近的非匹配描述子分別為p4、a2,相關(guān)定義如下:akmin為最接近pi 的不匹配描述子,其中,Kmin =mink≠d(ak,pi);pjmin為最接近ai的不匹配描述子,其中,Jmin=mink≠d(ak,pj)。

每個(gè)匹配描述子都可以生成四元組(ai,pi,pjmin,akmin),然后生成三元組,即

式中,min[d(ai,pjmin),d(akmin,pj)]為最近負(fù)樣本距離。

2.3 SE-Hardnet網(wǎng)絡(luò)

為了更加高效地提取特征采樣區(qū)域內(nèi)的關(guān)鍵信息,同時(shí)抑制相對次要的特征,提出了一種結(jié)合注意力機(jī)制的特征提取網(wǎng)絡(luò)。通過實(shí)驗(yàn)分析發(fā)現(xiàn),特征采樣區(qū)域內(nèi)的邊緣和角點(diǎn)成為了區(qū)分不同特征的主要信息,而相對平滑的區(qū)域?qū)μ卣鞯谋磉_(dá)貢獻(xiàn)較小。基于這一觀點(diǎn),本文在Hardnet網(wǎng)絡(luò)框架中引入了SE-Net[18]網(wǎng)絡(luò)結(jié)構(gòu),其具體結(jié)構(gòu)如圖4所示。

SE-Net網(wǎng)絡(luò)結(jié)構(gòu)通過學(xué)習(xí)得到每個(gè)通道的重要程度,進(jìn)而優(yōu)化特征提取過程,確保網(wǎng)絡(luò)能夠聚焦于信息量豐富的特征。同時(shí),為了提高描述子匹配的效率,本文將每個(gè)輸出特征的維度優(yōu)化至64維。這一改進(jìn)不僅加強(qiáng)了網(wǎng)絡(luò)對關(guān)鍵特征的提取能力,還顯著提升了特征匹配的速度。SE-Hardnet網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

在SE-Net網(wǎng)絡(luò)結(jié)構(gòu)應(yīng)用之前,特征圖的每個(gè)通道都被賦予了相同的重要性,這導(dǎo)致網(wǎng)絡(luò)在處理信息時(shí)缺乏針對性。然而,在引入SE-Net網(wǎng)絡(luò)結(jié)構(gòu)之后,每個(gè)特征通道的重要性得以區(qū)分,不同顏色直觀地展示了不同權(quán)重,這使得神經(jīng)網(wǎng)絡(luò)能夠更加聚焦于權(quán)重值較大的通道,有效地增強(qiáng)了網(wǎng)絡(luò)對關(guān)鍵信息的捕捉能力,提高了模型的性能。

3 實(shí)驗(yàn)結(jié)果與分析

實(shí)驗(yàn)使用硬件:GPU 為NVIDIA GeForceGTX3090TI,RAM 為11GB,CPU為IntelXeonE5-2640,頻率為2.40GHz,系統(tǒng)平臺為Ubuntu16.0464-bit與CUDA11.7,開發(fā)環(huán)境為PyTorch1.3,編程語言為Python3.6。實(shí)驗(yàn)所用的訓(xùn)練集是Brown數(shù)據(jù)集中的Liberty子集。測試集為NotreDame子集Yosemite。

3.1 SE-Hardnet算法對比

本節(jié)給出了SE-Hardnet算法的相關(guān)實(shí)驗(yàn)結(jié)果。論述了所提算法與Hardnet算法的對比實(shí)驗(yàn),并從算法的參數(shù)量、模型大小和運(yùn)算速度等方面分析了所提出改進(jìn)算法的優(yōu)點(diǎn)。具體參數(shù)對比分析如表1所示。

從參數(shù)量的角度來看,修改后的網(wǎng)絡(luò)顯著減少了網(wǎng)絡(luò)所需的參數(shù)量。網(wǎng)絡(luò)在訓(xùn)練過程中需要學(xué)習(xí)的參數(shù)減少,降低了訓(xùn)練的復(fù)雜度,還有助于緩解過擬合問題,提高模型的泛化能力。運(yùn)算速度的提高也是修改后網(wǎng)絡(luò)的另一個(gè)優(yōu)勢。通過優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)減少計(jì)算量,網(wǎng)絡(luò)在訓(xùn)練和推理過程中能夠更快地完成任務(wù)。這不僅提高了工作效率,還使得模型能夠進(jìn)一步處理更大規(guī)模的數(shù)據(jù)集,提升了模型的性能。

圖6為網(wǎng)絡(luò)在不同測試集上的假正率(FPR)對比情況。假正率是指被錯(cuò)誤預(yù)測為正樣本的負(fù)樣本數(shù)占真實(shí)負(fù)樣本總數(shù)的比例。盡管結(jié)構(gòu)有所變化,但效果與原始網(wǎng)絡(luò)相近,說明優(yōu)化結(jié)構(gòu)并未降低性能,反而在保持性能的同時(shí)降低了模型的復(fù)雜度和計(jì)算成本。

當(dāng)網(wǎng)絡(luò)輸出維度從128維調(diào)整為64維時(shí),算法的運(yùn)行時(shí)間從0.044s顯著縮短至0.0032s,執(zhí)行效率得到提升。這一調(diào)整有效減少了計(jì)算成本并優(yōu)化了性能。

3.2 圖像匹配實(shí)驗(yàn)

為了驗(yàn)證本文圖像匹配算法的可行性以及相比于已有算法的優(yōu)勢,設(shè)計(jì)了對比實(shí)驗(yàn)。SE-Hardnet網(wǎng)絡(luò)和SuperPoint網(wǎng)絡(luò)均采用公共數(shù)據(jù)集Brown進(jìn)行訓(xùn)練。

通過EdgeBoxes算法對無人機(jī)采集到的圖像進(jìn)行候選區(qū)域提取,將提取到的候選區(qū)域和目標(biāo)圖像統(tǒng)一尺寸為32像素×32像素,并按列拼接,拼接后圖像寬為32。將拼接后的圖像送入SE-Hardnet網(wǎng)絡(luò),分別提取特征,每一個(gè)候選區(qū)域得到一個(gè)64維的描述子。將提取到候選區(qū)域的描述子分別和目標(biāo)圖像的描述子進(jìn)行皮爾遜相似度計(jì)算,并對結(jié)果進(jìn)行排序,選出最大值,因而能夠在圖像中精準(zhǔn)地匹配到目標(biāo)圖像,實(shí)現(xiàn)了目標(biāo)圖像的快速檢測與定位。整體流程如圖7所示。

3.2.1 不同尺寸分析

無人機(jī)在同一視角下由遠(yuǎn)及近采集一系列圖像,尺寸均為1920像素×1080像素。待匹配的圖像分為同景圖像(目標(biāo)圖像和待匹配圖像來自同一場景)和異景圖像(目標(biāo)圖像和待匹配圖像來自不同場景)兩種。不同距離下圖像匹配效果對比結(jié)果如表2所示。

實(shí)驗(yàn)結(jié)果表明,當(dāng)圖像目標(biāo)小于20像素×20像素時(shí),輪廓信息模糊,進(jìn)而導(dǎo)致匹配算法難以準(zhǔn)確識別。然而,隨著無人機(jī)逐漸接近目標(biāo),目標(biāo)物體在圖像中的尺寸逐漸增大,對于同景圖像,當(dāng)達(dá)到約25像素×25像素時(shí),匹配算法便能夠穩(wěn)定且精準(zhǔn)地實(shí)現(xiàn)匹配。對于異景圖像,其匹配效果相較于同景圖像在小尺寸目標(biāo)上顯得遜色。這主要是因?yàn)楫惥皥D像中的小尺寸目標(biāo)在進(jìn)行候選區(qū)域檢測時(shí),更容易受到周圍環(huán)境的干擾,導(dǎo)致匹配算法難以有效區(qū)分目標(biāo)與背景,進(jìn)而影響了匹配效果。根據(jù)COCO數(shù)據(jù)集的定義,尺寸小于32像素×32像素的目標(biāo)被認(rèn)為是小目標(biāo),因此,本文提出的算法能夠較好地實(shí)現(xiàn)對小目標(biāo)的匹配。每組圖片左上角為目標(biāo)圖像,不同尺寸圖像的匹配情況如圖8所示。

3.2.2 不同角度分析

通過無人機(jī)在不同角度和距離下采集的圖片,研究旋轉(zhuǎn)角度對圖像匹配效果的影響。由于待匹配圖像是地面目標(biāo),故角度只考慮繞Z軸旋轉(zhuǎn)的效果,匹配結(jié)果如表3所示。每組圖片左上角為目標(biāo)圖像,不同角度圖像匹配效果如圖9所示。

實(shí)驗(yàn)結(jié)果表明,當(dāng)目標(biāo)尺寸較小,尤其是低于40像素×40像素時(shí),匹配距離受角度影響更為顯著。在這種情況下,由于目標(biāo)圖像的角度偏移較大,往往只能捕捉到目標(biāo)的局部特征,而無法獲取全局特征,因此匹配效果較差。相反,對于尺寸較大的目標(biāo),最大角度偏移可達(dá)[-60°,60°]。

3.2.3 不同算法對比分析

為了全面客觀地評估本文提出算法的性能,將其與傳統(tǒng)算法(如SIFT、SURF算法)以及當(dāng)前流行的深度學(xué)習(xí)方法(如SuperPoint算法)進(jìn)行了比較。在比較過程中,傳統(tǒng)算法通過SIFT、SURF算法提取特征點(diǎn),并借助RANSAC算法進(jìn)行特征點(diǎn)的精確匹配;而深度學(xué)習(xí)方法則通過SuperPoint算法提取特征點(diǎn),再結(jié)合SuperGlue和LightGlue算法以提高匹配的精確性。將匹配點(diǎn)數(shù)量達(dá)到或超過15個(gè)定義為匹配成功。不同匹配算法對比結(jié)果如表4所示,括號內(nèi)的數(shù)字代表成功匹配的特征點(diǎn)數(shù)量。SE-Hardnet網(wǎng)絡(luò)和SuperPoint網(wǎng)絡(luò)均采用公共數(shù)據(jù)集Brown進(jìn)行訓(xùn)練。每組圖片左部為目標(biāo)圖像,不同匹配算法的匹配圖像如圖10所示。

不同算法測試曲線如圖11所示,無論是傳統(tǒng)方法(SIFT、SURF算法)還是深度學(xué)習(xí)方法(Super-Point算法),在近距離下都展現(xiàn)出良好的匹配效果,且隨著距離減小,匹配點(diǎn)數(shù)量和匹配效果逐漸提升。這是因?yàn)榻嚯x物體特征點(diǎn)豐富,更易匹配。然而,在無人機(jī)視角下,物體偏小導(dǎo)致匹配效果變差。相比之下,本文提出的EdgeBoxes+SE-Hardnet算法表現(xiàn)更好,通過直接檢測圖像中的目標(biāo)候選區(qū)域并進(jìn)行匹配,能夠更有效地應(yīng)對小尺寸目標(biāo)的匹配問題。

為了更深入地探討并比較算法的性能,特別構(gòu)建了一個(gè)近距離數(shù)據(jù)集,主要聚焦于無人機(jī)與目標(biāo)物體距離在50m以內(nèi)的場景,匹配正確率計(jì)算表達(dá)式為

P=Nc /Nt (8)

式中:Nc為正確匹配的數(shù)量;Nt為匹配的總數(shù)量。具體匹配效果如表5所示。

通過對比表5數(shù)據(jù)可以看出,本文所提算法在近距離條件下的匹配效果同樣優(yōu)于其他算法。從整體趨勢來看,所提出的算法在無人機(jī)視角下的匹配效果具有顯著的競爭優(yōu)勢,不僅在小尺寸目標(biāo)匹配上,而且在近距離條件下也相對占優(yōu)。相較于傳統(tǒng)方法和深度學(xué)習(xí)匹配方法,所提算法在無人機(jī)視角下表現(xiàn)出更為全面和優(yōu)越的性能。

4 結(jié)束語

本文提出了一種通用的圖像匹配算法,僅需獲取目標(biāo)圖像的幾張圖片便能實(shí)現(xiàn)精準(zhǔn)的目標(biāo)匹配。與當(dāng)前目標(biāo)檢測算法相比,所提算法無須提前收集大量目標(biāo)物體信息,能夠適用于不同類型的圖像,不受特定領(lǐng)域限制。本文算法采用EdgeBoxes來檢測圖像中的目標(biāo)候選區(qū)域,利用SE-Hardnet網(wǎng)絡(luò)提取區(qū)域的深度特征,并通過計(jì)算相似度來判定圖像中相匹配的候選區(qū)域。與當(dāng)前圖像匹配方法相比,所提算法能夠?qū)崿F(xiàn)更高的匹配精度,并且能夠在面對尺寸變化、角度變化等因素時(shí),仍保持精確地匹配,所提算法可進(jìn)一步應(yīng)用于需要較高匹配精度的計(jì)算機(jī)視覺任務(wù)。未來研究將考慮優(yōu)化候選區(qū)域提取算法,以提升匹配算法的實(shí)時(shí)性和適用性。

參考文獻(xiàn)(References):

[1]朱得糠,李東澤,郭鴻博,等.無人機(jī)視覺地理定位研究綜述[J].導(dǎo)航與控制,2023,22(3):21-33.

(ZHUDK,LID Z,GUO H B,etal.A review ofresearchonvisionbasedgeolocationforunmannedaerialvehicles[J].NavigationandControl,2023,22(3):21-33.)

[2]王博,宋丹,王洪玉.無人機(jī)自主巡檢系統(tǒng)的關(guān)鍵技術(shù)研究[J].計(jì)算機(jī)工程與應(yīng)用,2021,57(9):255-263.

(WANGB,SONGD,WANGHY.ResearchonkeytechnologiesofUAV autonomousinspectionsystem[J].ComputerEngineeringandApplications,2021,57(9):255-263.)

[3]胡峻峰,李柏聰,朱昊,等.改進(jìn)YOLOv8的輕量化無人機(jī)目標(biāo)檢測算法[J].計(jì)算機(jī)工程與應(yīng)用,2024,60(8):182-191.

(HUJF,LIBC,ZHUH,etal.AnimprovedlightweightunmannedaerialvehicletargetdetectionalgorithmbasedonYOLOv8[J].ComputerEngineeringandApplications,2024,60(8):182-191.)

[4]汪常建,丁勇,盧盼成.融合改進(jìn)FPN與關(guān)聯(lián)網(wǎng)絡(luò)的FasterRCNN目標(biāo)檢測[J].計(jì)算機(jī)工程,2022,48(2):173-179.

(WANGCJ,DINGY,LUPC.TargetdetectionoffasterRCNNbasedonimprovedFPNandassociationnetwork[J].ComputerEngineering,2022,48(2):173-179.)

[5]LOWEDG.Distinctiveimagefeaturesfrom scaleinvariantkeypoints[J].InternationalJournalofComputerVision,2004,60(2):91-110.

[6]BAYH,TUYELAARST,GOOLLV.SURF:speededuprobustfeatures[C]//Proceedingsofthe9thEuropeanConferenceonComputerVision.Graz,Austria:Springer,2006:404-417.

[7]SUNJ,SHEN Z,WANG Y,etal.LoFTR:detectorfreelocalfeaturematchingwithtransformers[C]//ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.Nashville,USA:IEEE,2021:8922-8931.

[8]DETONED,MALISIEWICZ T,RABINOVICH A.Superpoint:selfsupervisedinterestpointdetectionanddescription[C]//ProceedingsoftheIEEE ConferenceonComputerVisionandPatternRecognitionWorkshops.SaltLakeCity,USA:IEEE,2018:224-236.

[9]WANGZ,WU F,HU Z.MSLD:arobustdescriptorforlinematching[J].PatternRecognition,2009,42(5):941-953.

[10]MATASJ,CHUM O,URBANM,etal.Robustwidebaselinestereofrommaximallystableextremalregions[J].ImageandVisionComputing,2004,22(10):761-767.

[11]KORMANS,REICHMAN D,TSUR G,etal.Fastmatch:fastaffinetemplatematching[J].InternationalJournalofComputerVision,2017,121(1):111-125.

[12]HANX,LEUNGT,JIAY,etal.MatchNet:unifyingfeatureandmetriclearningforpatchbasedmatching[C]//2015IEEEConferenceonComputerVisionandPatternRecognition.Boston,USA:IEEE,2015:3279-3286.

[13]MISHCHUKA,MISHKIND,RADENOVICF,etal.Workinghardtoknowyourneighbor′smargins:localdescriptorlearningloss[C]//Proceedingsofthe31stInternationalConferenceonNeuralInformationProcessingSystems.California,USA:CurranAssociates,2017:4827-4838.

[14]劉海橋,劉萌,龔子超,等.基于深度學(xué)習(xí)的圖像匹配方法綜述[J].航空學(xué)報(bào),2024,45(3):82-95.

(LIUHQ,LIUM,GONGZC,etal.Areviewofimagematchingmethodsbasedondeeplearning[J].ActaAeronauticaetAstronauticaSinica,2024,45(3):82-95.)

[15]王嬌嬌,劉政怡,李輝.特征融合與objectness加強(qiáng)的顯著目標(biāo)檢測[J].計(jì)算機(jī)工程與應(yīng)用,2017,53(2):195-200.

(WANGJJ,LIUZY,LIH.Featurefusionandobjectnessenhancedapproachofsaliencydetection[J].ComputerEngineering and Applications,2017,53(2):195-200.)

[16]UIJLINGSJR,SANDEK E,GEVERST,etal.Selectivesearchforobjectrecognition[J].InternationalJournalofComputerVision,2013,104(2):154-171.

[17]ZITNICKCL,DOLLARP.Edgeboxes:locatingobjectproposalsfrom edges[C]//EuropeanConferenceonComputerVision.Edinburgh,Scotland:Springer,2014:391-405.

[18]祁宣豪,智敏.圖像處理中注意力機(jī)制綜述[J].計(jì)算機(jī)科學(xué)與探索,2024,18(2):345-362.

(QIXH,ZHIM.Areviewofattentionmechanismsinimageprocessing[J].JournalofFrontiersofComputerScienceandTechnology,2024,18(2):345-362.)

(責(zé)任編輯:景 勇 英文審校:尹淑英)

特邀專家 蘇文博,沈陽工業(yè)大學(xué)信息科學(xué)與工程學(xué)院教授,中國機(jī)器人檢測認(rèn)證聯(lián)盟技術(shù)委員會無人機(jī)認(rèn)證技術(shù)專家、中國無人機(jī)產(chǎn)業(yè)聯(lián)盟副理事長、遼寧省工商聯(lián)副主席。國家中組部“萬人計(jì)劃-科技創(chuàng)業(yè)”領(lǐng)軍人才、遼寧省“興遼英才計(jì)劃”領(lǐng)軍人才、遼寧省百千萬工程人才。長期致力于無人機(jī)精確制導(dǎo)方向研究,專注于新型無人機(jī)系統(tǒng)方面的前沿、瓶頸技術(shù)問題。創(chuàng)立通過標(biāo)定雷達(dá)和紅外相機(jī)實(shí)現(xiàn)空間配準(zhǔn)的方法,該技術(shù)在國內(nèi)紅外成像技術(shù)產(chǎn)品上得到廣泛應(yīng)用。創(chuàng)辦的沈陽無距科技有限公司被評為國家高新技術(shù)企業(yè)、遼寧省潛在獨(dú)角獸企業(yè)、遼寧省“興遼英才計(jì)劃”高水平創(chuàng)新創(chuàng)業(yè)團(tuán)隊(duì)。擁有專利22項(xiàng),承擔(dān)省部級科研項(xiàng)目11項(xiàng),累計(jì)獲專項(xiàng)經(jīng)費(fèi)2000萬元。2021年作為遼寧省唯一青年企業(yè)家代表參加統(tǒng)戰(zhàn)部與清華大學(xué)聯(lián)合舉辦的“新時(shí)代民營企業(yè)家培養(yǎng)計(jì)劃”。

基金項(xiàng)目:遼寧省“興遼英才”項(xiàng)目(XLYC2002100)。

猜你喜歡
特征區(qū)域檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達(dá)“特征”
不忠誠的四個(gè)特征
抓住特征巧觀察
小波變換在PCB缺陷檢測中的應(yīng)用
關(guān)于四色猜想
分區(qū)域
基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
電測與儀表(2015年5期)2015-04-09 11:30:52
主站蜘蛛池模板: 中文字幕无码制服中字| 欧美福利在线观看| 老司机久久99久久精品播放| 国产白浆视频| 无码AV日韩一二三区| 色欲色欲久久综合网| 久久综合伊人77777| 国产成+人+综合+亚洲欧美| 国产精品九九视频| 国产无人区一区二区三区| 亚洲黄色网站视频| 日本国产精品一区久久久| 自拍偷拍欧美| 91久久国产综合精品| 天天摸天天操免费播放小视频| 久久久久青草大香线综合精品| 亚洲综合色婷婷中文字幕| 亚洲天堂视频网| 国产黄色片在线看| 中文字幕在线播放不卡| 狼友av永久网站免费观看| 呦系列视频一区二区三区| 性欧美在线| 色精品视频| 成人国产一区二区三区| 四虎AV麻豆| 香蕉综合在线视频91| 色妞www精品视频一级下载| 国产女人在线观看| 国内a级毛片| 欧美有码在线| 九九精品在线观看| 91美女在线| 麻豆AV网站免费进入| 啦啦啦网站在线观看a毛片 | 国产一区二区三区免费| 免费精品一区二区h| 成人a免费α片在线视频网站| 国产性生交xxxxx免费| 久久77777| 夜夜操天天摸| 91啦中文字幕| 色综合手机在线| 亚洲色婷婷一区二区| 欧美日韩国产高清一区二区三区| 国产成人一区在线播放| 久久精品日日躁夜夜躁欧美| 人妻无码AⅤ中文字| 亚洲国产综合自在线另类| 日韩欧美成人高清在线观看| 国产精品永久在线| 黄色片中文字幕| 99久久99视频| 青青久视频| 素人激情视频福利| 久久永久免费人妻精品| 色老二精品视频在线观看| 精品色综合| 亚洲午夜福利精品无码| 中文字幕欧美日韩| 国内视频精品| 久久亚洲国产最新网站| 九九热在线视频| 亚洲综合片| 伊人福利视频| 国产夜色视频| 色综合国产| 在线国产综合一区二区三区| 国产拍在线| 欧美成人精品一级在线观看| 欧美三級片黃色三級片黃色1| a级毛片在线免费观看| 婷婷综合色| 熟妇丰满人妻av无码区| 99视频只有精品| 一级全黄毛片| 一级毛片免费的| 亚洲人成网站日本片| 国产精品久线在线观看| 夜夜高潮夜夜爽国产伦精品| 欧美综合一区二区三区| 亚洲制服丝袜第一页|