梁杰, 任君, 李磊,2, 齊航, 周紅麗
(1.北京機電工程研究所, 北京 100074; 2.復雜系統控制與智能協同技術重點實驗室, 北京 100074)
機場跑道作為軍事和民用重要的基礎設施,在飛機起落、交通運輸、作戰資源補給等方面發揮著顯著的作用[1]。針對不同探測視角,機場跑道類目標存在嚴重透視畸變,在多種探測條件下實現對復雜環境中跑道類目標檢測和輪廓的精確提取,對于航空遙感地物信息獲取或者無人機自主著陸等實際應用需要具有重要意義。
傳統機場跑道識別算法可以分為兩類:一類是匹配算法,這種算法需要機場的可見光數據制作匹配模板,受匹配性能限制,其對位置和高度畸變適應性較差;另一類是檢測算法,其技術途徑大致可分為兩種,一種是基于邊緣直線提取的方法[2],另一種是基于區域紋理的方法[3]。前者主要利用機場跑道輪廓為平行長直線的特性,具有簡單、快速的優點,但其他擁有該特征的非機場目標也易被檢測出來,魯棒性較弱;后者主要利用機場與周圍環境紋理特征上的差異實現目標區域的分割,其對機場區域的刻畫較為準確,但特征描述子的設計依賴于人為經驗,場景泛化能力較弱,且效率較低。綜上所述,傳統機場跑道識別算法可靠性不高、不同場景下的泛化能力較弱,難以適應成像畸變下的跑道精確識別,存在誤檢測或分割不完整的情況。
隨著機器學習的快速發展和硬件能力的不斷提高,深度學習技術被廣泛引入到目標檢測中,其通過逐層卷積的方式提取目標高維且抽象的語義信息,挖掘樣本數據中的內在本質特性,因而具備更好的表征能力[4]。基于深度學習的目標檢測方法按檢測步驟分為兩大類:1)雙步檢測算法,典型代表為Faster R-CNN[5]、R-FCN[6]和Cascade R-CNN[7]算法;2)單步檢測算法,典型代表為YOLO[8]、SSD[9]、RetinaNet[10]和CornerNet[11]算法。其中Faster R-CNN和SSD算法分別是兩類算法的奠基者,后續算法都是在它們基礎上的改進。深度學習的出現為實現機場跑道的精確識別創造了技術條件,如文獻[12]提出結合跑道平行線特征及卷積神經網絡(CNN)的遷移學習能力來識別機場,文獻[13]綜合區域提取網絡與自適應池化網絡來實現機場的快速檢測,不過這些方法只是將CNN的特征提取能力加以簡單的應用,其檢測效果有很大的局限性。最近發表的文獻[14]提出在YOLOv2[15]算法檢測到的目標邊框內采用多尺度線段提取及融合算法得到跑道的輪廓線,實現跑道的精確定位。該方法的性能較以往算法有較大的提升,但YOLOv2算法提供的檢測框仍為矩形框,整個算法將跑道的輪廓提取作為獨立的部分,并未引入到深度學習框架中,無法實現端到端的訓練,因而檢測效果仍然有限,存在一定的漏檢或誤檢的情況。
深度學習雖然在目標檢測領域相比傳統方法具有更好的性能表現,但機場跑道目標主要是典型的四邊形幾何形狀,在飛行器前下視采集的圖像中跑道的長寬比變化較大,典型的深度學習檢測算法其識別結果往往是矩形框,這樣會引入一定的背景信息且無法得到目標真實的輪廓形狀,導致定位誤差較大。為解決上述問題,考慮到單步檢測算法YOLOv3[16]的高精度、實時性以及便于在移動端或邊緣設備上部署等優勢,本文在其基礎上引入典型四邊形角點回歸策略、四邊形錨框機制、四邊形的非極大值抑制(NMS)模塊以及目標幾何拓撲關系,提出一種能夠實現典型幾何形狀精確回歸的機場跑道自動識別方法,可學習目標在嚴重仿射畸變下的成像特征,有效預測目標的角點坐標,并以目標的四邊形輪廓給出其位置。同時,能夠區分機場和跑道兩類目標,利用內在的幾何關系對生成的跑道預測框進行二次判定,剔除無效框,提高檢測器的識別概率和后處理的效率。另外,為提高算法的處理速度,本文在保持YOLOv3算法的網絡架構不變的基礎上對網絡通道進行剪枝,并用原始網絡對剪枝后的小網絡進行蒸餾訓練來保持模型的檢測精度。最后,利用自建數據庫驗證本文算法在機場跑道目標檢測方面的準確性與高效性。
YOLOv3算法采用直接回歸的方式,在配置文件中提前規定錨框的規模,通過構建標注框、錨框與檢測框的數學關系來指導算法訓練并完成目標檢測[4],屬于典型的深度學習單步檢測算法。同時,YOLOv3算法借鑒了殘差網絡[17]和特征金字塔網絡[18]的思想,融合3個卷積層的特征圖進行多尺度檢測,同時將原來的Darknet-19[15]網絡與殘差網絡糅合起來,形成特征提取能力更強的Darknet-53[16]網絡,因而在整體性能上位居深度學習檢測類算法前列,具有可實時、高精度兩個優點。
采用YOLOv3算法完成目標檢測任務,一般流程是先基于ImageNet數據集獲取預訓練模型,再通過自建數據集對模型進行微調,提高算法在對應目標上的檢測效果[19]。但機場跑道檢測時需要對角點進行準確定位,位置信息量有所增加且相應的回歸策略有所調整,只采用上述微調的方式無法滿足需求,因而有必要對YOLOv3算法進行重新設計和優化。
YOLOv3算法主要包含基礎特征提取網絡和特征檢測器兩個部分,本文對其做了相應的優化,提出一種基于典型幾何形狀精確回歸的機場跑道檢測方法。
基于典型幾何形狀精確回歸的機場跑道檢測算法由四邊形錨框機制、四邊形角點回歸和四邊形NMS等模塊構成,利用目標幾何拓撲關系作為預測框篩選的輔助手段,并對特征提取網絡進行了輕量化設計和模型壓縮。具體來說,算法以裁剪后的Darknet-53作為基準網絡進行特征提取,將四邊形框作為先驗錨框應用到目標檢測器中,并優化原有的目標位置量回歸方式,得到可實現四邊形回歸的檢測器,該檢測器可以輸出目標的角點位置信息,進而得到目標的準確輪廓。最后,本節設計了一種針對四邊形框的重疊度(IoU,框之間的交集除以并集)計算方法來進行NMS,并在原始的損失函數上引入了角點坐標的回歸損失量來指導算法訓練。
錨框機制為預測框的回歸提供了先驗參考標準,因而大大提升了算法的檢測精度。對于機場跑道,前斜視成像時目標外輪廓主要為類平行四邊形或梯形,在進行角點回歸時現有的矩形錨框難以提供有效的參考標準,角點的偏差反饋量較大,檢測框回歸精度不高,因而有必要針對性地引入四邊形錨框機制。該機制更加契合實際場景中跑道的幾何形狀,在角點回歸時只需在錨框基礎上做一些微調即可,便于預測框的回歸,同時在很大程度上減少了背景信息的引入,使網絡能夠更好地學習目標特性,有效提高識別精度。
本節基于跑道前視的幾何形狀,設計了12個不同形狀和尺度的四邊形錨框,具體操作為:保留K-means聚類后的寬高尺度不變,保持垂直矩形框中心不動,將框的左右兩邊各沿底邊方向推移出一定傾斜角,使之成為平行四邊形或梯形,操作示意圖見圖1. 于是,按照上述方法在每個尺度的3個矩形框基礎上生成3×3個四邊形,傾斜角選擇75°和105°,這樣每個尺度上就有12個錨框,數量適中,沒有引入太多的計算量。圖2展示了原始矩形錨框和改進后的四邊形錨框,圖中w和h分別為錨框的寬高,可以看出新的錨框更加滿足需求。

圖2 原始矩形錨框和四邊形錨框對比圖Fig.2 Comparison of original rectangular anchor frame and quadrilateral anchor frame
四邊形回歸不像矩形那么簡單,只需要回歸形心坐標和寬、高4個變量即可。四邊形要回歸4個角點的橫、縱坐標,需要考慮這4點的相對位置關系,因為不同圖像標簽信息中的角點順序可能會不一致,這樣會使網絡無法正確學習角點順序,進而導致回歸時對應關系錯誤。為此,本節在訓練前為網絡制定了角點回歸順序協議,可有效地解決跑道四邊形角點回歸時的順序錯亂問題。角點順序協議流程圖如圖3所示,圖中x和y為別為角點的橫、縱坐標,利用該協議可唯一確定四邊形角點的順序。具體步驟如下:
1) 將x值最小的點確定為點1,若有兩個點的x值相同,那么就取其中y值更小的點;
2) 以步驟1選出的點1為起點,分別連接另外3點,中間那條線連接的點就是點3;
3) 設中間線的方程為LM:ax+by+c=0,則點2和4就分布在該線的左半部分和右半部分,把它們的坐標帶進去,判斷LM是否大于0,若大于0則其為點2,同時也得到了點4;
4) 連接點1、3和點2、4得到兩條線,比較它們的斜率,取大斜率線上的x值較小點作為新的點1,剩下的點按照前3步的方法依次確定,這樣就唯一確定了這4點的順序。

圖3 四邊形角點順序協議流程圖Fig.3 Flow chart of quadrilateral corner point sequence protocol
算法按照上述協議對標簽中四邊形的角點進行讀取,輸入網絡進行反饋訓練,網絡便可以學習到四邊形的順序。在推理時,網絡可以利用學習到的這一知識直接回歸出帶有順序的角點坐標。
YOLOv3算法在進行NMS的時候,評價標準是框的IoU(見(1)式),兩個檢測框的交集和并集都可以用幾何公式計算。
(1)
式中:DT1和DT2分別為識別到的目標兩個不同的位置信息;SDT1和SDT2分別為兩框的面積;So是兩框重疊的面積。
然而,兩個四邊形框的交集和并集很難用幾何公式進行計算。針對該問題,本節通過統計學上著名的蒙特卡洛算法來快速準確地計算兩個四邊形的交集和并集,該方法適合并行運算,可有效地提高算法的計算效率。算法的原理簡圖如圖4所示。

圖4 四邊形IoU計算方法原理圖Fig.4 Schematic diagram of quadrilateral IoU calculation method
對于兩個不同的四邊形(QA1和QA2),該算法主要包括以下兩個步驟:首先,在QA1的外接矩形上均勻地分布1萬個點,QA1的面積可通過落在QA1(含邊界,下同)和外接矩形框里點數的比例再乘上外接矩形的面積計算出來,同理QA2也可由此計算;之后,計算上一步中落在QA1和QA2里點的重疊數,即這些點同時落在兩個四邊形里面,通過計算共有點與落在QA1的外接矩形點數的比例,可以計算出兩個四邊形的重疊面積。由兩個四邊形各自的面積及其重疊面積,即可通過(1)式計算出兩個四邊形的IoU.
為了避免引入專門的軟硬件加速器來執行算法加速,減少嵌入式移植的工作量,本文采用結構性通道剪枝[20]+蒸餾法[21]的技術途徑來實現模型的壓縮和加速。
2.4.1 通道剪枝
本文在Darknet-53網絡框架下對YOLOv3算法的網絡進行通道剪枝,包括稀疏化訓練和剪枝策略。
稀疏化訓練:在訓練階段,通過將L1正則化施加到批歸一化(BN)層的縮放因子(γ系數)上,模型朝著結構性稀疏的方向調整參數,即
(2)
式中:xi是網絡輸入;yo是理論輸出;l(·)為網絡的損失函數;f(·)是網絡計算的函數(包括線性計算和非線性激活);W是網絡權值;λ是懲罰系數;Γ是BN層γ系數的集合;g(·)是絕對值函數(即L1正則化)。
該方法之所以能夠使網絡“瘦身”,是由于每一個縮放因子都和一個特定的CNN卷積通道相關聯,L1正則化推動部分BN層的γ系數趨向于0,這樣它就類似于信息流通道的開關系數,控制著信息流通道的開關閉合,因而可以獲得原始網絡中不重要的通道。這為后續的通道剪枝提供了依據,同時正則化對網絡性能損傷較小,甚至一些情況下它會提高網絡的泛化能力。
剪枝策略:在得到稀疏化的網絡后,對網絡的所有待剪枝的層設置一個全局閾值,它被定義為所有縮放因子值的一個比例,具體操作是:將縮放因子的集合按絕對值從小到大排序,然后取排序后集合中規定裁剪比例位置上的縮放因子為閾值,這樣裁剪掉小于閾值的通道就可以得到一個參數少、占用內存小、計算量低的緊湊網絡。為便于實現,本文對網絡中的卷積層通道設置掩碼,其根據每個BN層的γ系數和閾值標志通道是否保留(1表示保留,0表示舍棄),考慮到Darknet-53網絡中具有殘差結構,本文在剪枝過程中加入限制:同一批具有殘差連接關聯的卷積層,其通道掩碼應當保持一致,同時一致的掩碼為它們的邏輯或。
2.4.2 知識蒸餾
上述剪枝得到的網絡在性能上較原始網絡有些下降,因而本文采用知識蒸餾的方法來恢復網絡性能。本文利用原始的Darknet-53網絡作為教師網絡來指導剪枝后的學生網絡進行訓練,主要包括3個方面的內容:1)分類蒸餾;2)回歸蒸餾;3)特征層學習。知識蒸餾的原理圖如圖5所示。

圖5 目標檢測知識蒸餾框架Fig.5 Framework of target detection knowledge distillation
分類蒸餾同時采用標注信息(硬標簽)和教師網絡的預測(軟標簽)來指導學生網絡的訓練,軟標簽包含了不同類別之間的關系信息,通過軟標簽學習,學生網絡可以一定程度上繼承這種隱含信息。分類蒸餾訓練過程中,學生網絡采用如下損失函數進行優化:
Lcls=μLH(Ps,yl)+(1-μ)LS(Ps,Pt),
(3)
式中:Lcls是總的分類函數;μ則為平衡兩個損失的系數;Ps是學生網絡預測量;Pt是教師網絡預測量;yl是標注信息;LH和LS是分別采用硬標簽和軟標簽作為指導信息的多分類交叉熵損失函數[7]。
不同于分類蒸餾,由于網絡回歸的值沒有被約束,回歸蒸餾若引入教師網絡回歸的預測值可能會對學生網絡帶來錯誤引導。因此,回歸蒸餾不再直接使用教師網絡的回歸預測值作為目標,而是將其作為學生網絡需要努力達到的上界。在蒸餾訓練的過程中,一方面保證學生網絡回歸預測值越來越接近真實標簽,另一方面如果學生網絡回歸預測好于教師網絡并超出給定的間隔,則不添加額外的損失,否則添加。回歸蒸餾訓練過程中,學生網絡采用如下損失函數進行優化:

(4)
Lr=Ls(Rs,yr)+υLb(Rs,Rt,yr).
(5)
式中:Lb為以教師網絡預測為上界的回歸損失;Rs為學生網絡回歸預測;Rt為教師網絡回歸預測;yr表示回歸真實標簽;m為給定的間隔;Ls為采用真實標簽的L2損失[7];υ為平衡兩種損失的權重;Lr為總的回歸函數。
特征層學習是使用教師網絡的中間特征對學生網絡進行指導,從而提升學生網絡最終的性能。在學習過程中,要求兩個網絡的特征具有相同的尺寸(即通道數、寬高相同),為此需要在學生網絡用于被指導的特征層后添加相應的適配層,本文添加的適配層為1×1的卷積層。特征學習的損失函數使用常見的L2損失,具體為
(6)
式中:V和Z分別表示教師網絡用來指導的特征層和學生網絡用于被指導的特征層;Lh是特征層函數。
綜上,將原始網絡提取的3層預測特征圖以及最后的預測值與小網絡得到的進行對比,將它們的差異進行反饋學習,這樣使得小網絡在特征圖和預測結果這兩個層面上都與原始網絡接近,可以基本恢復到原始網絡的性能。
本節將四邊形角點回歸應用到目標檢測器中,得到基于典型幾何形狀精確回歸的機場跑道目標檢測器。該檢測器可以輸出目標的角點坐標信息和外形輪廓。
算法整個流程圖如圖6所示,首先用剪枝后的Darknet-53網絡對圖像進行特征提取,之后在3個特征圖上分別進行目標檢測,并得到K×(1+2+12)個通道的預測張量,其中每個特征圖單元里的四邊形錨框個數為K,檢測器會在錨框中挑出一個置信度最大的預測框進行回歸。對于某個錨框,會產生(1+2)維的置信度預測向量和12維位置預測向量。置信預測向量的元素包含判別物體與背景以及物體屬于機場和跑道的置信度;位置預測向量的元素包含四邊形預測框與錨框在最小外接矩形中心點坐標、寬高和4個角點坐標上的偏差量。通過對預測張量的解碼,檢測器可以得到修正后的準確檢測框,并利用跑道檢測框總是位于機場檢測框范圍內這一先驗分布信息,來剔除誤檢的無效框。最后,為有效篩除重復檢測框,算法將3個尺度上的檢測結果統一經過NMS處理。

圖6 改進YOLOv3算法檢測流程圖Fig.6 Flow chart of improved YOLOv3 detection
在分類時,YOLOv3算法使用多標簽、多分類的邏輯回歸函數,但是本文的檢測目標只有機場和跑道兩類,不涉及多標簽的問題,因而分類器仍然使用softmax激活函數:
(7)

在四邊形框回歸時,預測框會回歸12個變量,其中前4個變量(最小外接矩形中心點坐標和寬高)仍按照YOLOv3算法的方式預測,后8個變量(4個角點坐標)按照(8)式預測:
(8)

(9)
lw和lh對應特征圖的寬高;bxi和byi為最終預測的歸一化角點坐標,其具有順序關系。
改進算法的損失函數由坐標誤差、IoU誤差和分類誤差3部分組成,其中:坐標誤差采用均方差損失(MSE);IoU誤差采用二分類交叉熵損失(BCE),用來反映網格是否包含物體;分類誤差采用多分類交叉熵損失(CCE). 該函數配合知識蒸餾時的函數形式,可實現完整的訓練。整個公式設計為
(10)

(11)

(12)

本節通過仿真實驗來驗證本文所提算法在機場跑道檢測方面的有效性,并和經典的深度學習檢測算法的性能進行對比。
鑒于目前并沒有適用本文算法驗證的開源機場跑道數據集,本文自行構建了一個包含紅外和可見光兩種成像體制的數據集,其中紅外圖像是由無人機掛載紅外攝像頭采集的4個地區的機場,可見光圖像是由軟件制備的仿真樣本圖(灰度圖),視場角設置為4.6°×3.7°,以跑道方向為0°航向角,按照-5°~5°航向角、起始高度400~700 m、起始距離12 km以設計好的降高規律進行由遠及近等間隔拍攝,到距離目標2 km時結束,跑道的成像尺寸范圍為35像素×20像素~275像素×85像素。
數據庫的圖像大小為640像素×512像素,包含紅外圖像15 634張(19 352個實例)、可見光圖像3 145張(14 873個實例),具體類型分為機場和跑道兩類,標注信息的格式為類別代號、4個角點的橫縱坐標。
為提高算法的泛化能力,訓練時對圖像進行了增廣:均值與高斯濾波、高斯與椒鹽噪聲化、亮度與對比度變換、反色、左右與上下翻轉等[4],以模擬不同的時段、氣象條件下的成像效果,增廣效果如圖7所示。增廣時對原始數據進行數量上的對等增加,因而增廣后數據的規模達到紅外圖像125 072張,可見光圖像25 160張,共約15萬張圖像。

圖7 機場樣本增廣示意圖Fig.7 Diagram of airport sample augmentation
因而,整個數據集在目標尺度變化、成像視角變化、目標特性變化等方面都有所覆蓋,數據規模適中,具備實驗驗證的條件。
算法的訓練和推理過程均基于Caffe框架,訓練時圖形處理器(GPU)選用NVIDIA GeForce GTX TitanX,網絡初始學習率為0.001,動量項選用超參數為0.9的異步隨機梯度下降,衰減系數為0.000 5. 考慮到訓練內存和速度的均衡,網絡批次大小設置為4,每16次迭代后進行參數更新。訓練的最大迭代次數為600 000,學習率在300 000和400 000次時依次降低10%.
在計算機視覺領域,對于不同的任務會有相應的評測指標。本文參照相關任務的評價方法[4],選用檢測概率、檢測精度和檢測速度作為評價指標,具體含義如下:
1) 檢測概率。在類別預測相同的情況下,通過檢測框與標注框的IoU值(見(1)式)來判定是否檢測正確,若IoU的值大于0.5,則檢測正確,反之則檢測錯誤。正確的檢測框數除以標注框總數即為檢測概率。
2) 檢測精度。設GC為標注框的中心點,DC為檢測框的中心點。對于檢測正確的預測框,采用GC與DC的像素歐式距離p表示檢測精度,距離越小則認為精度越好。其計算方式為
(13)
式中:DCx和DCy分別為檢測框中心點的橫、縱坐標;GCx和GCy分別為檢測框中心點的橫、縱坐標。
3) 檢測速度。本文選用學術界常用的幀每秒(FPS)來表示檢測速度。FPS指的是每秒檢測的圖像數,即檢測時間的倒數,單位為幀/s,其值越大表明每秒檢測的圖像越多,算法推理速度越快。
本節實驗利用自建數據集進行了3組訓練,且將預測層回歸的類型數設置為2,具體情況如表1所示。訓練過程采用常規訓練方法,得到基于原始Darknet53網絡的改進YOLOv3算法,可用于后續指導蒸餾訓練。

表1 訓測集配置情況Tab.1 Training set configuration

圖8 可見光圖像檢測結果Fig.8 Detected results of visible images
本節按照上述訓練方式得到的權值模型在對應的測試集上進行了測試,NMS閾值設為0.45,置信度閾值設為0.5. 圖8和圖9列出了本文算法的部分測試結果圖,其中粉色框和綠色框分別表示跑道和機場。本節按照3.3節中的評價指標對測試結果進行了統計(見表2),結果表明本文算法能夠對不同模態下多種場景中的機場跑道進行有效的檢測,具備較強的泛化能力和魯棒性。檢測速度在NVIDIA GeForce GTX TitanX平臺上約為25幀/s,滿足工程應用的準實時要求。

圖9 紅外圖像檢測結果Fig.9 Detected results of infrared images

表2 不同訓測集下改進YOLOv3算法的性能對比
由表2的第1、第2組統計結果可知,本文算法的性能在訓測集數據為同源時要優于異源,這表明單靠可見光圖像訓練的網絡模型雖然在紅外圖像上有一定的遷移能力,但仍不及在同源可見光圖像(數據分布更相近)上的檢測能力。因而,在工程應用時需要通過圖像預處理手段盡可能地將訓練樣本接近實測樣本[4]。由第1、第3組統計結果可知,本文算法的性能表現在訓測集數據為多源時明顯優于同源,這說明多源數據混合訓練是一種提升算法性能的優勢策略。因而,在工程應用時,通過采集相似的紅外樣本以及實驗室制備可見光仿真樣本,來彌補非合作軍用跑道目標樣本量的不足,并將二者進行混合訓練,以此提高算法對打擊目標的檢測性能。
為進一步驗證本文算法在速度和精度上的優勢,本節首先基于上述第3組訓練方式得到的模型,在相同配置條件下做了改進算法的稀疏化訓練和蒸餾訓練,實驗中發現剪枝比例大于0.6后模型性能會產生較大的損失,因而選擇0.6作為比例閾值,即60%的待剪枝卷積通道被砍掉;之后,以第3組的訓練方式在同樣配置條件下,將本文算法與其他深度學習算法進行了訓練和性能對比。剪枝前后網絡規模和計算復雜度對比如表3所示,不同算法的檢測性能對比如表4所示。

表3 剪枝前后網絡規模和計算復雜度對比

表4 不同算法的檢測性能對比Tab.4 Comparison of detection performances ofdifferent algorithms
由表3的統計結果可得,使用裁剪網絡作為基礎網絡的改進YOLOv3算法較其他流行的深度學習算法在本文的數據集上綜合性能最好,主要原因是其在YOLOv3算法已有的特征金字塔多尺度預測、錨框機制和Darknet-53網絡等優勢基礎上,加入了四邊形錨框機制、四邊形角點回歸和相應的IoU計算方式,并且利用內在幾何關系對識別結果正確性進行了進一步的保障。同時由表3可知,蒸餾后的網絡性能只比原始網絡損失0.2%,說明裁剪后的網絡經蒸餾后性能基本可以恢復至原來水平。綜上所述,以上改進大幅提高了原始YOLOv3算法對于機場跑道(典型幾何形狀)角點定位上精度的不足,并縮短了原有的識別時間,可以說兼顧了精度和速度。
面向遙感領域精確自主識別跑道目標的應用需求,本文提出了一種基于典型幾何形狀精確回歸的機場跑道檢測方法。算法分析與實驗結果表明:
1) 通過在網絡模型中引入四邊形錨框機制,錨框更加契合實際場景中跑道的幾何形狀,便于預測框的回歸,并在很大程度上減少了背景信息的引入。
2) 算法通過引入四邊形角點順序協議和相應的IoU計算方式,使得網絡模型能更好地學習四邊形角點順序信息,提高識別的精確度。
3) 算法通過通道剪枝+蒸餾法的網絡輕量化與加速策略,使得算法在處理速度和內存占用上都有明顯優化的情況下,基本沒有識別精度的損失。
4) 算法對于近距離部分跑道出視場的情況識別性能不盡理想,在圖像低信噪比時容易漏檢、誤檢,對數據的依賴性較高,泛化能力還需提高。這些都是后續工作需進一步解決的問題。