999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Ghost卷積與注意力機制的SAR圖像建筑物檢測算法

2022-08-02 00:38:08嚴繼偉蘇娟李義紅
兵工學報 2022年7期
關鍵詞:特征檢測

嚴繼偉, 蘇娟, 李義紅

(火箭軍工程大學 核工程學院, 陜西 西安 710025)

0 引言

合成孔徑雷達(SAR)作為一種主動式微波傳感技術,具有不受光照和天氣條件影響、穿透能力強、能實現全天時全天候探測等特點。隨著SAR成像技術的發展,SAR圖像在軍用與民用領域取得了廣泛的應用。通過對SAR圖像建筑物目標檢測,可以快速獲取建筑區域信息,在城市建設規劃、軍事偵察、災情評估、目標打擊等方面具有重要的研究意義。

隨著合成孔徑雷達圖像數據的激增和計算機視覺領域的快速發展,深度卷積神經網絡被引入來解決SAR圖像中的目標檢測問題。目前,常用的基于卷積神經網絡的目標檢測方法主要分為兩階段檢測算法與單階段檢測算法。其中,兩階段檢測算法主要有候選區域提取和候選區域定位分類兩個步驟,因此檢測速度較慢。最具代表性的兩階段檢測算法為R-CNN系列等。而單階段檢測算法直接在圖像中選取目標錨框并預測位置與類別,是一種兼具精度與速度的目標檢測方法。YOLO系列、SSD、Centernet等都是著名的單階段檢測算法。

深度卷積神經網絡在SAR建筑物檢測方面也有廣泛的應用。文獻[11]提出借助先驗信息(2D建筑物圖像或可見光圖像)對SAR建筑物圖像展開分析,使用合成孔徑雷達層析成像技術區分出建筑物區域和非建筑物區域,并以此制作數據集,經過模型訓練后實現了對SAR圖像中柏林城區的建筑物檢測。文獻[13]提出一個多尺度的卷積神經網絡模型,直接從SAR圖像斑塊中提取多尺度特征來檢測建筑物,并在北京地區的高分辨率SAR圖像上進行實驗驗證。文獻[14]分析了SAR圖像中臨近像素之間的相關性,將結構化預測引入網絡之中,采用多級特征對像素進行分類,以此實現了SAR圖像中的建筑物檢測。

SAR圖像中的建筑物目標常以任意方向密集排列,使用傳統的水平矩形框進行檢測容易對相鄰目標產生影響,因此本文提出使用旋轉矩形框檢測SAR圖像中的建筑物目標。基于旋轉矩形框的目標檢測算法具有如下優勢:1)檢測時可以充分考慮建筑物的方向性問題,檢測結果表征出目標的方向信息;2)密集排列時分離出單個建筑物,減少漏檢現象的發生;3)濾除單個建筑物周圍存在的背景信息,避免對檢測效果造成影響。因此基于旋轉框的目標檢測算法在SAR圖像建筑物檢測中具有重要研究前景。現階段的基于旋轉矩形框的檢測算法也有兩種,其中,DRbox-v2、SCRDet等都是典型的兩階段檢測器,R-centernet、R3Det、EAST、FOST等均為單階段檢測器。

經典的深度卷積神經網絡模型往往伴隨著大量的參數與計算量,在訓練過程中占用了計算機的內存,檢測時降低效率。因此,輕量的卷積神經網絡具有廣闊的應用前景,能夠勝任實時性要求高的目標檢測任務。輕量化的目標檢測算法有MobileNet系列、GhostNet、ShuffleNet等。

本文在基于旋轉矩形框的單階段目標檢測算法R-centernet的基礎上,提出了一種更加輕量化的改進算法,用于SAR圖像中的建筑物檢測。首先用Ghost卷積替換原始網絡中的傳統卷積,搭建Ghost-ResNet網絡模型,降低參數量;其次提出融合寬高信息的通道注意力模塊,提高檢測精度,同時保證較低的參數量;然后改進上采樣方法,進一步減小網絡的計算量;最后使用改進算法對數據集進行訓練與測試,驗證改進算法在SAR圖像建筑物檢測應用中的性能。

1 SAR圖像建筑物檢測算法

1.1 R-centernet算法基本原理

目前常見的目標檢測算法多使用水平矩形框從圖像中窮舉出目標錨框,而后進行分類與定位,檢測效率較低,檢測速度較慢。Centernet則提出一種基于關鍵點估計的目標檢測方法,在檢測過程中尋找關鍵點來估計目標的中心點位置,而后回歸其他屬性(大小、空間位置、方向、姿態等)。

R-centernet作為Centernet的改進版本,是一種旋轉目標檢測算法,在水平框的基礎上引入一個角度參數進行訓練和預測,最終回歸了目標的四個特征:熱力圖特征、中心點、尺寸和角度,并以此確定目標在圖像中的精確位置和方向。其算法結構如圖1所示。

圖1 R-centernet算法結構Fig.1 Structure of the R-centernet algorithm

如圖1所示,圖像輸入進R-centernet后首先經過主干網絡ResNet50(Residual Networks 50)進行特征提取,而后輸入反卷積(DCN)模塊,該模塊的主要作用是上采樣。最終得到四個預測結果:熱力圖、中心點坐標、寬高和角度。因此,損失函數由三部分組成:熱力特征損失、位置損失(中心點偏移損失、寬高預測損失)、旋轉角度損失。計算公式如下:

=+++

(1)

式中:表示總損失值;表示熱力特征損失;為預測框中心點偏移誤差;為預測框寬高的誤差;為預測框的旋轉角度誤差;、、為對應權重。

圖2 改進R-centernet算法結構Fig.2 Structure of the improved R-centernet algorithm

1.2 改進的R-centernet算法

在SAR圖像建筑物檢測過程中,原始R-centernet算法需要大量參數和浮點運算來獲得檢測精度的收益,隨之帶來的是檢測速度的下降。本文改進了R-centernet算法,在保證檢測精度的基礎上,降低網絡參數的數量,使SAR圖像中建筑物的檢測既高效又有效。

改進R-centernet算法的網絡結構如圖2所示。圖中使用紅色虛線框標出的部分為改進部分,主要包括:1)使用Ghost卷積替換傳統卷積,將主干網絡由ResNet50改進為Ghost-ResNet;2)在Ghost-ResNet中添加融合寬高信息的通道注意力機制,如圖2中WH-ECA部分所示;3)改進了原始算法中的DCN模塊,使用更加適用于輕量化網絡的上采樣方法。

1.2.1 Ghost卷積在殘差網絡中的應用

由于計算性能和存儲空間的限制以及對檢測速度的要求,目標檢測網絡在保證高精度的基礎上需盡量做到輕量化。本文以單階段檢測算法R-centernet為基礎,以ResNet50為主干網絡,采用Ghost卷積(Ghost Convolution)代替網絡中的傳統卷積方法,在達到近似效果的同時,減少了網絡的參數量。

傳統卷積過程與Ghost卷積過程如圖3所示。圖3中:、、分別為輸入特征圖尺寸的通道數、商和寬,′、′、′分別為輸出特征圖尺寸的通道數、高和寬,采用的卷積核尺寸為×。Ghost卷積主要分為三個部分:1)輸入特征圖經過傳統卷積生成本征特征圖,該特征圖的通道數小于輸出特征圖的通道數;2)將得到的本征特征圖進行Depthwise卷積運算得到Ghost特征圖,其中Depthwise卷積在每個通道上運行,卷積核的數量與上一層的通道數相同,計算量遠小于傳統卷積;3)將本征特征圖與Ghost特征圖拼接得到最終輸出結果。

圖3 傳統卷積結構和ghost卷積結構Fig.3 Structures of traditional convolution and ghost convolution

Ghost卷積并未完全舍棄傳統卷積部分,而是先采用傳統卷積生成少量通道數的特征圖,再生成Ghost特征圖。該方法在降低計算量的同時,保證了對特征的識別性能,是一種高效且有效的卷積方式。

當輸入特征圖的尺寸為××,采用的卷積核尺寸為×,輸出特征圖尺寸為′×′×′時,傳統卷積與Ghost卷積過程中所需的參數量分別為(2)式和(3)式所示。

=×′××

(2)

=×××+×××

(3)

式中:為本征特征圖的通道數;為線性運算的內核個數,×為線性內核的尺寸大小,且×?×。

因此傳統卷積與Ghost卷積的參數量之比為

(4)

通過理論分析發現,傳統卷積與Ghost卷積得到的參數量之比為′,且隨著本征特征圖通道數的減少,Ghost卷積的參數量相較于傳統卷積更少。當跳過傳統卷積的步驟,直接采用線性運算生成Ghost特征圖時,參數量達到最小。

本文以ResNet50為主干網絡,使用Ghost卷積替換傳統卷積,構成了Ghost-ResNet網絡結構。ResNet50和Ghost-ResNet的組成結構如圖4所示。

圖4 ResNet50和Ghost-ResNet的組成模塊Fig.4 Modules of ResNet50 and Ghost-ResNet

從圖4中可以看出,兩個模塊的結構相似,Ghost-ResNet將Ghost卷積與深度卷積(DW Conv)有效結合,在兩個Ghost卷積之間添加深度卷積,將特征圖的尺寸大小降為輸入特征的1/2,并以此達到ResNet50組成結構中降采樣的效果。

1.2.2 注意力機制

由于二面角反射效應存在,SAR圖像中建筑物的呈現形式主要為L型或直線型亮線,與周圍背景有著明顯的區別。因此,本文在R-centernet中添加注意力機制,增強網絡對圖像中顯著特征較強的建筑物區域的特征提取能力。

最具代表性的通道注意力模塊仍然是擠壓和激勵網絡(SENet),高效通道注意力機制(ECANet)作為SENet的改進算法,在保持網絡顯著特征提取能力的同時,有效降低計算量,使之更加適合輕量化網絡。SENet及ECANet的模型結構如圖5所示。圖5中,為Sigmoid映射,為降維比例。

圖5 SENet和ECANet的結構圖Fig.5 Structures of SENet and ECANet

SENet首先對輸入圖像進行通道上的全局平均池化(GAP),然后使用降維結構的全連接層以及非線性Sigmoid函數生成通道權重。ECANet區別于SENet,采用不降維的近鄰操作代替全連接層來捕獲不同通道之間的關系,重新生成通道權重。然而,兩者均僅考慮了通道之間的關系,重視生成通道權重而忽視了顯著目標位置信息的重要性。

本文在ECANet的基礎上進行改進,借鑒Coordinate Attention(CA)的思想,提出一種融合寬高信息的通道注意力機制(WH-ECA),其模型結構如圖6所示。

圖6 WH-ECA模型結構Fig.6 Model structure of WH-ECA

如圖6所示,對于尺寸為××的輸入圖像,(,)為輸入像素值,首先使用尺寸為(,1)和(1,)的池化核分別沿著圖像的寬、高方向對每個通道進行平均池化操作,此時輸出結果、分別為(5)式和(6)式所示:

(5)

(6)

當輸入為××時,全局池化操作的計算量為

=××

(7)

而沿著寬高方向分別進行池化操作的計算量為

=××1+×1×

(8)

由(7)式、(8)式可知,兩種方法的計算量之比為(×)(+),因此本文采用的分方向池化的方法不僅可以實現從寬高分別對通道編碼,從而確定顯著區域的位置信息,而且占用了更少的參數量。

將上述產生的兩個特征圖進行張量拼接,而后使用ECANet中的近鄰操作捕獲通道關系,對各通道重新編碼,公式如下:

=[,]

(9)

式中:表示該部分的輸出結果;表示近鄰操作。

然后沿著空間維度將上述結果分解為單獨張量和,通過Sigmoid函數分別生成每個通道在寬高方向上的權重,如(10)式、(11)式所示:

=()

(10)

=()

(11)

此時WH-ECA的最終輸出結果如(12)式所示:

(,)=(,)×()×()

(12)

式中:(,)為輸出的像素值;(,)為輸入的像素值;和分別為每個通道在寬高方向上的權重。

本文提取了圖像經過兩層網絡得出的特征圖進行對比分析,如圖7所示。其中圖7(a)為輸入的原始SAR圖像數據,經過原始R-centernet網絡提取后的L2層熱力圖輸出結果如圖7(b)所示,在原始網絡中添加ECANet注意力模塊后得到的熱力特征如圖7(c)所示,圖7(d)為融合WH-ECA注意力模塊后的輸出熱力圖。

圖7 特征提取后的熱力圖Fig.7 Heat map after feature extraction

熱力圖中紅色表示顯著性較高的區域,經過對比分析發現,L2層熱力圖中目標與周圍背景的差異不大,融合ECANet得到的熱力圖雖然呈現出目標的顯著性特點,但是存在目標邊界模糊,不利于精確定位目標位置等問題。而融合了WH-ECA注意力模塊得到的熱力圖中背景信息得到抑制,突出了目標特征,而且圖中目標的邊界清晰,有利于定位中心點坐標和回歸準確的寬高信息。

本文提出的WH-ECA將原始ECANet中的全局池化改進為分別在寬高方向上進行平均池化,主要具有以下3點優勢:1)能夠有效分析各通道之間的關系,本質上起到通道注意的作用;2)利用特征圖的寬高信息準確定位顯著區域;3)WH-ECA簡單高效,保持較少的參數量,適用于輕量級網絡。

1.2.3 上采樣改進

R-centernet通過ResNet50對圖像進行特征提取之后,將特征圖像輸入反卷積(DCN)模塊實現上采樣。反卷積是卷積的逆過程,其對網絡中的參數進行學習后,在特征圖中插入像素值達到上采樣的目的。反卷積具有以下缺陷:1)對于特征圖每個位置采用相同的上采樣核,不能捕捉到特征圖信息;2)引入大量參數、計算量增大。

為了有效解決上述問題,本文采用CARAFE (Contenet-Aware Reassembly of Features)上采樣代替反卷積,其結構如圖8所示。CARAFE上采樣過程主要分為兩個部分——核預測和特征重組。

圖8 CARAFE上采樣結構Fig.8 Up-sampling structure of CARAFE

CARAFE上采樣的算法流程如下:

對尺寸為××的輸入特征圖進行通道壓縮處理,得到尺寸為××的結果,該步驟降低了后續的計算量,為通道壓縮后的通道數。

利用Softmax函數進行歸一化處理,使得上采樣核的權重之和為1。

將輸入特征圖與預測的上采樣核進行卷積運算得到最終的上采樣結果。

CARAFE上采樣過程的參數量如(13)式所示:

(13)

2 實驗結果與分析

2.1 實驗平臺與參數設置

本文使用的硬件平臺包括計算機中央處理器(CPU):intel?CoreTMi7-6850KCPU@3.60 GHz×12和圖形處理器(GPU):NVIDIA TITAN Xp GPU(12 GB顯存);深度學習框架為Pytorch;編程語言為C語言和python語言;操作系統為Ubuntu 16.04 LTS。

預設訓練參數:動量為0.9,初始學習率為0.001,權重衰減系數為0.000 5,批訓練數設置為1,為避免訓練過程中出現過擬合,設置迭代次數為150。本文各檢測算法的IoU閾值設置為0.5,置信度閾值為0.45,NMS閾值設定為0.3。

2.2 數據集

本文以SBD(SAR Building Dataset)數據集為基礎,采用旋轉矩形框進行重新標注。經過篩選后,數據集中包含了416×416像素和512×512像素兩種尺寸的圖像共1 087張,其中建筑物數量為12 001個;數據來源主要包括TerraSAR、高分三號衛星、美國桑迪亞國家實驗室等機載、星載平臺的合成孔徑雷達獲取的圖像;信號波段包括X波段、C波段和Ku波段;圖像分辨率為0.5~5 m;極化方式包含HH、HV、VH、VV。將數據集按照8∶2的比例隨機分配成訓練集與測試集。

2.3 模型訓練

本文以R-centernet為基礎算法,使用Ghost卷積、WH-ECA注意力模塊和CARAFE上采樣進行改進,并分別進行訓練與測試。本文記錄了各算法在訓練過程中的損失函數值(平均損失),并繪制了如圖9所示的損失函數變化曲線。由圖9可知,原始算法與三種改進算法隨著迭代次數的增加,損失函數值均能收斂。其中同時融合了Ghost卷積、WH-ECA注意力模塊和CARAFE上采樣的算法下降最快且收斂后的損失值最小。

圖9 損失函數曲線變化圖Fig.9 Loss function curve

2.4 測試結果分析

為了量化各改進算法在SAR圖像建筑物目標上的檢測性能,本文在測試時使用準確率Precision、召回率Recall和F1分數進行定量分析,定義如下:

(14)

(15)

(16)

式中:為準確率;為召回率;表示F1分數,F1分數越高,證明準確率與召回率之間越平衡,檢測效果越好;為真值框為正例且預測框為正例的目標數量;為真值框為反例且預測框為正例的目標數量;為真值框為反例且預測框為反例的目標數量。同時引入參數量、浮點數和檢測速度來衡量網絡模型大小。

各檢測算法的實驗結果對比如表1所示,從表中可以看出將主干網絡替換成Ghost-ResNet時,參數量和浮點數降低,然而F1分數也隨之下降,證明Ghost卷積雖然減小了網絡負擔,但是影響了算法對SAR建筑物的檢測能力;WH-ECA作為輕量化的注意力模塊,給F1分數帶來了3.5%的提升,且帶來的參數量和浮點數增加幅度很小;使用CARAFE上采樣代替DCN模塊,降低了參數量的同時,也提高了1.4%的F1分數。

表1 實驗結果對比

如表1第四行所示,本文使用單階旋轉檢測器R3Det對SAR圖像建筑物數據集進行檢測,以輕量化的MobileNetV2-FPN為主干網絡,測試結果準確率為83.2%,召回率為79.9%,F1分數達到81.5,檢測速度為28.5幀/s。由于R3Det在預測過程中添加了邊界優化模塊,因此檢測器的網絡參數量和浮點數雖然較少,但是檢測速度反而更慢。

綜上所述,本文所提出的輕量化的SAR建筑物檢測算法達到了89.6%的準確率和81.8%的召回率,同時檢測速度達到44.2幀/s。相比于原始的R-centernet和R3Det算法,準確率、召回率和檢測速度均有明顯提升。

表2為測試集中部分圖像的檢測結果,為體現算法對不同場景下建筑物目標的檢測性能,本文選取了以下四種排列方式的建筑物展開對比實驗:獨立建筑物、復雜場景下建筑物、特殊形狀建筑物和密集排列建筑物。

從表2中的檢測結果可以看出,原始算法雖能檢測出目標,但是對目標邊界的定位比較模糊,造成矩形框角度偏差大、未能完全包圍目標等情況,而本文算法添加了融合寬高信息的通道注意力模塊,分別在圖像的寬高方向上進行平均池化,能夠準確捕捉目標的位置信息和邊界信息,在預測時可以準確回歸目標的中心點坐標、寬高值和旋轉角度,因此檢測結果中矩形框準確包圍目標;原始算法在檢測密集排列建筑物圖像時出現了漏檢與誤檢,原因是原始算法中的DCN模塊在上采樣過程中對每個位置使用相同的核,未考慮特征圖內的信息,而本文的改進算法使用CARAFE上采樣代替DCN模塊,結合對不同位置生成不同的上采樣核,充分捕捉到了特征圖信息,在分辨率提高的過程中不會造成信息的遺漏,很好地降低了誤檢和漏檢。在對特殊形狀建筑物進行檢測時發現,本文所提算法能夠檢測出非規則形狀的SAR圖像建筑物,并且旋轉角度對比原始算法更加準確。

表2 SAR圖像建筑物測試結果對比

3 結論

本文針對目前卷積神經網絡參數量大、占用計算資源多等問題提出了一種輕量化的R-centernet算法,并應用于SAR圖像建筑物檢測領域中。得到以下主要結論:

1)在主干網絡中使用Ghost卷積替換傳統卷積組成新的網絡Ghost-ResNet,極大降低了模型的參數量,提高了檢測效率,但是犧牲了檢測精度。

2)本文所提出的融合寬高信息的通道注意力模塊能夠較好地捕捉顯著區域在圖像中的空間信息,有利于準確定位目標位置,提高了檢測精度,同時只增加了少量的網絡參數。

3)使用CARAFE上采樣代替DCN模塊,在上采樣過程中對不同位置生成不同的上采樣核,充分融合特征圖信息,增強了網絡的特征提取能力。CARAFE上采樣相比于DCN模塊引入了更加少量的參數,對網絡負擔更小。

4)在旋轉標注的SAR圖像建筑物數據集中的檢測結果表明,相比于原始算法,本文所提的改進算法在檢測精度與檢測速度上均有提升,證明了輕量化網絡在SAR圖像建筑物檢測應用方向的可行性。

[1] HU L, ZHANG J, GAO F. A building extraction method using shadow in high resolution multispectral images[C]∥Proceedings of International Geoscience and Remote Sensing Symposium. Vancouver, BC, Canada: IEEE, 2011: 24-29.

[2] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, US:IEEE, 2014: 580-587.

[3] GIRSHICK R. Fast R-CNN[C]∥Proceedings of IEEE International Conference on Computer Vision. Santiago, Chile: IEEE, 2015: 1440-1448.

[4] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[C]∥Proceedings of the 2015 neural information processing systems(NIPS). New York,NY,US: Curran Associates Inc., 2015: 91-99.

[5] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, US:IEEE, 2016: 779-788.

[6] REDMON J, FARHADI A. YOLO9000: better, faster, stronger[C]∥Proceedingts of IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, HI, US: IEEE, 2017: 6517-6525.

[7] REDMON J, FARHADI A. YOLOv3: an incremental improvement[EB/OL].[2021-04-05].http:∥arxiv.org/abs/1804.02767.

[8] BOCHKOVSKIY A, WANG C Y, LIAO H. YOLOv4: optimal speed and accuracy of object detection[EB/OL]. [2021-04-05].http:∥arxiv.org/abs/2004.10934.

[9] LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot multibox detector[C]∥Proceedings of European Conference on Computer Vision. Berlin,Germany: Springer, 2016: 21-37.

[10] ZHOU X Y, WANG D Q, KRHENB?HL P. Objects as points[EB/OL].[2019-04-26].http:∥arxiv.org/abs/1904.07850.

[11] SHAHZAD M, MAURER M, FRAUNDORFER F, et al. Buildings detection in VHR SAR images using fully convolution neural networks [J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(2): 1100-1116.

[12] ZHU X X, BAMLER R. Very high resolution space borne SAR tomography in urban environment [J]. IEEE Transactions on Geoscience and Remote Sensing, 2010, 48(12): 4296-4308.

[13] LI J, ZHANG R, LI Y. Multiscale convolutional neural network for the detection of built-up areas in high-resolution SAR images[C]∥Proceedings of 2016 IEEE International Geoscience and Remote Sensing Symposium (IGARSS). Piscataway,NJ,US: IEEE, 2016: 910-913.

[14] WU Y, ZHANG R, LI Y. The detection of built-up areas in high-resolution SAR images based on deep neural networks[C]∥Proceedings of International Conference on Image and Graphics. Berlin,Germany:Springer, 2017: 646-655.

[15] AN Q, PAN Z, LIU L, et al. DRBox-v2: an improved detector with rotatable boxes for target detection in SAR images [J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(99): 8333-8349.

[16] YANG X, YANG J, YAN J, et al. SCRDet: Towards More Robust Detection for Small, Cluttered and Rotated Objects[C]∥Proceedings of 2019 IEEE/CVF International Conference on Computer Vision (ICCV). Piscataway,NJ,US: IEEE, 2019: 8231-8240.

[17] YANG X, LIU Q, YAN J, et al. R3Det: refined single-stage detector with feature refinement for rotating object[EB/OL].[2021-04-05].http:∥arxiv.org/abs/1908.05612.

[18] ZHOU X Y, YAO C, WEN H, et al. EAST: an efficient and accurate scene text detector[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, HI,US:IEEE, 2017: 2642-2651.

[19] LIU X B, LIANG D, YAN S, et al. FOTS: fast oriented text spotting with a unified network[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT,US:IEEE, 2018: 5676-5685.

[20] HOWARD A G, ZHU M L, CHEN B, et al. MobileNets: efficient convolutional neural networks for mobile vision applications[EB/OL].[2017-05-27].http:∥arxiv.org/abs/1704.04861.

[21] SANDLER M, HOWARD A G, ZHU M L, et al. Inverted residuals and linear bottlenecks: mobile networks for classification, detection and segmentation[EB/OL]. [2018-01-12].http:∥arxiv.org/abs/1801.04381.

[22] HOWARD A, SANDLER M, CHU G, et al. Searching for MobileNetV3[C]∥Proceedings of IEEE International Conference on Computer Vision. Seoul, South Korea:IEEE, 2019: 1314-1324.

[23] HAN K, WANG Y H, TIAN Q, et al. GhostNet: more features from cheap operations[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Seattle, WA,US:IEEE, 2020: 1577-1586.

[24] ZHANG X Y, ZHOU X Y, LIN M X, et al. ShuffleNet: an extremely efficient convolutional neural network for mobile devices[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT,US:IEEE, 2018: 6848-6856.

[25] LI X, SU J, YANG L. Building detection in SAR images based on bi-dimensional empirical mode decomposition algorithm [J]. IEEE Geoscience and Remote Sensing Letters, 2020, 17(4): 641-645.

[26] HU J, SHEN L, ALBANIE S, et al. Squeeze-and- excitation networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8): 2011-2023.

[27] WANG Q, WU B, ZHU P, et al. ECA-Net: efficient channel attention for deep convolutional neural networks[C]∥Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, WA,US:IEEE, 2020: 11531-11539.

[28] HOU Q B, ZHOU D Q, FENG J S. Coordinate attention for efficient mobile network design[EB/OL].[2021-03-15]. https:∥dblp.org/rec/journals/corr/abs-2103-02907.

[29] WANG J Q, CHEN K, XU R, et al. CARAFE: content-aware reassembly of features[C]∥Proceedings of IEEE International Conference on Computer Vision. Seoul, South Korea:IEEE, 2019: 3007-3016.

[30] 李響, 蘇娟, 楊龍. 基于改進YOLOV3的合成孔徑雷達圖像中建筑物檢測算法[J]. 兵工學報, 2020, 41(7): 1347-1359.

LI X, SU J, YANG L. A SAR image building detection algorithm based on improved YOLOV3 [J]. Acta Armamentarii, 2020, 41(7): 1347-1359. (in Chinese)

猜你喜歡
特征檢測
抓住特征巧觀察
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 国产精品浪潮Av| 在线观看网站国产| 亚洲中文字幕日产无码2021| 性69交片免费看| 国产a在视频线精品视频下载| 精品人妻无码中字系列| 亚洲精品在线观看91| 国内精品自在欧美一区| 啪啪免费视频一区二区| 欧美成人在线免费| 欧美另类第一页| 日韩欧美中文字幕在线韩免费 | 午夜老司机永久免费看片| 亚洲欧美日本国产综合在线| 国产尤物jk自慰制服喷水| 久久香蕉欧美精品| 91精品伊人久久大香线蕉| 亚洲无线观看| 欧美有码在线观看| 天堂在线视频精品| 中文字幕无码中文字幕有码在线| 狠狠色噜噜狠狠狠狠色综合久| 97国产在线观看| 亚洲v日韩v欧美在线观看| 国产激爽爽爽大片在线观看| 亚洲国产欧美中日韩成人综合视频| 青青青国产精品国产精品美女| 成色7777精品在线| 亚洲性影院| 欧美专区在线观看| 国产真实乱子伦精品视手机观看 | 97视频在线观看免费视频| 久久视精品| 亚洲一区毛片| 国产精品太粉嫩高中在线观看| 国产精品极品美女自在线看免费一区二区 | 中文字幕va| 国产又粗又爽视频| 亚洲色欲色欲www网| 亚洲国产精品久久久久秋霞影院| 99视频在线免费看| 麻豆精品久久久久久久99蜜桃| 强奷白丝美女在线观看| 亚洲欧美在线综合一区二区三区| 亚洲第一国产综合| 国产美女无遮挡免费视频| 99精品视频在线观看免费播放| 无码一区二区三区视频在线播放| 一区二区午夜| 经典三级久久| 亚洲国产一区在线观看| 亚洲精品国产精品乱码不卞 | 91精品啪在线观看国产91| 午夜日b视频| 中文字幕亚洲另类天堂| 无套av在线| 日韩精品一区二区三区大桥未久| 玖玖免费视频在线观看| 五月婷婷丁香色| 国产精彩视频在线观看| 久久综合国产乱子免费| 亚洲精品视频网| 亚洲精品视频免费观看| 国产香蕉在线视频| 啪啪免费视频一区二区| 亚洲av无码成人专区| 精品久久蜜桃| 色悠久久久久久久综合网伊人| 无码丝袜人妻| 久久永久精品免费视频| 丝袜高跟美脚国产1区| 国产精品亚洲专区一区| 欧美日韩在线亚洲国产人| 久久亚洲国产最新网站| 强奷白丝美女在线观看| 精品久久香蕉国产线看观看gif| 亚洲国产天堂久久综合226114| 中文精品久久久久国产网址 | 91偷拍一区| lhav亚洲精品| 在线免费亚洲无码视频| 国产成人免费观看在线视频|