999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多尺度語義網絡的紅外艦船目標檢測

2022-05-23 02:17:54陳初俠
紅外技術 2022年5期
關鍵詞:特征檢測

陳初俠,丁 勇

基于多尺度語義網絡的紅外艦船目標檢測

陳初俠1,丁 勇2

(1. 巢湖學院 電子工程學院,安徽 巢湖 238000;2. 浙江大學 微納電子學院,浙江 杭州 310000)

為了增強艦船檢測的抗干擾性能,本文提出了一種有效且穩定的單階段艦船檢測網絡,該網絡主要由3個模塊組成:特征優化模塊,特征金字塔融合模塊和上下文增強模塊,其中特征優化模塊是提取多尺度上下文信息,并進一步細化和增強頂層特征輸入特性,增強弱小目標檢測性能;特征金字塔融合模塊能夠生成表征能力更強的語義信息;上下文增強模塊則是整合局部和全局特征增強網絡特征表達能力,以降低復雜背景對檢測性影響,平衡前景和背景的不均衡差異,消除魚鱗波的影響。為了驗證本文所提方法的有效性和魯棒性,本文對自建的艦船數據集進行了定性定量驗證。實驗結果表明,相比現有最新基準對比模型,本文所提網絡在自建數據集上均達到了最優性能,在不增加復雜度的情況下極大提升了檢測精度。

目標檢測;紅外艦船;單階段網絡;金字塔池化;上下文增強

0 引言

眾所周知,紅外反艦導彈具有對水面艦艇目標更高的抗干擾能力,其核心功能是高精度的目標檢測與跟蹤[1]。船舶檢測是反艦制導武器的一項極具挑戰的基礎任務,其目的是對視場內的艦船目標檢測分類與定位[2]。

傳統的艦船目標檢測算法大都是基于非平穩高斯噪聲下的目標恒虛警率模型,該模型集成了自適應閾值策略和海雜波統計模型,對高分辨率的大尺度目標檢測精度較高,但對復雜背景低對比度目標的檢測能力不足[3]。近年來,深度網絡以其獨特的特征表征能力,大大提高了目標檢測任務的精度。現有的深度網絡檢測方法大致可以分為單階段檢測網絡與雙階段檢測網絡[4]。單階段檢測網絡省略了候選區域生成,直接在原圖上回歸目標類別與位置,而雙階段檢測網絡專注于找出目標物體出現的位置,得到候選區域,并在其基礎上進行分類,尋找更精確的位置。相比雙階段檢測網絡,單階段檢測網絡的典型代表有YOLO(You Only Look Once)系列[5],SSD(Single Shot MultiBox Detector)系列[6],RetinaNet[7],CornerNet[8],CenterNet[9],EfficientDet[10]等。盡管這些網路在自然圖像中取得了優異的性能,但很難直接遷移到紅外艦船檢測任務中。主要原因歸咎于目標成像特性的差異,例如,自然圖像中的目標大多分辨率較高,且目標尺度較大,而紅外圖像中的艦船目標受成像距離與魚鱗波的影響較大。因此,國內外學者開始對深度網絡進行改進,以適應紅外艦船檢測需求。西南技術物理研究所唐中和團隊借鑒YOLOv3[5]的一些思想,設計了一種基于彈載輕量級深度學習網絡,提升艦船目標檢測性能的同時,大大降低了硬件資源需求[11]。北航“新型成像探測技術與系統”藍天創新團隊[12]對復雜場景下的艦船目標檢測算法進行了分析,設計出魯棒性好、準確度高與實時性強的深度學習模型,有效地解決了前景和背景的不均衡差異。UT Austin大學崔屹教授[9]等人將目標檢測問題轉變成關鍵點估計問題,提出了CenterNet網絡,能夠對高精度檢測尺度大于13×13的清晰目標進行檢測,但對弱小目標檢測能力不足。

盡管學術界與工業界已經提出了許多紅外艦船目標檢測模型,但是仍然存在一些挑戰亟需解決,如復雜背景下的目標檢測和弱小目標檢測。基于深度學習的目標檢測算法主要針對自然圖像,紅外目標具有一些與自然圖像明顯不同的特性。具體來說,由于大氣湍流和氣溶膠散射等復雜成像環境的影響,導致紅外艦船目標圖像退化,目標與背景的紅外輻射特性及其相似,魚鱗波也呈現出忽明忽暗的紋理特征,增加了目標檢測的難度[13]。圖1展示了紅外場景下的船舶圖像。船舶的位置距離紅外傳感器20km,其圖1(a)中目標特性較暗,且與背景中的魚鱗波類似;圖1(b)只有中間區域較亮、船身對比度弱,呈現小目標特性。現有的目標檢測算法無法直接用于紅外船舶目標檢測。

為了提升復雜場景下船舶目標檢測的精度,本文設計了一種有效且穩定的單階段艦船檢測網絡,該網絡由3個模塊組成。首先,為了提取上下文特征信息,特征優化模塊被引入來增強小目標的表征能力;然后,采用特征金字塔融合模塊將獲得的上下文特征與多尺度特征進行融合,增強特征的判別能力;最后,上下文增強模塊則平衡前景和背景的不均衡差異,增強目標的區分能力。實驗結果表明,本文所提的網絡對小目標有較準確的檢測效果,具有較高的有效性和魯棒性。

1 CenterNet網絡

式中:是損失函數的超參數;是圖像中的關鍵點的個數,其目的是對損失函數歸一化。由于基準關鍵點會因下采樣導致偏差,CenterNet網絡在目標中心點附近增加了局部自適應偏置項d,y,c。所有類別共享相同的偏置預測模型,并采用1損失函數進行訓練。

因此,整個網絡的最終損失函數可以通過加權獲取,即:

2 改進的單階段艦船檢測網絡

眾所周知,目標檢測與目標分類所需要的主干網是不一樣的,目標分類需要更深的特征以增強目標特征的區分度,而目標檢測應該著重于淺層特征以獲取豐富的位置信息。對于海洋環境中艦船目標檢測,所設計主干網絡需要同時兼顧淺層特征與深層特征,其中前者具有較大的感受野,位置信息豐富,而后者的區分度更大。

由于遠距離成像的紅外圖像含有大量小目標,固定尺度的感受野不能有效檢測出小目標。不同于在主干網絡增加反卷積層用于增大目標檢測中的語義信息,本文采用特征精細模塊從低分辨下采樣圖像中獲取弱小目標的上下文信息,通過使用多尺度卷積層提取多尺度上下文信息,其網絡結構如圖2所示。首先,下采樣圖像經過大小為3×3與1×1的卷積核處理后可以得到多個不同尺度的特征圖;為了提取用于小目標檢測的多尺度上下文信息,3個并行的1×1卷積層將特征圖的數量降低到/3,然后在各自結果上增加一個大小為3×3的空洞卷積,可以增加感受野的范圍,以便顯著地改善目標檢測的性能,并在小目標檢測中發揮積極的作用;最后,引入一個特征級聯算法對所有尺度的特征進行細化,并增加一個3×3卷積層來降低級聯操作引起的特征混疊問題,從而確保提取的深度特征更穩定、表征能力更強。

本文采用的特征精細模塊通過不同擴張率的并行分支來改變感受野的范圍,從而提取多尺度上下文信息,有助于小目標檢測。3個擴展卷積的參數分別是(s=3,=1,=0),(s=3,=2,=2)與(s=3,=4,=4),其中s,和分別表示卷積核尺度、填充范圍與擴張率。不同的填充率和擴張率意味著不同的感受野。直觀上,空洞卷積可以在不損失目標細節特征的情況下增加感受野,有利于小目標檢測,3個并行的空洞卷積分支可以將低層次的特征信息轉化為高表征能力的上下文信息,也有助于低分辨圖像中縮小目標檢測。

實際上,探測器在飛行過程中獲得的紅外圖像極易被太陽光線、云層、風浪等干擾影響,僅僅靠提升弱小目標的檢測能力,并不能增加目標的檢測精度,反而會引入大量虛警。為了有效整合低層次特征與高層次特征,本文采用特征金字塔融合模塊來耦合不同尺度特征信息,通過基于正則化的稠密連接特征金字塔可以將不同尺度的特征信息轉換到相同尺度,最終融合得到高層次語義信息。

圖2 多尺度上下文特征

假定特征金字塔融合模塊中多尺度金字塔特征表示為{1,2,3,5},圖2展示了自頂向下特征金字塔融合過程。首先,深度特征金字塔分解可以采用可變形卷積提取多尺度特征;然后通過下采樣操作將獲得的多尺度特征正則化到與5相同的尺度,并與相應的特征映射進行融合,最后通過另一個可變形卷積來提升特征的表征;最終得到正則化的特征{2,3,4,5}。為了實現對多尺度特征信息的融合,增強目標的表征能力,本文首先需要對特征映射{2,3,4,5}進行級聯操作,然后將此特征與精細化特征進行融合,作為單階段目標回歸模塊的輸入參數。此外,受殘差學習形式的啟發,本文將精細化特征與高層次特征2進行融合,并在其基礎上進行回歸與分類。

掛飛獲取的紅外艦船圖像異常復雜,海面上漂流的雜物、魚鱗波等干擾極易增加檢測的虛警。一般來說,特征金字塔融合模塊提取了具有較強鑒別能力的特征,有助于提升復雜背景中目標的表征能力;同時,本網絡采用的可變形卷積模塊可以處理任何幾何變換問題,具有較高的泛化能力。然而,這些方法對于簡單背景下的弱小目標具有較好的性能,但不能有效增強復雜背景的抗干擾能力。因此,本文所提網絡在特征金字塔融合模塊的基礎上引入了上下文增強模塊,有助于平衡前景和背景的不均衡差異,增強目標的區分能力。

本文引用的上下文增強模塊僅僅使用目標分類特征,中心點與邊界框尺度參數進行訓練,該結構本質上是單級檢測器。假定上下文增強模塊得到的分類特征為,目標中心點與邊界框的偏移參數為c=(,)與b=(,)。當分類特征中H,y,c=1表示像素(,)為目標,而H,y,c=0則表示背景。也就是說,像素點(,)為目標中心點偏差為(,),邊界框的半徑為(/2,/2)。那么目標的邊界框坐標可以表示為(+w/2,+w/2,+w/2,+w/2)。受非局部網絡啟發,局部信息聚合有助于獲取更大范圍的相關信息。因此,本文也通過聚合操作,將目標語義特征耦合到分類特征中,得到目標的特征表示?+;然后利用1×1卷積1×1(,)操作壓縮位置點(,)的通道維數,并對獲得的特征進行融合,并采用可變形卷積獲取任意不規則目標的特征。因此,上下文增強模塊獲得的最優特征可以表示為DCN(?++1×1(,))。

3 訓練函數

與文獻[15]相似,本文所設計網絡損失函數仍然采用等式(4)所示的加權策略。分類損失項k采用改進的交叉熵損失函數,其表達式如下:

式中:conf(,)表示像素點(,)處的置信度;是控制正負樣本對總體樣本損失的共享權重,一般設置為2。

由于本文的應用場景是對艦船目標進行檢測,目標類別單一。與等式(2)類似,中心點偏差損失項與尺度損失項采用L1損失函數。假定目標基準邊界框的4個參數可以表示(1,1,2,2),其中(1,1)與(2,2)分別表示左上與右下坐標點,即:目標的長寬分別可以表示為=(2-1)與=(2-1)。因此,中心點偏差損失項s可以改寫為:

與等式(2)類似,表示下采樣系數,一般設置為2。

4 實驗結果及其分析

4.1 數據集

目前,國際上對船舶的檢測研究主要集中在SAR圖像領域。例如,中科院公開的SAR圖像船舶檢測數據集,包含多源、多模式SAR圖像。紅外探測與成像技術廣泛地應用于海洋艦船監測與制導,積累了大量的紅外船舶目標圖像。雖然大數據時代背景下數據共享逐漸成為趨勢,然而大多數紅外船舶圖像數據集并沒有開源,形成信息孤島。本文所采用的數據集是在橫向課題的資助下,利用浙江大立生產的制冷熱像儀采集了大量港口、近海、遠海的紅外數字視頻,紅外圖像大小為640×512,并對其中的艦船目標進行了標注,部分數據如圖3所示。目標的大小從10×10到540×248不等。為了便于分析,所有的標注數據集都歸一化相同的尺度,并采用隨機裁剪、旋轉等數據增強進行數據擴增。最終本文所選擇的數據集包含23750幅圖像,隨機選取其中90%作為訓練集,10%作為測試集。

圖3 數據集示例

4.2 參數設置及其評價指標

本實驗采用PyTorch框架來搭建本文所提的檢測網絡,硬件環境為:i5 8250@3.10GHz (X4),32 GB (DDR3 1600MHz),Nvidia GeForce GTX 1080 Ti,Ubuntul6.04,64位操作系統。損失函數中1與2分別設置為0.1與1;下采樣系數設置為2;指數因子一般設置為2。總損失函數采用Adam算法進行優化,其中動量為0.9,權值衰減為0.0001,批量大小(batch_size)為32。訓練過程中,學習速率初始化設置為1.25×10-4,然后在訓練到第50個Epoch時,學習速率改為1.25×10-5;若100個Epoch后,整個網絡的損失值不超過迭代閾值則停止訓練。

為了評估所提網絡的檢測性能,本實驗沿用了圖像分類任務中精確率(Precision,)、召回率(Recall,)、1、mAP指標進行評價,并根據檢測邊框與基準框的交并比重新定義了正負樣本的劃分標準,所有指標的計算方法參見文獻[16]。

4.3 消融分析

本文所提的網絡是在CenterNet的基礎上進行改進。首先,提取多尺度上下文信息(multi-scale context information, MCI),進一步細化和增強頂層特征輸入特性,增強弱小目標檢測性能;然后利用特征金字塔融合模塊生成表征能力更強的語義信息(semantic information, SI);最后將多尺度上下文信息與語義信息進行融合(Fusion),增強網絡特征表達能力,以降低復雜背景對檢測性影響,平衡前景和背景的不均衡差異,消除魚鱗波的影響。

為了分析不同改進模塊對整體檢測性能的影響,表1展示了不同改進模塊的消融分析結果,其中基于深層聚合的CenterNet網絡作為對比基線。與基線結果相比,MCI特征提取模塊細化和增強頂層特征輸入特性,有助于檢測小型船舶。對比結果也表明,MCI特征將, mAP,與1分別提高了3.4%, 0.6%, 0.5%與0.1%;SI特征提取模塊將, mAP,與1分別提高了3.7%, 1.3%, 0.3%與0.6%,這表明該模塊將低層次特征與高層次語義特征進行了融合,更加有助于表征具有豐富語義信息的目標。上下文增強融合模塊將, mAP,與1分別提升了2.3%, 1%, 1.5%與1.6%,這表明該模塊增強了目標的表征能力,并削弱了背景的影響,有助于更準確地檢測目標。

表1 不同模塊的消融結果

4.4 定性定量實驗結果

為了對本文所提出的單階段艦船檢測網絡進行定性定量性能分析,實驗選擇了5個最新的目標檢測算法和本文算法進行對比分析,如YOLO-V3[5], RetinaNet[17],RefineNet[18],CenterNet[9]與FCOS(fully convolutional one-stage object detection)[19],其中CenterNet是整個對比實驗的基線。與基線模型相比,本文改進的網絡主要是對特征優化模塊,特征金字塔融合模塊和上下文增強模塊進行改進,但其引入的計算開銷可以忽略不計。

RetinaNet是一種單階段網絡,使用FPN(feature pyramid networks)結構對多個降維特征層進行處理,并對分類支路和回歸支路并行優化;RefineDet是一種仿二段式檢測器,通過啟發式方法來避免類別不均衡問題,并通過兩個級聯的檢測器使預測框更加準確;FCOS算法是無錨框檢測算法,借鑒了FCN的思想,對每個像素進行直接預測。

表2展示了不同對比算法下的定量性能對比。從整體上看,本文改進的網絡性能穩定,對不同場景的適應性較好。與基線CenterNet的結果相比,改進的算法具有明顯提升,其中, mAP,與1分別提高了3.4%, 0.6%, 0.5%與0.1%。紅外探測器在25km發現的目標呈現出弱小特征,本文改進方法利用多尺度上下文信息進一步細化和增強頂層特征輸入特性,有助于小型艦船目標的檢測。

表2 自建數據集上的檢測結果對比

本文所提網絡主要針對艦船目標進行檢測,但統計整體性能并不能對算法性能進行全面分析。因此,項目組將4.1節介紹的自建數據集分成了小目標數據子集(small object sub-set, SOS)、復雜背景數據子集(complex background sub-set, CBS)與其他數據子集(Others),其中CBS子集主要是太陽迎頭帶來的光線干擾、天地線干擾、海岸線干擾、魚鱗波干擾等。深度網絡是一種模擬人類視覺的推理網絡[20],其檢測的弱小目標并不是點目標,而是具備一些輪廓特征。從實驗結果可以看出,所提網絡的mAP比RetinaNet高4.6%,比RefineNet和FCOS高2.9%與8.9%,主要是由于改進網絡采用自頂向下的特征連接,削弱了復雜背景的權重,而其他模型不可避免會遭受噪聲的干擾。

YOLOv3是目前工程上應用較多的單級網絡,但其不能有效地檢測小型目標。對于CBC數據子集,YOLOv3通過采用跨連接和多尺度預測功能實現了80.6%的mAP,本文的方法有最好的準確性,比YOLOv3高4.5%。從表3的結果也可以看出,相比于基線模型CenterNet,所提網絡在Others數據子集上的, mAP,與1分別提高了4.2%, 6.5%, 7.5%和0.5%。

本文網絡在紅外CBC數據集上獲得了最佳的檢測精度,85.2%的mAP和90.1%的1評分。這表明該方法能夠提取出強大的特征表示,用于復雜背景下的艦船檢測。值得注意的是單級檢測網絡性能優于兩級檢測網絡,可以采用各種策略來提高準確性[19]。

表3 不同數據子集上的檢測結果對比

圖4展示了對比算法檢測結果。本文選用了5張比較有代表性的圖像進行檢測。第一行是一張背景復雜目標對比度較低的圖像,其中水波呈現的高亮區域也容易造成虛檢。從實驗結果可以看出,對比算法很容易檢測出近處的大目標,而遠處的小目標則出現漏檢。雖然FCOS檢測出小目標,但以邊界框與目標實際尺寸相差較大。從實驗結果分析得知,FCOS將每個像素看作訓練樣本,圖像中的虛假目標容易干擾檢測性能,最終是將小目標附近的高亮背景當作了目標。第二行是一張帶有海岸線背景的紅外圖像,其目標大多停靠在岸邊。由于本文算法與對比算法都不具備海岸線檢測的能力,無法排除陸地上的干擾。所提的網絡:RetinaNet,RefineNet與CenterNet都找到了陸地上的假目標,但對于海洋上的目標,本文算法性能明顯優于對比算法最優網絡。FCOS網絡不是只將邊界框看作樣本,與語義分割的全卷積相似,通過預測每一個像素類別,進而實現目標檢測。YOLO-v3是所有對比算法中結果最差的,但在這幅圖像中YOLO-v3能夠檢測出所有海面船舶目標。第三行是圖像中天際線附近存在目標,由于目標較遠,天際線附近目標很難發現。從實驗結果可以看出,對比算法都沒能找到目標,本文算法雖然找到了目標,但也找到假目標。從圖上結果也可以看出,若沒有先驗知識,虛假目標確實容易造成誤判,這就需要長期檢測并增強目標的識別概率。第四行中圖像存在多個目標且相互重疊,只能靠智能推理實現目標檢測與區分,然而實際結果中所有算法都沒能正確找到目標,本文算法找到了一個大目標,但遮擋目標只標示出來一小部分。

4.5 掛飛數據分析

為了驗證算法的性能與適應性,本小節將對實際掛飛數據檢測結果進行分析。在掛飛驗證視頻中,目標在28km處出現在視場內時,目標很弱,本文算法不能檢測出疑似目標。當目標的距離增加時,目標的輪廓明顯,最終檢測出目標。由于目標機動運行,探測器獲得的目標在轉彎時,目標的尺度縮小,此時本文算法出現了漏檢,但最終目標重現時,目標又被重新檢測出來。圖5展示了本文算法對一段紅外掛飛視頻進行目標檢測的結果。值得注意的是,圖5右下角圖形受光照影響較大,本文算法也能檢測到目標。整個項目在工程化研制階段,目標的檢測性能較穩定。充分驗證了本文算法在工程應用中的有效性。

圖4 不同算法定性結果對比

圖5 不同場景下的工程驗證結果

5 結論

本文提出了一種改進的單階段艦船檢測網絡,該網絡主要由特征優化模塊,特征金字塔融合模塊和上下文增強模塊組成。為了驗證本文所提方法的有效性和魯棒性,本文對自建的艦船數據集進行了定性定量驗證,結果表明,所提網絡在自建數據集上均達到了最優性能,具有較強抗干擾能力,但對于類別差異較大的船舶,所提方法的泛化性能仍然存在不足。同時,本文所提算法不具備海岸線檢測的能力,無法排除陸地上的干擾。這些不足將是項目組下一步工作計劃。

[1] 邢莎, 吉林, 雍楊, 等. 復雜場景下的自動紅外艦船目標檢測[J]. 紅外技術, 2014, 36(4): 320-325.

XING Sha, JI Lin, YONG Yang, et al. Automatic infrared warship target detection under complicated background[J]., 2014, 36(4): 320-325.

[2] 趙文濤, 曹昕鷙, 田志勇. 基于自適應閾值區域生長的紅外艦船目標分割方法[J]. 紅外技術, 2018, 40(2): 158-163.

ZHAO Wentao, CAO Xinzhi, TIAN Zhiyong. An infrared ship target segmentation method based on adaptive threshold region growth[J]., 2018, 40(2): 158-163.

[3] 丁榮莉, 韓傳釗, 謝寶蓉, 等. 紅外遙感圖像艦船目標檢測[J]. 紅外技術, 2019, 41(2): 127-133.

DING Rongli, HAN Chuanzhao, XIE Baorong, et al. Ship target detection in infrared remote-sensing image[J]., 2019, 41(2): 127-133.

[4] Kumar D, ZHANG X. Ship detection based on faster R-CNN in SAR imagery by anchor box optimization[C]//2019(), 2019: 309-313.

[5] Redmon J, Farhadi A. YOLOv3:an incremental improvement[J]. arXiv: 1804.02767, 2018.

[6] LIU W, Anguelov D, Erhan D, et al. SSD: single shot multibox detector[C]//, 2016: 21-37.

[7] LIN T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection[C]//, 2017: 2999-3007.

[8] LAW H, DENG J. CornerNet: detecting objects as paired keypoints[C]//, 2018: 765-781.

[9] DUAN K, BAI S, XIE L, et al. CenterNet:keypoint triplets for object detection[J/OL].: 1904.08189, 2019.

[10] TAN M, PANG R, LE Q V, et al. EfficientDet:scalable and efficient object detection[J/OL].: 1911.09070, 2019.

[11] 楊濤, 戴軍, 吳鐘建, 等. 基于深度學習的紅外艦船目標識別[J]. 紅外技術, 2020, 42(5): 426-433.

YANG Tao, DAI Jun, WU Zhongjian, et al. Target recognition of infrared ship based on deep learning[J]., 2020, 42(5): 426-433.

[12] 黃潔, 姜志國, 張浩鵬, 等. 基于卷積神經網絡的遙感圖像艦船目標檢測[J]. 北京航空航天大學學報, 2017(9): 132-139.

HUANG Jie, JIANG Zhiguo, ZHANG Haopeng, et al. Ship target detection in remote sensing image based on convolutional neural network[J]., 2017(9): 132-139.

[13] 顧佼佼, 李炳臻, 劉克, 等. 基于改進Faster R-CNN的紅外艦船目標檢測算法[J]. 紅外技術, 2021, 43(2): 170-178.

GU Jiaojiao, LI Bingzhen, LIU Ke, et al. Infrared ship target detection algorithm based on improved faster R-CNN[J]., 2021, 43(2): 170-178.

[14] GUO Haoyuan, YANG Xi, WANG Nannan, et al. A CenterNet++ model for ship detection in SAR images[J]., 2021, 112(88): 25-34.

[15] FAN S, ZHU F, CHEN S, et al. FII-CenterNet: an anchor-free detector with foreground attention for traffic object detection[J]., 2021, 120(99): 1-14.

[16] Barrios J M, Bustos B. Competitive content-based video copy detection using global descriptors[J]., 2013, 62(1): 75-110.

[17] ZHANG Xiang, YANG Wei, TANG Xiaolin, et al. A fast learning method for accurate and robust lane detection using two-stage feature extraction with YOLOv3[J]., 2018, 18(12): 4308-4315.

[18] LIN G, Milan A, SHEN C, et al. RefineNet: multi-path refinement networks for high-resolution semantic segmentation[C]// 2017(), 2017: 1289-1301.

[19] TIAN Z, SHEN C, CHEN H, et al. FCOS: fully convolutional one-stage object detection[C]//2019(), 2020: 1099e3233.

[20] LIU Z, ZHANG X, JIANG T, et al. Infrared salient object detection based on global guided lightweight non-local deep features[J]., 2021, 12(3): 2309-2315.

Infrared Ship Detection Based on Multi-scale Semantic Network

CHEN Chuxia1,DING Yong2

(1.,,238000,;2.,,310000,)

To enhance the anti-jamming performance of ship detection, an effective and stable single-stage ship detection network is proposed in this study. The network is composed of three modules: feature optimization, feature pyramid fusion, and context enhancement modules. The feature optimizationmodule extracts multi-scale context information and further refines the high-level feature input characteristics, to enhance the performance of dim–small object detection. The feature pyramid fusion module can generate semantic information with stronger representation ability. The context enhancement module integrates local and global features to enhance the network feature expression ability, reduce the impact of a complex background on detectability, adjust the imbalance between the foreground and background, and eliminate the impact of scale-wave. To verify the effectiveness and robustness of the proposed method, qualitative and quantitative verifications are performed on a self-built dataset. Experimental results show that the proposed network achieves optimal performance compared with the latest benchmark comparison model and considerably improves the detection accuracy without increasing complexity.

object detection, infrared ship, single-stage network, pyramid pooling, context enhancement

TN219

A

1001-8891(2022)05-0529-08

2021-05-05;

2021-11-29.

陳初俠(1984-),男,實驗師,主要研究方向為數字圖像處理。E-mail:feng84chen@163.com。

丁勇(1974-),男,教授,博士生導師,主要研究方向為圖像深度分析與質量評價。E-mail:dingyong09@zju.edu.cn。

猜你喜歡
特征檢測
抓住特征巧觀察
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 久久久久国产一级毛片高清板| 久久国产成人精品国产成人亚洲| 好久久免费视频高清| 日本爱爱精品一区二区| 成·人免费午夜无码视频在线观看| 日韩最新中文字幕| 日本午夜影院| 日韩欧美国产综合| 婷婷综合色| 亚洲国语自产一区第二页| 久久99国产综合精品1| 免费一级毛片不卡在线播放| 美女免费黄网站| 日本一区二区不卡视频| 久996视频精品免费观看| 欧美日韩激情在线| 美女内射视频WWW网站午夜| 久久综合久久鬼| 婷婷色在线视频| 伊人久热这里只有精品视频99| 国产精品永久久久久| 试看120秒男女啪啪免费| 久久 午夜福利 张柏芝| 日韩小视频在线观看| 无码内射在线| 999精品色在线观看| 亚洲熟女中文字幕男人总站| 成年人国产网站| 婷婷六月在线| 欧美在线一级片| 69av免费视频| 国产精品无码制服丝袜| 手机精品福利在线观看| 国产精品久久久免费视频| 亚洲国产精品一区二区第一页免| 亚洲v日韩v欧美在线观看| 五月婷婷精品| 91久久性奴调教国产免费| 婷婷午夜影院| 日韩在线成年视频人网站观看| 伊人五月丁香综合AⅤ| 亚洲中文字幕无码爆乳| 久热中文字幕在线| 午夜视频免费一区二区在线看| 九九九久久国产精品| 欧美午夜一区| 人妻夜夜爽天天爽| 国产激情无码一区二区三区免费| 91毛片网| 日韩欧美中文字幕在线精品| 福利小视频在线播放| 亚洲AⅤ综合在线欧美一区| 亚洲天堂精品在线| 青草精品视频| 九九热这里只有国产精品| 波多野结衣AV无码久久一区| 99re视频在线| 性喷潮久久久久久久久| 免费全部高H视频无码无遮掩| 性欧美精品xxxx| 午夜福利视频一区| 国产乱人免费视频| 中文字幕无码制服中字| 国产97视频在线| 国产大片喷水在线在线视频| 久久精品丝袜高跟鞋| 亚洲人成色在线观看| 国内丰满少妇猛烈精品播| 456亚洲人成高清在线| 日本在线视频免费| 动漫精品中文字幕无码| 亚洲国产清纯| 久久成人18免费| 丝袜高跟美脚国产1区| 国产性爱网站| 免费观看男人免费桶女人视频| 一级一毛片a级毛片| AⅤ色综合久久天堂AV色综合| 成人在线亚洲| 久久亚洲天堂| 国产国产人在线成免费视频狼人色| 欧美成人日韩|