999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種Anchor Free的無人機檢測方法

2021-01-19 02:24:12文,孫
計算機技術與發展 2021年1期
關鍵詞:區域檢測方法

耿 文,孫 涵

(1.南京航空航天大學 計算機科學與技術學院/人工智能學院,江蘇 南京 211106;2.南京航空航天大學 模式分析與機器智能工信部重點實驗室,江蘇 南京 211106)

0 引 言

目前,無人機已經被廣泛應用于商業和娛樂等領域,它在帶來極大便利的同時,也在威脅著個人隱私,甚至會威脅到民航的安全,因此對于無人機的檢測變得越來越重要。

目前的無人機檢測技術都是建立在通用目標檢測算法基礎之上的。起初,通用目標檢測算法采用滑動窗口的方式來預測目標的位置。隨著深度學習的崛起,這種自動從數據中學習特征表示的方式被廣泛應用到目標檢測中。R-CNN[1]和Fast R-CNN[2]通過區域建議生成來提取感興趣目標區域。之后,基于anchor的RPN[3]很快取代了區域建議生成這種方式。由此,anchor被廣泛應用于各種目標檢測應用中。目前主流的目標檢測算法,比如Faster R-CNN[3]、SSD[4]和YOLOv2[5]都依賴于一組預先定義的anchor。

盡管這些基于anchor的目標檢測算法取得了優異的成績,但是仍然存在著一些問題:

(1)像文獻[3,6]中的目標檢測算法的性能與anchor的尺寸、長寬比和數量有著直接的關系。如果預先定義的anchor參數不合適,這會極大地影響目標檢測算法的性能。

(2)anchor的尺度和長寬比是固定的,因此目標檢測算法在處理形狀變換比較大的目標時依舊會遇到困難,特別是對于小目標。預先定義的anchor還限制了目標檢測算法的泛化能力[7]。

(3)基于anchor的目標檢測算法一般會采用密集anchor的方式來獲得比較高的召回率。比如特征金字塔網絡(FPN[8])有超過18萬個anchor,在訓練過程中,大部分的anchor都被標記為負樣本,這會加重正負樣本的不平衡性。

(4)在訓練時,需要計算所有anchor與真實框的IoU得分,過多的anchor會顯著增加計算量和內存占用。

為了解決以上問題,最直接的辦法就是拋棄這些預先定義的anchor,采用anchor free的方法來檢測目標。一階段目標檢測算法YOLOv1[9]是最早的anchor free檢測方法,它是在每個網格上直接預測兩個候選邊界框的參數。目前,越來越多的anchor free檢測方法被提出。CornerNet[10]預測的是兩組角點(左上角和右下角)。ExtremeNet[11]是通過預測極值點和中心點來檢測目標的。FSAF[12]添加了兩個卷積層,這兩個卷積層分別負責anchor free方法的目標分類和邊界框回歸。FCOS[13]為了剔除遠離目標中心的低質量檢測框,提出了中心度分支。

1 相關工作

1.1 目標檢測

起初,R-CNN[1]和Fast R-CNN[2]通過區域建議生成方法來提取感興趣目標區域。接著,基于anchor的Region Proposal Network[3](RPN)很快取代了區域建議生成方法。由此,anchor被廣泛應用于各種目標檢測框架中。

目前基于anchor的檢測器主要分為兩類:兩階段和一階段。兩階段的目標檢測方法主要有Faster R-CNN[3]、SPP-Net[14]和HyperNet[15]。這些方法首先生成一系列的目標候選邊界框,然后使用卷積神經網絡去分類這些目標。一階段的目標檢測方法主要有SSD[4]和YOLOv2[5]。與兩階段目標檢測方法相比較,一階段目標檢測方法直接將目標定位問題轉化為目標回歸問題。

為了改善anchor的能力,目前也有許多成功的嘗試。MetaAnchor[7]可以從任意預先定義的anchor中動態生成anchor函數。Guided-Anchoring[16]聯合預測目標中心位置以及不同位置上可能存在的目標尺度和長寬比,以此來動態地檢測目標。

解決anchor產生的問題最直接的辦法其實是拋棄這些預先定義的anchor,采用anchor free的方法。一階段目標檢測器YOLOv1[9]是最早的anchor free檢測方法。后來,anchor free的目標檢測算法逐漸分為兩類:基于關鍵點的和基于密集采樣的。基于關鍵點的方法主要有CornerNet[10]和ExtremeNet[11]。基于密集采樣的方法主要有FSAF[12]和FCOS[13]。

1.2 小目標檢測

最初對于小目標的檢測大都使用傳統方法。文獻[17]利用目標的高頻特性來檢測小目標;文獻[18]是基于卡爾曼濾波的小目標檢測與追蹤;文獻[19]中使用Difference of Gaussian(DoG)算法檢測小目標,然后使用卡爾曼濾波與粒子濾波結合的方式來追蹤小目標。

隨著深度學習的大熱,基于深度學習的小目標檢測算法得到了廣泛應用。2017年,陳江昀基于卷積神經網絡CNN和超像素算法提出了一種新型的面向微小目標的檢測方法[20]。2018年,郭之先提出了一種改進的Faster R-CNN檢測算法[21]用來檢測交通場景中的小目標。

1.3 無人機檢測

關于無人機檢測的算法可以分為傳統的方法和基于深度學習的方法。傳統方法中,文獻[22]利用卡爾曼模型來動態地檢測和跟蹤無人機。文獻[23]從無人機目標的移動性、空間性、振動性這三個方面建立了無人機檢測系統。

基于深度學習的方法中,文獻[24]結合CNN和運動補償來檢測視頻中的飛行目標。文獻[25]提出了一種基于卷積神經網絡(CNNs)的學習網絡,實現了無人機目標的檢測。文獻[26]提出了兩種基于SSD的無人機檢測方法,一種方法利用ResNet網絡進行特征提取來檢測無人機,另一種方法是直接將SSD檢測到的無人機目標圖像送入到AlexNet網絡中進行微調。文獻[27]針對固定相機和運動相機,設計了兩種不同的方法來檢測視頻中的小型無人機。

2 模型和方法

受FSAF和FCOS的啟發,該文提出了一種anchor free的無人機檢測方法。

首先,針對地對空拍攝的無人機目標大部分都是小尺度的情況,主干網絡要選取適合提取小目標特征的網絡,該文選取HRNet[28]作為主干網絡。HRNet網絡可以得到目標豐富的高分辨率特征表示,這對于網絡的分類和回歸是有益的。對應的,neck網絡由FPN變為了HRNet[28]作者提出的HRFPN,使得金字塔特征圖在下采樣的過程中保留更多的細粒度信息。

接著,采用逐像素的方式來預測感興趣區域,采用soft-NMS方法對邊界框進行排名。最后,對于置信度損失和回歸損失,分別采用Focal Loss損失和Smooth L1損失。Focal Loss損失關注困難樣本和平衡正負樣本數量。

2.1 網絡模型

如圖1所示,該網絡模型主要包括三個部分:主干網絡、HRFPN和head。

圖1 網絡結構

對于主干網絡,放棄了常用的ResNet和ResNeXt,采用高分辨率網絡HRNet。HRNet由四個階段的子網絡組成,第一階段子網絡輸出高分辨率特征圖,然后每新增一個階段,該階段子網絡的輸出特征圖分辨率會降低2倍。為了得到目標豐富的高分辨率表示特征,該網絡將多分辨率子網并行連接,然后進行多次的多尺度融合,這樣使得每一個高分辨率到低分辨率的表示特征都從其他并行表示中反復接收信息。因此,預測的特征圖會更加具有細粒度的特征,在空間上的表示也更加精確。HRFPN代替傳統的FPN,用來構建一個多層次的特征金字塔圖。首先低分辨率的特征表示進行雙線性上采樣,然后將這些特征表示堆疊起來,最后通過多層次的平均池化進行下采樣獲得多層金字塔特征圖。head模塊包括分類和回歸分支。該模塊主要是在感興趣區域采用逐像素預測的方法來進行目標分類和回歸。

2.2 正負樣本劃分

一般anchor free的目標檢測方法需要對特征圖從左到右從上到下進行掃描,然后每個像素點都預測一個分類結果和回歸邊界框的偏移量。對這些像素點劃分正負樣本的時候,一般的方法是如果像素點落在目標區域內,該像素點就是正樣本,否則為負樣本,但是考慮到目標真實邊界框邊緣的像素點都遠離目標中心,如果將這些像素點作為正樣本,對網絡模型的訓練會造成困難。尤其對于小目標來講,它的邊緣點與背景像素更為接近,這無疑增加了小目標檢測的困難度。綜上考慮,將目標真實邊界框中的邊緣附件的像素點作為負樣本,將落在目標中心附件的像素點作為正樣本,如圖2所示。

圖2 目標區域的正負樣本劃分

該文借鑒了Kong Tao、Sun Fuchun和Liu Huaping等人提出的“Object Fovea”思想,通過參數δ1來調節目標的寬和高,將真實邊界框的區域向目標中心收縮一些,收縮后的邊界框內的像素點作為正樣本;通過參數δ2再次調節邊界框的寬和高,將邊界框向外擴展一些,擴展后的邊界框邊緣的像素點作為負樣本,處于兩個邊界框之間內的像素點作為忽略樣本,不參與網絡分類和回歸。忽略樣本區域的存在增加了正負樣本之間的判別度,從而提高了網絡的性能。該文使用(x1,y1,x2,y2)表示目標的真實邊界框,也就是目標左上角和右下角的位置。目標邊界框的縮放公式如下所示:

(1)

由于該文采用了逐像素預測目標的方法,雖然能很好地提升網絡召回率,但是在逐像素預測的過程中會產生許多低質量的預測邊界框。雖然用目標的中心區域作為正樣本區域已經丟棄了一些遠離目標中心的低質量邊界框,但是,正樣本區域的邊緣區域依舊還是會存在一些低質量的邊界框。基于此,該文借鑒了FCOS的centerness概念,提出利用中心度來衰減遠離目標中心的訓練像素點的置信度。中心度越大,表明像素點越靠近目標中心,反之,像素點離目標中心越遠。這樣中心度就可以抑制檢測到的低質量的邊界框,并且中心度策略不會引入任何超參數。中心度計算公式如下:

(2)

其中,(tx1,ty1,tx2,ty2)是由式(3)計算出來的邊界框回歸的偏移量。網絡訓練時,中心度采用二元交叉熵損失(binary cross entropy)來約束中心度取值的范圍。中心度取值的范圍為(0,1)。中心度策略就是在每層預測特征圖上添加一個網絡分支,該網絡分支與分類并行,這就相當于給網絡模型添加了一個中心度損失。中心度損失會保證預測的邊界框盡可能地靠近目標中心。在訓練的過程中,約束中心度的值,使其接近于0。這樣在測試網絡模型的過程中,soft-NMS就可以更好地濾除遠離目標中心的低質量邊界框,從而提高網絡模型檢測性能。

2.3 邊界框回歸

對目標區域進行正負樣本劃分后,采用多尺度策略,利用HRFPN網絡生成的多層金字塔特征圖來檢測不同尺度的目標。每個特征圖要預測的目標都有一個正樣本區域(感興趣區域),對每個正樣本區域進行逐像素預測。如圖3所示,預測由兩個分支網絡負責,一個分支網絡負責分類,另一個分支網絡負責邊界框回歸。

圖3 目標分類和回歸示意

負責邊界框回歸的分支網絡,將感興趣區域內的像素坐標(x,y)映射到原始圖上的坐標,然后計算映射后的坐標與其所屬目標樣本的真實邊界框的偏移量。偏移量計算公式如下:

(3)

其中,2l是第l層金字塔特征圖的stride值,s應該選擇與目標邊框面積最接近的尺度。通過調整s,可以控制每個特征圖上覆蓋目標的尺度范圍。(tx1,ty1,tx2,ty2)的直觀含義可以參考圖4,這里(tx1,ty1,tx2,ty2)不再是簡單地衡量與邊界框四周的距離值,而是衡量與邊界框四周的偏移程度,使用log函數來計算這種偏移程度。

圖4 偏移量直觀含義

2.4 損失函數

訓練損失包括置信損失和定位損失,損失定義如下:

(4)

置信損失Lcls采用的是Focal loss,定位損失Lloc采用的是Smooth L1損失。Npos是正樣本的數量,c={0,1}是來匹配預測的框與類別p的真實邊界框,如果c=1,預測框是正樣本,否則為負樣本。λ在實驗中為1用來平衡定位損失Lloc的權重。l代表預測框的參數,g是標記框的參數。定位損失展開如下:

(5)

文中的anchor free的方法采用的是逐像素預測邊界框,將像素的位置(x,y)作為訓練樣本,直接對每個位置的目標邊界框進行歸一化處理。采用計算像素位置(x,y)與真實框(x1,y1,x2,y2)(左上角與右上角位置)的偏移量(tx1,ty1,tx2,ty2)的方法。偏移量計算如式(3)。

3 實驗結果和分析

3.1 無人機數據集

無人機數據采集與標注是進行實驗的基礎。如圖5所示,這些無人機圖像的采集主要有三個方面,一個是自己采集的被監控攝像頭捕捉到的圖像,另外兩個是從文獻[29-30]收集到的圖像。總共9名學生花了近兩個月的時間來標記和重新標記這些無人機圖像,從而創建了一個包括32 237張圖像的無人機數據集。從圖5中可以看出,無人機(矩形標記框包圍的目標)的尺寸太小,人眼根本無法發現。因此,無人機檢測是一項具有挑戰性的任務。筆者設計的無人機數據集共有32 237張圖像,其中26 237張圖像作為訓練集,1 000張圖像作為驗證集,5 000張圖像作為測試集。

(a)自己采集的圖像

(b)文獻[29]中的圖像

(c)文獻[30]中的圖像

3.2 實驗過程

使用無人機數據集的訓練集來訓練網絡。在Py-

torch框架下,使用一塊1080的NVIDIA GPU進行實驗。實驗中,使用訓練好的FCOS網絡模型作為預訓練模型來訓練該文提出的網絡,然后在訓練集上微調網絡模型。為了定量和定性地分析比較網絡,所有網絡的基本參數設置如下:迭代次數為20 epochs,動量為0.9,權重衰減為0.000 1。網絡訓練的初始學習率為10-3。當網絡迭代到5 epochs、10 epochs和15 epochs時,學習率變為10-4、10-5和10-6。

3.3 實驗結果

3.3.1 消融實驗

文中方法是基于FCOS網絡的,然后對基礎網絡FCOS采取了以下幾種策略:(1)基礎網絡使用中心區域思想回歸邊界框;(2)主干網絡由傳統的ResNet和ResNeXt變為HRNet;(3)neck網絡也由傳統的FPN變為HRFPN;(4)測試網絡模型時,由NMS策略變為soft-NMS策略。為了充分說明這幾種策略對網絡是有益的,該文進行了消融實驗,實驗結果如表1和表2所示。

可以發現采用soft-NMS策略后,AP提升了大約1.8個精度,AP50提升了大約0.7個精度,AP75提升了3.6個精度。對于AR的各個指標,除了ARmax=1沒有提升,其他均提升了大約5個精度。這個結果充分證明了檢測算法采用soft-NMS策略的有效性。

對于HRNet網絡,分別與FPN和HRFPN網絡組合使用,發現使用FPN后,網絡性能反而下降了,而使用HRFPN后,網絡性能指均有所提高。AP提升了大約2.5個精度,AP50提升了0.6個精度,AP75提升了0.6個精度,ARmax=1提升了4.8個精度,ARmax=10提升了1.1個精度,ARmax=100也提升了0.8個精度。這些充分證明了HRNet和HRFPN組合使用的有效性。

HRNet和HRFPN組合使用后,使用中心區域思想回歸邊界框,整體檢測性能有所提升,其中5個檢測指標有提升,只有AP50沒有提升,略微下降了一些。AP和AR這6個指標中,AP提升了大約0.8個精度,AP50稍微下降了0.4個精度,AP75提升了6.2個精度,ARmax=1提升了4.8個精度,ARmax=10提升了1.1個精度,ARmax=100也提升了0.8個精度。這些充分證明,使用中心區域思想回歸邊界框是非常有效的。

表1 關于AP的消融實驗

表2 關于AR的消融實驗

表3 目標檢測算法在無人機數據集上的AP結果

表4 目標檢測算法在無人機數據集上的AR結果

3.3.2 實驗對比

為了充分說明文中方法的優越性,對基于anchor的經典目標檢測算法以及anchor free的目標檢測算法也在無人機數據集上進行了實驗,實驗結果如表3和表4所示。

基于anchor的目標檢測方法,對經典的兩階段目標檢測算法Faster R-CNN、Cascade R-CNN和一階段目標檢測算法SSD進行了復現。對于anchor free的目標檢測算法,對FSAF和FCOS進行了復現。測試時,這些目標檢測算法均采用了soft-NMS策略。從表3和表4中可以發現,文中方法的表現是最優異的,僅僅是AP50的結果略低于基于ResNet-r101-FPN的FCOS算法。對于AP、AP75、ARmax=1、ARmax=10和ARmax=100,文中方法相比于對應的第二名的算法分別提高了1.6、1.1、1.4、1.6和2.1個精度,這些結果充分證明了文中方法的優越性。

4 結束語

提出了一種anchor free的無人機檢測方法,該方法完全避免了與anchor相關的計算和超參數。針對無人機大部分都是小目標的情況,提出使用HRNet網絡作為主干網絡來獲得具有豐富細粒度信息的特征。相應的,HRFPN代替傳統的FPN來生成多層金字塔特征圖。相比較于其他基于anchor和anchor free的目標檢測方法,該方法對于無人機檢測獲得了更好的表現,具體表現為:相比較于基于anchor的目標檢測器,該方法更加具有魯棒性,可以自適應地預測目標邊界框,相比較于其他的anchor free的目標檢測器,該方法獲得了更好的精確率和召回率。另外,該方法也可以用來檢測其他小目標,而不僅僅是無人機。

猜你喜歡
區域檢測方法
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
可能是方法不對
小波變換在PCB缺陷檢測中的應用
關于四色猜想
分區域
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 成人午夜视频网站| 色偷偷男人的天堂亚洲av| 99热国产在线精品99| 热99re99首页精品亚洲五月天| 天天爽免费视频| 欧美成人午夜在线全部免费| 黄色成年视频| 高清精品美女在线播放| 久久精品一卡日本电影| 免费人成黄页在线观看国产| 9cao视频精品| 亚洲中文字幕久久精品无码一区| 九九九精品成人免费视频7| 97视频精品全国在线观看| 成人在线天堂| 久久综合久久鬼| 亚洲av色吊丝无码| 国产流白浆视频| 亚洲开心婷婷中文字幕| 试看120秒男女啪啪免费| 亚洲αv毛片| 午夜无码一区二区三区| 免费观看国产小粉嫩喷水| 97青青青国产在线播放| 19国产精品麻豆免费观看| 亚洲精品制服丝袜二区| 日本欧美在线观看| 国产成人精品亚洲日本对白优播| 亚洲欧洲国产成人综合不卡| 91精品伊人久久大香线蕉| 日本高清有码人妻| 午夜综合网| 亚洲美女视频一区| 一边摸一边做爽的视频17国产| 99久久精品免费观看国产| 欧美特黄一免在线观看| 夜精品a一区二区三区| 精品国产成人a在线观看| 中文字幕 日韩 欧美| 韩国v欧美v亚洲v日本v| 国产欧美日韩综合一区在线播放| 四虎国产精品永久一区| 欧美性色综合网| 一本一道波多野结衣一区二区 | 91久久偷偷做嫩草影院电| 97视频在线观看免费视频| 国产欧美在线观看一区| 99青青青精品视频在线| 77777亚洲午夜久久多人| 日韩毛片免费观看| 久草网视频在线| 免费一级无码在线网站| 免费全部高H视频无码无遮掩| 国产不卡一级毛片视频| h网址在线观看| 免费在线观看av| 永久毛片在线播| 特级欧美视频aaaaaa| 99精品在线视频观看| аⅴ资源中文在线天堂| 国产亚洲精品资源在线26u| 不卡国产视频第一页| 亚洲香蕉伊综合在人在线| 国产理论一区| 亚洲国产成熟视频在线多多| 国产在线拍偷自揄观看视频网站| 亚洲水蜜桃久久综合网站| 一区二区三区高清视频国产女人| 国产午夜看片| 国产毛片不卡| 91亚洲视频下载| 精品亚洲欧美中文字幕在线看| 在线国产你懂的| 欧美色视频网站| 日韩精品亚洲一区中文字幕| 国产亚洲成AⅤ人片在线观看| 18禁不卡免费网站| 日韩无码黄色网站| 91成人精品视频| 就去吻亚洲精品国产欧美| 色综合久久无码网| 九色视频最新网址|