999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

Faster R-CNN模型在遙感圖像飛機目標檢測中的應用

2019-10-11 07:26:28常鵬飛段云龍
無線電工程 2019年10期
關鍵詞:飛機深度檢測

常鵬飛,段云龍

(中國電子科技集團公司第二十七研究所,河南 鄭州 450047)

0 引言

隨著衛星遙感技術及計算機視覺技術的發展和應用,遙感圖像中的目標檢測成為研究的熱點[1-2]。利用遙感圖像高效快速地檢測出飛機等典型的高價值目標在模式識別、偵察探測等領域具有很高的應用價值,同時也是遙感智能處理領域的重點研究問題。

多年來,國內外許多學者對遙感圖像中飛機檢測技術進行了廣泛而深入的研究,取得了一定的成果。Guang Shu利用顏色、紋理和亮度等低層特征構建顯著圖實現飛機粗定位,訓練AdaBoost級聯分類器,提取harr特征實現目標檢測[3];李新德等人提出了利用DSmT進行多特征融合后用PNN進行分類的飛機目標識別方法[4];蔡紅蘋等人提出了一種基于目標輪廓與灰度特征的圓周頻率濾波法來實現飛機目標的檢測[5]。雖然上述傳統算法在一定程度上解決了遙感圖像中飛機目標檢測的問題,但是這些傳統算法依然存在特征難以設計選取、處理過程繁雜、識別精度低以及泛化能力差等不足。

近年來,隨著深度學習方法的異軍突起,基于深度學習的方法在推薦系統、智慧城市和計算機視覺等領域取得了令人矚目的成績,成為學術界和工業界研究的熱點[6-8]。同時,深度學習方法在推動自然場景圖像目標檢測技術的發展過程中起到了重要作用。與傳統方法相比,深度學習方法是一種端到端模型結構,可以學習到更豐富的語義信息和高層次的圖像特征表征,免去了以往繁瑣的數據預處理、特征提取和參數調優等過程,同時能較好地免除復雜背景的干擾,提高檢測精度,具有較強的魯棒性和泛化能力。與R-CNN[9],SPP[10],Fast R-CNN[11]等其他基于目標候選區的目標檢測深度卷積神經網絡模型相比,Faster R-CNN模型[12]在目標檢測精度和檢測速度上具有明顯優勢。2015年,Faster R-CNN模型在COCO目標檢測比賽中取得第一名的優異成績,并且在PASCAL VOC 2007和PASCAL VOC 2012上也有十分突出的表現。Faster R-CNN是目前最準確、快速的目標檢測模型之一。

雖然深度卷積神經網絡模型Faster R-CNN在自然場景圖像目標檢測任務中取得了優異的表現,但是由于缺乏公開且成熟的專門針對遙感圖像飛機目標檢測的數據集,導致將Faster R-CNN模型用于遙感圖像飛機目標檢測的應用研究相對較少。鑒于此,本文構建了全新的遙感圖像飛機目標檢測數據集Airplane-2018,并基于該數據集進行FasterR-CNN模型的遷移學習訓練。實驗結果表明,該方案可以較好地適應遙感圖像飛機目標檢測的應用研究。

1 Faster R-CNN模型

R-CNN和Fast R-CNN等基于目標候選區的目標檢測模型中,目標候選區提取步驟獨立于整個深度網絡單獨存在,且難以融入GPU運算,成為限制檢測速度的瓶頸。針對以上問題,Shaoqing Ren等人提出了Faster R-CNN模型,該算法引入區域生成網絡(Region Proposal Networks,RPN)來進行目標候選區的提取。

Faster R-CNN模型主要由2個模塊組成:RPN候選區生成模塊和Fast R-CNN檢測模塊,如圖1所示。具體又可以細分為4個單元:卷積層單元、區域生成網絡單元、RoI池化單元以及分類和回歸單元。

① 卷積層單元:包括一系列卷積和池化操作,用于提取圖像的特征,卷積層單元的權值參數為RPN候選區生成模塊和Fast R-CNN檢測模塊共享;

② 區域生成網絡單元:生成目標候選區,用于后續的目標檢測與識別;

③ RoI池化單元:綜合卷積層特征和目標候選區的信息,將目標候選區在輸入圖像中的坐標映射到最后一層特征中,對特征圖中對應區域進行池化操作,得到固定大小的池化結果;

④ 分類和回歸單元:用于判斷目標候選區的類別并預測其準確位置。

圖1 Faster R-CNN模型框架

Faster R-CNN模型將目標候選區的提取、深度特征提取、目標檢測和識別過程都融入到一個端到端的深度網絡模型中。所有的過程都可以在GPU中運行,從而在不降低檢測精度的情況下,大大提高了檢測速度。

2 微調預訓練模型

2.1 Airplane-2018數據集

在遙感圖像飛機目標檢測的應用研究方面,目前缺乏公開且成熟的專門針對遙感圖像飛機目標檢測的數據集。因此,本文構建了遙感圖像飛機目標檢測數據集Airplane-2018。Airplane-2018數據集從Google Earth上人工截取不同國家機場的衛星圖像,如圖2所示。每幅影像大小在66×51個像素到 3 072×2 480個像素之間,分辨率在0.3~2 m之間。數據集構建過程中,為了增加數據集的多樣性和適用性,盡量采集了來自不同傳感器,且在不同時間、不同季節、不同光照強度和不同成像視角的圖像。

圖2 機場圖像截取

深度學習訓練過程中,為了防止過擬合現象,需要進行數據擴充[13]操作。常見的幾種數據擴充方式有隨機裁剪、旋轉變化及色彩抖動等,過程如圖3所示。經過數據擴充,獲得數據集共計3 410幅圖像,15 056個飛機樣本。Airplane-2018數據集部分圖像樣例如圖4所示。由圖4中可以看出,數據集Airplane-2018數據集中圖像場景較為復雜,飛機目標在整幅圖像中所占比例小,且圖中含有大量背景目標,如跑道、機庫和登機樓等。

圖3 數據擴充

圖4 Airplane-2018數據集部分圖像樣例

本文使用開源軟件LabelImg對圖像中的飛機目標人工進行標注,使用矩形框框選飛機目標,生成的標注信息自動保存在XML文件中,如圖5所示。

圖5 飛機目標區域信息標簽提取

標注信息中最重要的是、。就是標注對應的圖片文件的名字;中包含、,分別是圖片像素的寬、高和通道數;就是物體和對應標注框,其中是物體的名稱,、、,分別是左上角和右下角的像素位置坐標。參考VOC 2012的數據集格式,Airplane-2018數據集主要包含3部分:① 圖片集(JPEGImage),JPEGImage文件夾下的圖片以6位數字命名,格式為JPEG或JPG,如101008.jpg;② 圖片標注信息(Annotations),Annotations文件夾下為xml文件,文件名與JPEGImage文件夾下圖片文件一一對應;③ 索引文件信息(ImageSets),train.txt中存儲訓練數據的索引信息,val.txt中存儲驗證數據的索引信息。Airplane-2018數據集按照4∶1∶1的比例劃分為訓練集、驗證集和測試集,分別用于模型訓練、參數調優和結果評價。

2.2 微調預訓練Faster R-CNN模型

深度卷積神經網絡之所以能在自然場景圖像目標檢測任務中具有較高的準確性和可靠性,得益于龐大的圖像數據集作為支撐,如 ImageNet[14],COCO[15],VOC[16]圖像數據集等。訓練一個檢測正確率高、泛化能力強的深度卷積神經網絡模型,需要數據量充足的圖像數據。雖然本文構建了遙感影像飛機目標檢測數據集Airplane-2018,但是數據集的規模仍然較小。如果直接在Airplane-2018數據集上進行模型的訓練學習,會因網絡參數過多,導致訓練不充分,產生過擬合現象,最終訓練出來模型的泛化能力很差。因此,本文采用微調預訓練模型的遷移學習[17-18]思路對模型進行訓練學習。

本文選擇使用在COCO數據集上預訓練Faster R-CNN+Inception_ResNet_v2模型實現端到端的遷移學習,訓練過程在TensorFlow[19]深度學習開源框架下進行,具體步驟如下:

① 將Airplane-2018數據集按照VOC 2012數據集文件夾結構進行劃分調整,調整后的文件夾結構如圖6所示;

圖6 文件夾結構

② 利用TensorFlow數據集轉化工具將數據集轉換成tfrecord格式;

③ 下載在COCO預訓練的Faster R-CNN +Inception_ResNet_v2模型,并對訓練配置文件pipeline.config進行相應修改;

④ 訓練模型:python train.py-train_dir airplane/train_dir/--pipeline_config_path airplane/pipeline.config。

網絡模型訓練的超參數設置如表1所示。

表1 網絡超參數設置

參數項取值基礎學習速率0.003動量0.9IoU閾值0.7最大候選區生成個數300

學習率初始設置為0.003,當模型收斂到一個平穩值時,將學習率改為原來的1/10,即0.000 3,如此重復3次。網絡訓練的誤差收斂曲線如圖7所示。

圖7 loss收斂曲線

誤差隨著迭代的次數增加而逐漸減小,逐漸趨于收斂。

3 實驗結果

本文實驗在Centos7.4操作系統下,以配置了型號為NVIDIA GeForce GTX 970的GPU顯卡的機器為硬件平臺,選擇TensorFlow深度學習框架實現深度卷積神經網絡。

在測試數據集上的實驗效果如圖8所示。由圖8(a)可以看出,在圖像背景較為復雜、飛機朝向不確定和飛機目標聚集等情況下,本文訓練的檢測模型依然有良好的檢測表現,有較強的魯棒性。但同時還存在漏警、虛警的情況,如圖8(b)所示。在飛機目標過小且聚集的情況下,容易出現漏警的情況;在外形輪廓與飛機相似的情況下,容易出現虛警的情況,進一步降低虛警、漏警是下一步研究的重點。

圖8 飛機目標檢測結果

通過設置不同的置信度閾值,在測試集上可以獲取多組不同閾值對應的查準率和查全率。根據多組數據,以查全率為橫坐標,查準率為縱坐標,可以畫出精度-召回曲線,如圖9所示。

圖9 精度-召回曲線

由圖9中可以看出,AP值為0.903 8,在查全率達到95%的情況下,查準率可以達到85%。

4 結束語

本文主要探討了深度卷積神經網絡模型Faster R-CNN在遙感圖像中對飛機目標檢測的應用。首先構建了遙感圖像飛機目標檢測數據集Airplane-2018,并在此基礎上,對Faster R-CNN模型采用微調預訓練模型的遷移學習方法進行訓練。實驗結果表明,Faster R-CNN模型在采用微調預訓練模型的遷移學習方法訓練后,在遙感圖像飛機目標檢測上具有可行性且效果尚佳,在一定程度上滿足遙感圖像飛機目標檢測的應用需求,同時進一步驗證了遷移學習可以使深度卷積神經網絡很好地適應小數據集的應用研究。

同時,需要注意的是,由于目前缺乏公開且成熟的專門針對遙感圖像飛機目標檢測的數據集,本文僅在自構建的Airplane-2018數據集上進行了實驗,因此實驗結果還存在一定的局限性。后續工作將對Airplane-2018數據集進一步擴充,并考慮將該數據集貢獻給開源社區,以利于其他學者開展相關研究;同時繼續深入開展相關研究,將Faster R-CNN模型拓展到油罐、艦船等其他目標的檢測中,提高遙感圖像的應用價值。

猜你喜歡
飛機深度檢測
飛機失蹤
環球時報(2022-05-30)2022-05-30 15:16:57
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
深度理解一元一次方程
“拼座飛機”迎風飛揚
當代陜西(2019年11期)2019-06-24 03:40:28
深度觀察
深度觀察
深度觀察
乘坐飛機
主站蜘蛛池模板: 99在线小视频| 99性视频| 免费中文字幕一级毛片| 一级片免费网站| 亚洲精品久综合蜜| 在线播放精品一区二区啪视频 | 欧美伊人色综合久久天天| …亚洲 欧洲 另类 春色| 久久鸭综合久久国产| 蜜桃视频一区二区三区| 国产成人亚洲毛片| 成人永久免费A∨一级在线播放| 日韩欧美亚洲国产成人综合| 国产三级视频网站| 日本久久网站| 亚洲男人的天堂久久精品| 天天摸夜夜操| 91麻豆精品国产91久久久久| 亚洲成人高清无码| www.精品国产| 欧美精品亚洲精品日韩专区va| 欧美久久网| 亚洲一区免费看| 欧美日韩国产在线人成app| 亚洲成A人V欧美综合天堂| 天堂va亚洲va欧美va国产| AV不卡无码免费一区二区三区| 亚洲精品少妇熟女| 97av视频在线观看| 欧美亚洲第一页| 国产成人8x视频一区二区| 制服丝袜国产精品| 亚洲视频在线网| 精品国产黑色丝袜高跟鞋| 国产精品内射视频| 欧洲欧美人成免费全部视频| 99久久国产精品无码| 69视频国产| 国产精品永久不卡免费视频| 免费看a级毛片| 亚洲午夜久久久精品电影院| 日韩在线欧美在线| 亚洲色婷婷一区二区| 亚洲天堂久久新| 无码中字出轨中文人妻中文中| 色有码无码视频| 精品国产91爱| 国产丝袜啪啪| 午夜日b视频| 亚洲综合亚洲国产尤物| 国产91视频免费| 亚洲国产成人麻豆精品| 毛片在线播放网址| 美女内射视频WWW网站午夜| 久久 午夜福利 张柏芝| 久久亚洲黄色视频| 亚洲欧美成人网| 欧美国产综合色视频| 国产精品无码制服丝袜| 91福利国产成人精品导航| 国产成人在线无码免费视频| 人妻无码一区二区视频| 亚洲欧美色中文字幕| 2021国产精品自产拍在线观看| 国产综合另类小说色区色噜噜| 四虎在线观看视频高清无码 | 国产91高跟丝袜| 综合久久五月天| 青青国产视频| 日韩天堂在线观看| 婷婷五月在线| 精品一区二区无码av| 婷婷六月综合网| 欧美精品影院| 久久综合亚洲鲁鲁九月天| 熟妇无码人妻| 91精品啪在线观看国产60岁| 91在线国内在线播放老师| 青草视频网站在线观看| 看你懂的巨臀中文字幕一区二区| 成人午夜在线播放| 中文字幕在线播放不卡|