999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

卷積神經(jīng)網(wǎng)絡(luò)對(duì)SAR目標(biāo)識(shí)別性能分析

2018-11-06 09:46:14,,
關(guān)鍵詞:模型

, ,

(海軍航空大學(xué), 山東煙臺(tái) 264001)

0 引言

合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)由于具有全天候、全天時(shí)和一定的穿透成像能力,可以不受氣候條件對(duì)地面及海面目標(biāo)持續(xù)觀測(cè),已經(jīng)被廣泛應(yīng)用于戰(zhàn)場(chǎng)偵察和情報(bào)獲取等領(lǐng)域[1]。區(qū)別于傳統(tǒng)光學(xué)圖像,SAR圖像具有微波波段成像和相位相干處理的顯著特征[2],這使得SAR圖像一方面可以反映出目標(biāo)的微波散射特性,獲得大量從光學(xué)圖像和紅外遙感圖像無(wú)法得到的信息[3],另一方面也受到陰影、迎坡縮短和頂?shù)椎怪玫炔焕绊?,增?qiáng)了圖像的模糊性和畸變性,難以直接解讀。SAR自動(dòng)目標(biāo)識(shí)別(Automatic Target Recognition,ATR)作為SAR圖像解譯中的重要環(huán)節(jié),一直都是國(guó)內(nèi)外學(xué)者的研究重點(diǎn)[4]。傳統(tǒng)SAR圖像目標(biāo)識(shí)別方法主要由預(yù)處理、特征提取、識(shí)別分類(lèi)等相互獨(dú)立的步驟組成,特征提取過(guò)程一般需要借助SIFT[5],HOG[6]等算法提取具有良好區(qū)分性的特征才能較好地實(shí)現(xiàn)分類(lèi),但復(fù)雜的流程不僅限制了SAR圖像目標(biāo)檢測(cè)識(shí)別的效率,也制約了目標(biāo)檢測(cè)識(shí)別的精度[7]。

卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為一種端到端的處理架構(gòu)可以直接使用圖像的原始像素作為輸入,降低了對(duì)圖像數(shù)據(jù)預(yù)處理的要求并且避免了復(fù)雜的特征工程,自動(dòng)學(xué)習(xí)數(shù)據(jù)的分層特征相比人工設(shè)計(jì)特征提取規(guī)則可以對(duì)原始數(shù)據(jù)進(jìn)行更本質(zhì)的刻畫(huà)。此外,局部連接、權(quán)值共享及池化操作等特性可以有效地降低網(wǎng)絡(luò)的復(fù)雜度,減少訓(xùn)練參數(shù)的數(shù)目,使CNN模型對(duì)平移扭曲縮放具有一定程度的不變性和容錯(cuò)能力[8]。1995年,Lecun等提出的LeNet-5系統(tǒng)[9]在MNIST數(shù)據(jù)集上得到了0.9%的錯(cuò)誤率,并在20世紀(jì)90年代成功應(yīng)用于銀行的手寫(xiě)支票識(shí)別,但此時(shí)的CNN只適合小圖片的識(shí)別,對(duì)于大規(guī)模數(shù)據(jù)識(shí)別效果不佳[8]。2012年,Krizhevsky等[10]提出的AlexNet在ImageNet大規(guī)模視覺(jué)識(shí)別挑戰(zhàn)競(jìng)賽(ImageNet Large Scale Visual Recognition Challenge,LSVRC)上取得了15.3%的Top-5錯(cuò)誤率(指給定一張圖像,其標(biāo)簽不在模型認(rèn)為最有可能的5個(gè)結(jié)果中的幾率),遠(yuǎn)遠(yuǎn)超過(guò)第二名26.2%的成績(jī),使得卷積神經(jīng)網(wǎng)絡(luò)開(kāi)始受到學(xué)界的高度關(guān)注,許多性能優(yōu)秀的網(wǎng)絡(luò)模型也在AlexNet之后被陸續(xù)提出[11]。2014年,Szegedy等[12]提出了基于Inception結(jié)構(gòu)的GoogLeNet,將Top-5錯(cuò)誤率降低到了6.67%。同年,牛津大學(xué)的視覺(jué)幾何組提出的VGGNet[13]也取得了優(yōu)異的成績(jī),獲得了ILSVRC-2014中定位任務(wù)第一名和分類(lèi)任務(wù)第二名。2015年,He等[14]提出的殘差網(wǎng)絡(luò)(Residual Network,ResNet)致力于解決識(shí)別錯(cuò)誤率隨網(wǎng)絡(luò)深度增加而升高的問(wèn)題,使用152層深度網(wǎng)絡(luò)取得了3.57%的Top-5錯(cuò)誤率。2017年,中國(guó)自動(dòng)駕駛創(chuàng)業(yè)公司Momenta的WMW團(tuán)隊(duì)提出的SENet(Squeeze-and-Excitation Networks)[15]通過(guò)在網(wǎng)絡(luò)中嵌入SE模塊,在圖像分類(lèi)任務(wù)上達(dá)到了2.251%的Top-5錯(cuò)誤率,是迄今為止該挑戰(zhàn)賽上取得的最好成績(jī)。此外,近年來(lái)出現(xiàn)的DenseNet[16],ResNext[17],ShuffleNet[18]都在不同方面提升了卷積神經(jīng)網(wǎng)絡(luò)的性能。

當(dāng)前,很多卷積神經(jīng)網(wǎng)絡(luò)模型在計(jì)算機(jī)視覺(jué)領(lǐng)域取得了很好的效果,但很多性能優(yōu)異的網(wǎng)絡(luò)尚未推廣到SAR圖像目標(biāo)識(shí)別領(lǐng)域,且在各類(lèi)挑戰(zhàn)賽中參賽者一般會(huì)使用每副驗(yàn)證圖像的多個(gè)相似實(shí)例去訓(xùn)練多個(gè)模型,再通過(guò)模型平均或DNN集成獲得報(bào)告或論文中描述的足夠高的準(zhǔn)確率,導(dǎo)致不同抽樣方式或集成大小下模型準(zhǔn)確率與報(bào)告中的網(wǎng)絡(luò)性能產(chǎn)生偏差。基于此,本文首先介紹了幾種具有代表性的卷積神經(jīng)網(wǎng)絡(luò)模型,然后在MSTAR數(shù)據(jù)集上對(duì)各網(wǎng)絡(luò)的性能進(jìn)行測(cè)試,分析不同模型對(duì)SAR圖像識(shí)別的性能,為卷積神經(jīng)網(wǎng)絡(luò)在SAR圖像目標(biāo)識(shí)別上的應(yīng)用建立基礎(chǔ)參考。

1 近五年主流卷積神經(jīng)網(wǎng)絡(luò)模型

1.1 AlexNet

AlexNet[10]是一個(gè)8層的卷積神經(jīng)網(wǎng)絡(luò),由5個(gè)卷積層(其中一些緊跟著最大池化層)和3個(gè)全連接層組成,最后通過(guò)softmax層得到分類(lèi)評(píng)分。AlexNet的主要?jiǎng)?chuàng)新點(diǎn)在于:采用了修正線(xiàn)性單元[19](Rectified Linear Units,ReLU)作為激活函數(shù),更加符合神經(jīng)元信號(hào)激勵(lì)原理,這種簡(jiǎn)單快速的線(xiàn)性激活函數(shù)在大數(shù)據(jù)條件下相比于sigmoid等非線(xiàn)性函數(shù)可以獲得更好和更快的訓(xùn)練效果;采用了Dropout和數(shù)據(jù)增強(qiáng)(data augmentation)等策略防止過(guò)擬合,降低了神經(jīng)元復(fù)雜的互適應(yīng)關(guān)系,增強(qiáng)模型魯棒性;采用兩塊GTX 580 GPU并行訓(xùn)練,兩個(gè)GPU可以不用經(jīng)過(guò)主機(jī)內(nèi)存直接讀寫(xiě)彼此的內(nèi)存, 大幅提高了網(wǎng)絡(luò)訓(xùn)練速度。

1.2 VGGNet

VGGNet[13]是牛津大學(xué)和Google DeepMind公司的研究員一起研發(fā)的深度卷積神經(jīng)網(wǎng)絡(luò),探索了卷積神經(jīng)網(wǎng)絡(luò)的深度與其性能之間的關(guān)系,突出貢獻(xiàn)在于證明使用很小的卷積(3×3),增加網(wǎng)絡(luò)深度可以有效提升模型的性能。VGGNet還采用了多種方法對(duì)網(wǎng)絡(luò)性能進(jìn)行優(yōu)化:采用尺度抖動(dòng)(scale jittering)方法對(duì)圖片進(jìn)行裁剪,得到尺寸不一的圖片進(jìn)行訓(xùn)練,增強(qiáng)模型魯棒性和泛化能力;采用預(yù)訓(xùn)練(pre-trained)方法先訓(xùn)練淺層網(wǎng)絡(luò),再利用訓(xùn)練好的參數(shù)初始化深層網(wǎng)絡(luò)參數(shù),加速收斂;在網(wǎng)絡(luò)中去掉了AlexNet中提出的局部響應(yīng)歸一化策略,減少了內(nèi)存的小消耗和計(jì)算時(shí)間。

1.3 GoogLeNet

GoogLeNet由Szegedy等于2014年提出的,是一個(gè)基于Inception結(jié)構(gòu)的22層深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)。該網(wǎng)絡(luò)的顯著特點(diǎn)是不僅增加了網(wǎng)絡(luò)的深度,還通過(guò)引入Inception模塊拓寬了網(wǎng)絡(luò)的寬度,主要原理是利用密集成分來(lái)近似最優(yōu)的局部稀疏結(jié)構(gòu)。 Inception模塊的結(jié)構(gòu)如圖1所示,采用了不同尺度的卷積核(1×1,3×3,5×5)來(lái)處理圖像,使圖像信息在不同的尺度上得到處理然后進(jìn)行聚合,使模型同時(shí)從不同尺度提取特征,增強(qiáng)了學(xué)習(xí)能力,該模塊的使用使得GoogLeNet的參數(shù)比AlexNet少12倍,但準(zhǔn)確率更高。圖1中粉色部分的1×1卷積核的作用是降低參數(shù)量,加速計(jì)算,詳細(xì)原理可見(jiàn)文獻(xiàn)[20]。此外,GoogLeNet的作者還做了大量提高模型性能的輔助工作,包括訓(xùn)練多個(gè)模型求平均、裁剪不同尺度的圖像做多次驗(yàn)證等,詳見(jiàn)文獻(xiàn)[12]的實(shí)驗(yàn)部分。

圖1 Inception模塊結(jié)構(gòu)

1.4 ResNet

自VGGNet提出以來(lái),學(xué)者們紛紛致力于通過(guò)提升網(wǎng)絡(luò)的深度以取得更好的性能,但隨著網(wǎng)絡(luò)深度的不斷增加,梯度彌散/爆炸[21](vanishing/exploding gradients)問(wèn)題和隨機(jī)梯度下降法(Stochastic Gradient Descent,SGD)難以?xún)?yōu)化深層網(wǎng)絡(luò)帶來(lái)的退化[22](degradation)問(wèn)題隨之而來(lái),導(dǎo)致訓(xùn)練和測(cè)試誤差隨網(wǎng)絡(luò)深度增加而增大。He等針對(duì)該問(wèn)題提出了一個(gè)152層的殘差網(wǎng)絡(luò)結(jié)構(gòu)(residual network),如圖2所示。H(x)是某一層原始的期望映射輸出,x是輸入,通過(guò)快捷連接[23-24](shortcut connections)在網(wǎng)絡(luò)中加入一個(gè)恒等映射(identity mapping),就相當(dāng)于從輸入端旁邊開(kāi)設(shè)了一個(gè)通道使得輸入可以直達(dá)輸出,優(yōu)化目標(biāo)由原來(lái)的H(x)變成輸出和輸入的差H(x)-x,而對(duì)于一個(gè)可優(yōu)化的映射,其殘差也會(huì)很容易優(yōu)化至0,且將殘差優(yōu)化至0和把此映射逼近另一個(gè)非線(xiàn)性層相比要容易得多[25],因此這樣的結(jié)構(gòu)降低了深層網(wǎng)絡(luò)參數(shù)優(yōu)化的難度,解決了退化問(wèn)題。文獻(xiàn)[26]是He等對(duì)ResNet的后續(xù)研究,對(duì)自身映射在殘差網(wǎng)絡(luò)中的作用進(jìn)行了更深層次的分析和驗(yàn)證,并提出了改進(jìn)版的ResNet。

圖2 殘差網(wǎng)絡(luò)結(jié)構(gòu)

1.5 DenseNet

ResNet結(jié)構(gòu)中的數(shù)據(jù)旁路(skip-layer)技術(shù)可以使信號(hào)在輸入層和輸出層之間高速流通,核心思想是創(chuàng)建一個(gè)跨層連接來(lái)連通網(wǎng)路中前后層。文獻(xiàn)[16]基于這個(gè)核心理念設(shè)計(jì)了一種具有密集連接的卷積神經(jīng)網(wǎng)絡(luò),即DenseNet。其與ResNet最大的區(qū)別在于網(wǎng)絡(luò)每一層的輸入都是前面所有層輸出的并集,而該層所學(xué)習(xí)的特征圖也會(huì)被直接傳給其后面所有層作為輸入,通過(guò)密集連接實(shí)現(xiàn)特征的重復(fù)利用,增強(qiáng)了網(wǎng)絡(luò)的泛化能力。在密集連接的前提下可以把網(wǎng)絡(luò)的每一層設(shè)計(jì)得很“窄”,即只學(xué)習(xí)非常少的特征圖(最極端情況就是每一層只學(xué)習(xí)一個(gè)特征圖),所以可以達(dá)到降低冗余性的目的。簡(jiǎn)單來(lái)說(shuō),DenseNet有以下優(yōu)點(diǎn):減輕了梯度消失問(wèn)題;強(qiáng)化了特征傳播;大幅度減少了參數(shù)數(shù)量。這篇論文獲得了2017年IEEE國(guó)際計(jì)算機(jī)視覺(jué)與模式識(shí)別會(huì)議的最佳論文獎(jiǎng)。

1.6 SENet

前述很多工作都是從空間維度層面來(lái)提升網(wǎng)絡(luò)的性能,文獻(xiàn)[15]將考慮重點(diǎn)放在卷積神經(jīng)網(wǎng)絡(luò)特征通道之間的關(guān)系,在網(wǎng)絡(luò)中引入了包含壓縮(Squeeze)和激發(fā)(Excitation)操作的SE模塊,并基于此提出了SENet。Squeeze操作將每個(gè)二維的特征通道變成一個(gè)實(shí)數(shù)來(lái)代表全局的感受野,并且輸出的維度和輸入的特征通道數(shù)相匹配。Excitation操作是一個(gè)類(lèi)似于循環(huán)神經(jīng)網(wǎng)絡(luò)中門(mén)的機(jī)制,通過(guò)參數(shù)w來(lái)為每個(gè)特征通道生成權(quán)重,用來(lái)顯式地建模特征通道間的相關(guān)性。最后進(jìn)行重新標(biāo)定權(quán)重(reweight)操作,將 Excitation的輸出權(quán)重看作是進(jìn)行過(guò)特征選擇后每個(gè)特征通道的重要性,然后通過(guò)乘法逐通道加權(quán)到先前的特征上,提升有用的特征并抑制對(duì)當(dāng)前任務(wù)用處不大的特征。文獻(xiàn)[15]將SE模塊嵌入ResNeXt,BN-Inception,Inception-ResNet-v2上進(jìn)行結(jié)果對(duì)比均獲得了不錯(cuò)的增益效果。

2 基于經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)模型的SAR圖像目標(biāo)識(shí)別實(shí)驗(yàn)

2.1 數(shù)據(jù)集

圖3 MSTAR數(shù)據(jù)集

2.2 實(shí)驗(yàn)準(zhǔn)備

由于數(shù)據(jù)集中的原始圖片大小均為128像素×128像素且目標(biāo)基本都處于圖片的中心位置,故不需要對(duì)原圖片作預(yù)處理,只進(jìn)行數(shù)據(jù)整理即可。首先為訓(xùn)練集和測(cè)試集中的所有圖片制作標(biāo)簽,用0~8分別代表9類(lèi)待識(shí)別目標(biāo),之后將各類(lèi)數(shù)據(jù)重新編號(hào)整理至同一文件夾下,最后通過(guò)pytorch框架中的Dataset模塊將數(shù)據(jù)導(dǎo)入網(wǎng)絡(luò)中,可以用于直接訓(xùn)練。

本文實(shí)驗(yàn)在64位Ubuntu 14.04系統(tǒng)環(huán)境下進(jìn)行,軟件方面主要基于深度學(xué)習(xí)架構(gòu)pytorch和python開(kāi)發(fā)環(huán)境pycharm,硬件主要基于Intel(R) Core(TM) i7-6770K @ 4.00 GHz CPU和NVIDIA GTX1080 GPU,采用 CUDA8.0加速計(jì)算。

2.3 實(shí)驗(yàn)結(jié)果及分析

2.3.1 識(shí)別精度分析

為了準(zhǔn)確對(duì)比各網(wǎng)絡(luò)的表現(xiàn),結(jié)合數(shù)據(jù)集實(shí)際情況對(duì)實(shí)驗(yàn)條件作了以下統(tǒng)一設(shè)置:迭代次數(shù)設(shè)置為50次,即將所有圖片在網(wǎng)絡(luò)中訓(xùn)練50次,批處理大小為16,即每次向網(wǎng)絡(luò)中輸入16張圖片數(shù)據(jù)同時(shí)進(jìn)行處理,反向傳播過(guò)程采用交叉熵?fù)p失函數(shù),學(xué)習(xí)率設(shè)置為0.01。分別在LeNet,AlexNet,VGGNet-16(表示16層的網(wǎng)絡(luò),下同),Inception-v3(GoogLeNet的改進(jìn)型),ResNet-18,ResNet-101,ResNet-152,SEResNet-18,SEResNet-101,DenseNet-161(每層通道數(shù)為48)共10個(gè)模型上測(cè)試網(wǎng)絡(luò)的識(shí)別能力。各網(wǎng)絡(luò)的訓(xùn)練損失曲線(xiàn)和精度曲線(xiàn)如圖4和圖5所示,最終訓(xùn)練精度和測(cè)試精度如表1所示。

圖4 模型損失曲線(xiàn)

圖5 模型精度曲線(xiàn)

由圖4可以看出,各網(wǎng)絡(luò)在迭代數(shù)據(jù)集10次左右后都趨于收斂,說(shuō)明對(duì)訓(xùn)練集達(dá)到了較好的擬合效果。根據(jù)表1可知,除LeNet外的所有模型在測(cè)試集上的最終精度都達(dá)到了99%以上,SEResNet-18達(dá)到了100%的識(shí)別精度,測(cè)試精度充分說(shuō)明了CNN模型對(duì)SAR圖像具有較強(qiáng)的識(shí)別和學(xué)習(xí)能力。LeNet,AlexNet和VGGNet-16三個(gè)模型雖然在訓(xùn)練集上都達(dá)到了100%的精度,但測(cè)試集上的精度卻低于其他模型,反映出這些模型的泛化能力不如其他模型。值得注意的是,ResNet和SEResNet系列模型都體現(xiàn)出了網(wǎng)絡(luò)層次加深識(shí)別精度卻有所下降的趨勢(shì),這并不符合預(yù)期,原因在2.3.3節(jié)中進(jìn)行分析。

各模型在測(cè)試集上都取得了很高的精度且差異很小,除了網(wǎng)絡(luò)自身具有較好的性能外,可能還受到以下兩點(diǎn)原因的影響:一是本文所采用的數(shù)據(jù)集屬于中小型數(shù)據(jù)集,總共只有5 156張圖片,9種類(lèi)別,而實(shí)驗(yàn)中采用的網(wǎng)絡(luò)基本都是可以訓(xùn)練百萬(wàn)量級(jí)圖片,完成近千種分類(lèi)的大型網(wǎng)絡(luò),因而會(huì)得到較好的識(shí)別效果;二是由于SAR圖像數(shù)據(jù)獲取渠道有限,實(shí)驗(yàn)中的訓(xùn)練集和測(cè)試集圖片僅是不同俯仰角成像下的SAR圖像,數(shù)據(jù)集間的差異較小,導(dǎo)致得到了較高的識(shí)別精度。雖然數(shù)據(jù)集較小且訓(xùn)練和測(cè)試圖片差異較小,但并不影響研究各模型的性能差異,且表1中實(shí)驗(yàn)結(jié)果基本真實(shí)地反映了各模型在其他數(shù)據(jù)集上的相對(duì)表現(xiàn)。

2.3.2 計(jì)算資源分析

除了需要考量模型的識(shí)別性能,運(yùn)算時(shí)間和模型尺寸等指標(biāo)也是應(yīng)用中需要考慮的重要指標(biāo)。為此,在實(shí)驗(yàn)過(guò)程中記錄了各模型訓(xùn)練和測(cè)試時(shí)每個(gè)迭代周期內(nèi)的運(yùn)算時(shí)間,并由此計(jì)算出各模型的運(yùn)行總時(shí)間、平均時(shí)間、單次迭代最大最小時(shí)間及時(shí)間的標(biāo)準(zhǔn)差,結(jié)果如圖6和表2所示。

圖6 模型運(yùn)算時(shí)間

s

圖7 單張圖片處理時(shí)間

由圖6和表2可知,模型的運(yùn)行時(shí)間基本分成了3檔,LeNet,AlexNet,ResNet-18和SEResNet-18的運(yùn)行時(shí)間比較短,Inception-v3,VGGNet-16和ResNet-101居中,SEResNet-101,ResNet-152和DenseNet-161運(yùn)行時(shí)間最長(zhǎng),最長(zhǎng)時(shí)間和最短時(shí)間相差近57倍,說(shuō)明模型深度的增加會(huì)明顯提高運(yùn)行時(shí)間,也說(shuō)明在達(dá)到基本相同精度的條件下,CNN模型運(yùn)行時(shí)間還有很大的壓縮空間。運(yùn)行時(shí)間標(biāo)準(zhǔn)差反映了迭代時(shí)的穩(wěn)定性,可以發(fā)現(xiàn),對(duì)于計(jì)算時(shí)間較小的模型,其穩(wěn)定性也較好。

另外,SE模塊的引入使得計(jì)算時(shí)間有所增加,SEResNet-101的計(jì)算時(shí)間接近ResNet-152,計(jì)算開(kāi)銷(xiāo)有所增大,但SEResNet-101相比ResNet-101獲得了較大的性能提升。

圖7給出了模型處理每張圖片所需時(shí)間與批處理大小的關(guān)系,二者呈近似反比關(guān)系,批處理大小從1增加到10,每張圖片所需的處理時(shí)間可以下降3~4倍。由圖中還可看出,對(duì)于單張圖片處理時(shí)間越大的網(wǎng)絡(luò),處理時(shí)間隨批處理大小下降的趨勢(shì)就越明顯,這也是批量處理技術(shù)廣泛應(yīng)用于當(dāng)前大型網(wǎng)絡(luò)加速計(jì)算的原因所在。

為了更加全面地研究各模型的計(jì)算資源占用情況,實(shí)驗(yàn)還記錄了各模型在經(jīng)過(guò)訓(xùn)練后的尺寸大小,如表3所示,圖8給出了各模型的平均運(yùn)行時(shí)間和模型尺寸之間的對(duì)應(yīng)關(guān)系。

表3 模型尺寸 MB

圖8 模型平均運(yùn)行時(shí)間和模型尺寸關(guān)系圖

由圖8可以看出,作為早期的CNN模型,AlexNet,VGGNet都是通過(guò)加深網(wǎng)絡(luò)深度和提高模型復(fù)雜度來(lái)獲取更好的性能,從而增加了模型尺寸,而ResNet,DenseNet等新型網(wǎng)絡(luò)在獲得更好的識(shí)別性能的同時(shí)還顯著降低了模型尺寸。圖8中除AlexNet,VGGNet和DenseNet-161以外其余網(wǎng)絡(luò)的模型尺寸基本與運(yùn)行時(shí)間呈正相關(guān),DenseNet-161雖然模型較小卻耗時(shí)最多,主要是因?yàn)槠涿芗B接結(jié)構(gòu)會(huì)極大地增加運(yùn)算量,說(shuō)明運(yùn)行時(shí)間不僅與模型尺寸相關(guān),很大程度上也受到實(shí)際運(yùn)算量的影響。

綜合考慮識(shí)別精度和計(jì)算耗費(fèi),ResNet-18和SEResNet-18兩個(gè)模型可以在較小的運(yùn)算時(shí)間和模型大小下,取得和其他模型相當(dāng)或優(yōu)于其他模型的識(shí)別效果,在本實(shí)驗(yàn)數(shù)據(jù)集下是理想的選擇。

2.3.3 梯度彌散問(wèn)題的討論

為便于分析,從實(shí)驗(yàn)結(jié)果圖5中選取部分模型,如圖9所示。

圖9 部分模型精度圖

結(jié)合表1和圖9可以看出,淺層網(wǎng)絡(luò)ResNet-18和SEResNet-18都取得了很好的識(shí)別效果,而深層網(wǎng)絡(luò)ResNet-101 和ResNet-152模型沒(méi)有取得預(yù)想中的比ResNet-18更好的識(shí)別性能,引入SE模塊的SEResNet-101和采用了密集連接方法的DenseNet-161模型則獲得了優(yōu)于ResNet-101和ResNet-152的識(shí)別性能。以上現(xiàn)象說(shuō)明深層網(wǎng)絡(luò)中梯度前向傳播時(shí)出現(xiàn)的“梯度彌散”問(wèn)題在ResNet-101和ResNet-152中并沒(méi)有得到很好的解決,而SE模塊和密集連接方法則有效緩解了這一問(wèn)題。

3 結(jié)束語(yǔ)

SAR圖像目標(biāo)自動(dòng)識(shí)別是SAR圖像解譯中的重要環(huán)節(jié),也是研究熱點(diǎn)和難點(diǎn)。本文將計(jì)算機(jī)視覺(jué)領(lǐng)域關(guān)于目標(biāo)識(shí)別的最新成果和近年來(lái)出現(xiàn)的若干性能優(yōu)異的CNN模型應(yīng)用到SAR圖像目標(biāo)識(shí)別上,取得了很好的識(shí)別效果,多個(gè)模型識(shí)別率達(dá)到99%以上。綜合考量這些CNN模型在SAR圖像數(shù)據(jù)集上的識(shí)別性能、計(jì)算消耗、運(yùn)作機(jī)制等指標(biāo),對(duì)比分析了不同模型的優(yōu)劣之處,實(shí)驗(yàn)結(jié)果為SAR圖像目標(biāo)識(shí)別系統(tǒng)在實(shí)際應(yīng)用中選擇、組合和優(yōu)化各類(lèi)CNN模型提供了數(shù)據(jù)支撐和有效參考。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點(diǎn)
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線(xiàn)三等角』
重尾非線(xiàn)性自回歸模型自加權(quán)M-估計(jì)的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 毛片在线播放a| 孕妇高潮太爽了在线观看免费| 亚洲男人的天堂在线观看| 五月婷婷欧美| 超碰精品无码一区二区| 99精品久久精品| 久久夜色精品国产嚕嚕亚洲av| 国产18在线播放| 中文国产成人久久精品小说| 久久久久国产一区二区| 在线播放精品一区二区啪视频| 白丝美女办公室高潮喷水视频| 一区二区三区四区精品视频 | 久久免费精品琪琪| 午夜福利无码一区二区| 美女无遮挡被啪啪到高潮免费| 91无码视频在线观看| 欧美成人a∨视频免费观看 | 国产91全国探花系列在线播放| 又黄又湿又爽的视频| 国产成a人片在线播放| 欧美精品成人| 久久久精品久久久久三级| 亚洲男人的天堂久久香蕉网| 国产日韩精品一区在线不卡| 高清色本在线www| 日本妇乱子伦视频| 在线精品欧美日韩| 亚洲男人的天堂在线观看| 国产麻豆aⅴ精品无码| 啦啦啦网站在线观看a毛片| 亚洲精品欧美日韩在线| 国产精品久久久久久久久久98 | 国产91av在线| 激情無極限的亚洲一区免费| 亚洲最猛黑人xxxx黑人猛交| 人禽伦免费交视频网页播放| 伊人福利视频| 午夜精品久久久久久久无码软件 | 国内精品伊人久久久久7777人| 亚洲第一精品福利| 正在播放久久| 国产成人高清精品免费| 国产精品一区二区在线播放| 免费 国产 无码久久久| 无码高潮喷水专区久久| 久996视频精品免费观看| 亚洲国产无码有码| 91毛片网| 欧美一区二区精品久久久| 四虎国产成人免费观看| 91精品最新国内在线播放| 熟妇丰满人妻av无码区| 国产欧美日本在线观看| 99热精品久久| 丁香婷婷久久| 久久人妻xunleige无码| 永久毛片在线播| 91亚洲精品国产自在现线| 爆乳熟妇一区二区三区| 蜜芽一区二区国产精品| 亚洲人妖在线| 国产精品福利在线观看无码卡| a网站在线观看| 91色在线观看| 日韩精品成人在线| 国产精品久久久久久久久久98| 国产69精品久久久久孕妇大杂乱| 欧美精品啪啪| 找国产毛片看| 国产精品自在拍首页视频8| 国产办公室秘书无码精品| 亚洲人视频在线观看| 亚洲一级毛片在线观播放| 欧洲在线免费视频| 亚洲无码日韩一区| 国产精品女熟高潮视频| 国产清纯在线一区二区WWW| 青青青伊人色综合久久| 91在线国内在线播放老师| 中文字幕欧美日韩高清| 91精品啪在线观看国产60岁|