999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于傅里葉描述子和加權(quán)稀疏表示的軍事圖像分類方法

2019-04-01 09:10:02謝澤奇張會(huì)敏張善文
關(guān)鍵詞:分類方法

謝澤奇 張會(huì)敏 張善文

(鄭州大學(xué)西亞斯國(guó)際學(xué)院 河南 鄭州 451150)

0 引 言

軍事目標(biāo)分類作為圖像理解的一個(gè)基礎(chǔ)而且重要的研究課題深受國(guó)內(nèi)外學(xué)者的重視,在世界各國(guó)國(guó)防防御系統(tǒng)中占據(jù)十分重要的地位[1-3]。在軍事領(lǐng)域,隨著軍事目標(biāo)數(shù)據(jù)的不斷增大及軍事目標(biāo)在偽裝、遮掩程度的提高,能快速地從大量復(fù)雜背景的軍事圖像集中實(shí)現(xiàn)對(duì)各類目標(biāo)進(jìn)行高精度的圖像分類與目標(biāo)識(shí)別,正逐漸成為圖像處理、計(jì)算機(jī)視覺等很多領(lǐng)域的研究熱點(diǎn)[4-6]。易崎等[7]提出了一種基于目標(biāo)特征和支持向量機(jī)(SVM)相結(jié)合的飛機(jī)目標(biāo)識(shí)別算法。該方法首先提取輪廓圖像,通過計(jì)算目標(biāo)圖像的形狀參數(shù)的特征矢量構(gòu)建訓(xùn)練樣本,最后訓(xùn)練SVM構(gòu)建飛機(jī)的目標(biāo)識(shí)別模型。該算法在提高識(shí)別率的同時(shí),不但減少樣本訓(xùn)練時(shí)間,而且還降低算法的復(fù)雜度。高惠琳[8]采用基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)結(jié)構(gòu)對(duì)目標(biāo)進(jìn)行特征學(xué)習(xí),在大量的軍事圖像分類中取得較高的分類精度。但深度學(xué)習(xí)中需要較多的經(jīng)驗(yàn)、人工嘗試及技巧,如設(shè)置網(wǎng)絡(luò)層數(shù)、每層節(jié)點(diǎn)數(shù)、節(jié)點(diǎn)的激發(fā)函數(shù)等。李萍等[9]提出通過計(jì)算稀疏表示系數(shù)實(shí)現(xiàn)多姿態(tài)的飛機(jī)目標(biāo)識(shí)別算法,該算法在出現(xiàn)遮擋和姿態(tài)變化時(shí)具有較高的識(shí)別率。

盡管軍事圖像分類和識(shí)別方法的技術(shù)很多,并取得了不錯(cuò)的識(shí)別效果,但由于應(yīng)用背景的復(fù)雜性和多變性,使得傳統(tǒng)軍事圖像分類方法難以克服拍攝環(huán)境、遮擋、角度等因素的影響,所以傳統(tǒng)方法并不能滿足實(shí)際需要。中心-輪廓距離CCD(Centre-Contour Distance)特征是將輪廓線上的點(diǎn)到形狀的幾何中心的距離描述成中心角度函數(shù),該方法基本能夠重構(gòu)被描述的目標(biāo)圖像形狀[10]。為了能將其轉(zhuǎn)化成一維函數(shù),則需要對(duì)這些多值進(jìn)行選擇或者運(yùn)算處理,但會(huì)造成關(guān)鍵信息的丟失而不能實(shí)現(xiàn)重構(gòu),因此,該算法在描述形狀時(shí)無法實(shí)現(xiàn)唯一性。隨著軍事圖像像素的不斷增加,CCD描述形狀輪廓的精度及所占帶寬也會(huì)不斷遞增,因此其抗噪性弱,且難以克服遮掩、不同姿態(tài)、弱特征、視角變化等因素的影響[11-12]。稀疏表示分類SRC(Sparse Representation based Classification)是采用全體訓(xùn)練樣本之間的稀疏線性組合來表示一個(gè)特定的測(cè)試樣本[13-14]。本文提出一種改進(jìn)的傅里葉描述子,在此基礎(chǔ)上,與加權(quán)SRC相結(jié)合[15],提出一種新的軍事圖像分類方法。該方法利用了飛機(jī)圖像的本質(zhì)特征,能夠有效地描述軍事圖像的形狀,在真實(shí)的軍事圖像數(shù)據(jù)庫上驗(yàn)證了該方法的有效性。

1 加權(quán)稀疏表示分類方法

設(shè)有n個(gè)來自k類的訓(xùn)練樣本,第i類有ni個(gè)樣本x1,x2,…,xn,y為測(cè)試樣本,第i類中ni個(gè)樣本構(gòu)成的矩陣表示為Ai=[vi1,vi2,…,vini]∈Rm×ni。則所有樣本組成的矩陣A=[A1,A2,…,Ak]∈Rm×n稱為過完備字典。加權(quán)稀疏表示分類(SRC)算法是通過計(jì)算各類訓(xùn)練樣本與測(cè)試樣本的殘差大小來實(shí)現(xiàn)測(cè)試樣本的分類,即求解下面的l1范數(shù)最小化問題[15]:

(1)

式中:a=[a1,a2,…,an]T為稀疏表示系數(shù),ai(i=1,2,…,n)為第i個(gè)樣本xi對(duì)應(yīng)的稀疏表示系數(shù),μ>0為調(diào)節(jié)參數(shù),W為加權(quán)矩陣,W由訓(xùn)練樣本與測(cè)試樣本之間的高斯核距離得到。

計(jì)算測(cè)試樣本y在第i類訓(xùn)練樣本上的殘差:

(2)

式中:Bi為對(duì)應(yīng)第i類訓(xùn)練樣本的稀疏表示系數(shù)構(gòu)成的向量。

則測(cè)試圖像y的類別為y在所有k類訓(xùn)練樣本上殘差的最小值對(duì)應(yīng)的類別:

(3)

2 軍事圖像分類方法

軍事圖像的輪廓包含了軍事圖像識(shí)別的大部分分類信息,是軍事圖像分割、定位和分類的重要特征。Canny輪廓提取算法是一種簡(jiǎn)單、實(shí)用的輪廓檢測(cè)方法[11],具有較好的輪廓檢測(cè)性能,在復(fù)雜圖像檢測(cè)和識(shí)別中得到廣泛應(yīng)用。本文在Canny輪廓提取算法的基礎(chǔ)上,提出一種基于改進(jìn)傅里葉描述子與加權(quán)SRC算法相結(jié)合的軍事圖像分類方法,該識(shí)別方法流程圖如圖1所示。

圖1 軍事圖像識(shí)別流程圖

軍事圖像識(shí)別方法的基本步驟描述如下:

1) 軍事圖像預(yù)處理。同一類軍事圖像的大小、方位、形狀和角度之間存在差異,因此在進(jìn)行軍事圖像分類前必須對(duì)軍事圖像進(jìn)行預(yù)處理[4-5,7]。首先將拍攝的彩色圖像轉(zhuǎn)換成灰度圖像來消除對(duì)圖像分類的干擾。轉(zhuǎn)換公式為:

Y=0.298 9R+0.587 0G+0.114 1B

(4)

式中:R、G和B分別表示彩色圖像的紅、綠、藍(lán)三個(gè)分量,Y表示對(duì)應(yīng)圖像的灰度值。

其次,為了降低圖像噪聲的影響,利用高斯濾波方法對(duì)灰度圖像進(jìn)行平滑處理,以便更準(zhǔn)確地計(jì)算圖像的梯度及輪廓幅值,得到的圖像為:

f1(x,y)=g(x,y)?f(x,y)

(5)

2) 通過偏導(dǎo)數(shù)計(jì)算幅值和梯度方向。通過在2×2鄰域的有限差分計(jì)算在x和y兩個(gè)方向的平滑圖像的偏導(dǎo)數(shù):

(6)

3) 確定輪廓點(diǎn)。在水平、豎直、45度和135度的四個(gè)輪廓梯度方向搜索各個(gè)像素梯度方向的鄰接像素。若某個(gè)像素點(diǎn)的灰度值與其梯度方向上前后兩個(gè)像素的灰度值差值較小,則這個(gè)像素置為0,即不是輪廓,最后得到輪廓點(diǎn)的坐標(biāo)集合。

設(shè)由步驟1)~3)得到的輪廓點(diǎn)坐標(biāo)集為{(xi,yi)|i=1,2,…,m},其中(x1,y1)為輪廓點(diǎn)的始點(diǎn)。

4) 計(jì)算輪廓點(diǎn)的中心坐標(biāo)。計(jì)算輪廓點(diǎn)的中心坐標(biāo)(xc,yc):

(7)

5) 將直角坐標(biāo)點(diǎn)轉(zhuǎn)換為極坐標(biāo)點(diǎn)。以(xc,yc)為極坐標(biāo)系的極點(diǎn),將輪廓點(diǎn)的直角坐標(biāo)點(diǎn)(xi,yi)(i=1,2,…,m)轉(zhuǎn)換為對(duì)應(yīng)的極坐標(biāo)(ri,θi)(i=1,2,…,m):

(8)

式中:ri(i=1,2,…,m)為中心輪廓點(diǎn)距離。

6) 按照θi(i=1,2,…,m)的升序?qū)i進(jìn)行排序,得到一個(gè)中心輪廓點(diǎn)距離序列,記為V=[r1,r2,…,rm],容易得知V與圖像的旋轉(zhuǎn)和平移無關(guān)[12]。

7) 對(duì)中心輪廓點(diǎn)距離序列進(jìn)行快速傅里葉變換。由于V與圖像的大小和輪廓點(diǎn)序列的起始點(diǎn)有關(guān),為了得到魯棒的軍事圖像的分類特征,對(duì)V進(jìn)行快速傅里葉變換。V的K點(diǎn)傅里葉變換為:

(9)

頻域變換后的邊界序列中F(0)表示直流分量,不能反映不同圖像之間形狀差異,而較低頻率系數(shù)能夠反映圖像形狀的主要特征信息,較高頻率系數(shù)能夠反映圖像形狀的細(xì)節(jié)信息[15]。

8) 構(gòu)建傅里葉描述子。根據(jù)式(9)構(gòu)建傅里葉描述子:

(10)

式中:|·|表示傅里葉頻譜。

9) 計(jì)算高斯核距離。根據(jù)式(10)計(jì)算每幅測(cè)試圖像與每幅訓(xùn)練圖像的傅里葉描述子之間的高斯核距離。

10) 加權(quán)SRC。利用訓(xùn)練集圖像的傅里葉描述子構(gòu)建如式(1)的加權(quán)SRC的l1范數(shù)最小化問題,求解稀疏表示系數(shù)。

11) 分類。計(jì)算每一類軍事圖像的殘差,則最小殘差對(duì)應(yīng)的類別即為測(cè)試圖像的類別。

容易證明,F(xiàn)V與圖像的縮放和輪廓點(diǎn)集中的起始點(diǎn)無關(guān),而且與圖像的大小、旋轉(zhuǎn)、平移和輪廓的起始點(diǎn)無關(guān),所以利用傅里葉描述子對(duì)軍事圖像進(jìn)行分類方法具有魯棒性。

3 實(shí)驗(yàn)結(jié)果與分析

在MATLAB 2010環(huán)境下進(jìn)行軍事圖像分類實(shí)驗(yàn),實(shí)驗(yàn)硬件平臺(tái)為英特爾雙核T6600處理器、主頻2.2 GHz和2 GB DDR3內(nèi)存。為了驗(yàn)證本文算法的有效性,將本文提出的方法與文獻(xiàn)[7]、文獻(xiàn)[8]和文獻(xiàn)[9]提出的軍事圖像分類算法進(jìn)行對(duì)比。本文SR算法的求解最小化l1范數(shù)采用MATLAB的K-SVD字典學(xué)習(xí)的工具包和求解優(yōu)化問題的SPGL1工具包。選擇10類軍事圖像組成一個(gè)數(shù)據(jù)庫,包括軍用汽車、坦克、裝甲車、導(dǎo)彈裝置、火炮、戰(zhàn)斗機(jī)、建筑物、隊(duì)伍、叢林和田野。每類包含圖像100幅,共1 000幅圖像。圖2給出該數(shù)據(jù)庫中的部分軍事圖像示例圖像。采用五-折交叉驗(yàn)證法進(jìn)行實(shí)驗(yàn),即將圖像集中每類圖像隨機(jī)劃分為5等分,每等分有20幅圖像。在每次實(shí)驗(yàn)中,由每類中的1等分共200幅圖像作為測(cè)試圖像,其余的800幅作為訓(xùn)練集,進(jìn)行圖像分類實(shí)驗(yàn)。由此可以得到5個(gè)實(shí)驗(yàn)結(jié)果,將其平均值作為這次劃分的實(shí)驗(yàn)結(jié)果。進(jìn)行50次五-折交叉驗(yàn)證法實(shí)驗(yàn),計(jì)算50次實(shí)驗(yàn)結(jié)果的平均值,為最后的軍事圖像的分類結(jié)果。

(a) 六類軍事圖像

(b) 不同姿態(tài)下的18幅軍事飛機(jī)圖像圖2 軍事圖像實(shí)例

首先將每幅圖像縮放大小為256×256像素的圖像,然后轉(zhuǎn)換為灰度圖像,采用Canny算法提取各圖像的輪廓,計(jì)算中心-輪廓距離序列,再提取該序列的傅里葉描述子,如圖3所示。

(a) 灰度圖像 (b) 輪廓圖像

(c) 中心-輪廓距離 (d) 傅里葉描述子圖3 兩幅軍事灰度圖像及其輪廓圖像、中心-輪廓 距離序列和傅里葉描述子

為了表明本文提取的軍事圖像的傅里葉描述子的魯棒性,對(duì)一幅軍事圖像進(jìn)行平移、旋轉(zhuǎn)、縮放后得到的5幅擴(kuò)展圖像,如圖4所示。然后分別提取5幅擴(kuò)展圖像的傅里葉描述子與第一幅圖像的傅里葉描述子之間的相似度,如表1所示。表1中給出了5幅擴(kuò)展圖像與第一幅圖像之間及其中心-輪廓距離序列的相似度。相似度選擇為兩個(gè)矩陣或向量之間的余弦距離。

(a) (b) (c) (d) (e)圖4 軍事圖像及其擴(kuò)展圖像

相似度(a)與(b)(a)與(c)(a)與(d)(a)與(e)圖像0.862 60.848 30.792 70.694 3中心-輪廓距離0.934 10.889 50.876 80.867 4

由表1可以看出,同類軍事圖像的傅里葉描述子的相似度比同類圖像之間的相似度大。由表1表明,傅里葉描述子對(duì)圖像的平移、旋轉(zhuǎn)、縮放以及輪廓點(diǎn)系列的起始點(diǎn)具有不變性和較高的魯棒性。由于基于軍事圖像形狀的傅里葉描述子的能量基本上集中在低頻部分,傅里葉變換的高頻分量幅度一般較小且易受到噪聲干擾,可以使用歸一化傅里葉描述子的低頻分量來表示軍事圖像特征的相似差異。在本文實(shí)驗(yàn)中取128點(diǎn)快速傅里葉變換進(jìn)行軍事圖像識(shí)別實(shí)驗(yàn)。

計(jì)算每幅測(cè)試圖像與每幅訓(xùn)練圖像的傅里葉描述子之間的高斯核距離,構(gòu)建加權(quán)SRC的l1范數(shù)最小化問題,求解稀疏表示系數(shù)。計(jì)算每一類軍事圖像的殘差,則最小殘差對(duì)應(yīng)的類別即為測(cè)試圖像的類別。將本文提出的算法與其他三種方法軍事圖像分類方法進(jìn)行比較,表2為四種方法的實(shí)驗(yàn)結(jié)果。

表2 SVM、CNN、MSRC和本文方法對(duì)10類 軍事圖像的分類結(jié)果

從表2可以看出,本文提出的方法的識(shí)別結(jié)果最好。其原因是本文方法提取的傅里葉描述子能夠比較準(zhǔn)確地描述軍事圖像的形狀特征,而且具有旋轉(zhuǎn)、平移和縮放不變性,且與輪廓點(diǎn)序列中的起始點(diǎn)無關(guān),加權(quán)SRC具有較好的分類性能。CNN方法的識(shí)別率不高的原因在于訓(xùn)練樣本比較少,不能有效地訓(xùn)練CNN模型。

4 結(jié) 語

本文針對(duì)軍事圖像分類問題,在傳統(tǒng)傅里葉描述子的基礎(chǔ)之上,提出了一種基于改進(jìn)軍事圖像傅里葉描述子的軍事圖像識(shí)別方法,并利用加權(quán)SRC進(jìn)行圖像分類,取得了較高的分類結(jié)果。實(shí)驗(yàn)結(jié)果表明,改進(jìn)的傅里葉描述子對(duì)圖像的平移、旋轉(zhuǎn)和縮放能夠保持不變,具有較高的形狀區(qū)分能力。下一步將傅里葉描述子與深度學(xué)習(xí)相結(jié)合來研究大規(guī)模復(fù)雜背景下的軍事圖像進(jìn)行分類方法,以提高軍事圖像分類率。同時(shí),對(duì)分類方法進(jìn)一步改進(jìn),以實(shí)現(xiàn)軍事圖像自動(dòng)分類識(shí)別系統(tǒng)。

猜你喜歡
分類方法
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
學(xué)習(xí)方法
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
給塑料分分類吧
主站蜘蛛池模板: 国产九九精品视频| 国产99在线观看| 欧美成人h精品网站| 干中文字幕| 亚洲中文字幕日产无码2021| 国产精品视频系列专区| 亚洲欧美日韩中文字幕在线| 国产欧美视频在线观看| 四虎影视国产精品| 国产欧美视频在线| 毛片在线看网站| 日本一区二区不卡视频| 国产成人一区在线播放| 亚洲国产综合精品中文第一| 亚洲狠狠婷婷综合久久久久| 国产杨幂丝袜av在线播放| 午夜无码一区二区三区| 美女高潮全身流白浆福利区| 亚洲人妖在线| 亚欧美国产综合| 亚洲大尺码专区影院| 女人18毛片一级毛片在线 | 日韩在线2020专区| 免费在线色| 国产精品无码制服丝袜| 激情综合婷婷丁香五月尤物| 中字无码精油按摩中出视频| 亚洲高清在线播放| 99国产在线视频| 久久永久视频| 亚洲AⅤ无码国产精品| 九色国产在线| 久久亚洲高清国产| AⅤ色综合久久天堂AV色综合| 狠狠ⅴ日韩v欧美v天堂| 国产精品私拍在线爆乳| 成人在线观看不卡| 国产精品.com| 在线亚洲小视频| 人妻夜夜爽天天爽| 拍国产真实乱人偷精品| 久久久黄色片| 亚洲综合色区在线播放2019 | 欧美国产日产一区二区| 在线观看91香蕉国产免费| 黄色一及毛片| 美女内射视频WWW网站午夜| 欧美亚洲激情| 国产在线一二三区| 手机看片1024久久精品你懂的| 在线观看无码av免费不卡网站| 欧美日韩免费观看| 久久精品国产亚洲麻豆| 国产美女无遮挡免费视频网站 | 久久精品66| 最近最新中文字幕在线第一页| 少妇人妻无码首页| 国产精品开放后亚洲| 精品福利网| 国产午夜看片| 国产在线一区视频| 青青操国产| 亚洲Av综合日韩精品久久久| 狠狠色丁香婷婷| 91丝袜美腿高跟国产极品老师| 精品视频第一页| 亚洲AⅤ无码国产精品| 欧美成人午夜影院| 精品一区国产精品| 色综合久久无码网| 99无码熟妇丰满人妻啪啪| 亚洲男人的天堂在线| 国产欧美日韩91| 欧美日韩一区二区三区在线视频| 亚洲久悠悠色悠在线播放| 欧美a在线看| 在线精品亚洲一区二区古装| 无码内射中文字幕岛国片| 国产a在视频线精品视频下载| 亚洲天堂久久新| 国产青榴视频| 国产在线观看91精品|