999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于脈沖神經(jīng)網(wǎng)絡(luò)的聚類算法研究

2016-09-13 08:33:54張振敏
關(guān)鍵詞:信息模型

張振敏

(福建農(nóng)林大學(xué)金山學(xué)院,福州 350002)

?

基于脈沖神經(jīng)網(wǎng)絡(luò)的聚類算法研究

張振敏

(福建農(nóng)林大學(xué)金山學(xué)院,福州350002)

結(jié)合脈沖神經(jīng)元網(wǎng)絡(luò)的生物機(jī)制與改進(jìn)的灰度共生矩陣算法,嘗試模擬大腦提取關(guān)鍵信息的能力,并且使用這些提取到的信息實(shí)現(xiàn)紋理圖像的分割。實(shí)驗(yàn)結(jié)果表明:這種利用灰度共生矩陣算法訓(xùn)練的脈沖神經(jīng)元網(wǎng)絡(luò)可以有效地提取圖像的共生特征,并且可獲得較好的紋理圖像分割效果。

灰度共生矩陣;脈沖神經(jīng)元網(wǎng)絡(luò);特征提取;紋理聚類

clustering

紋理是區(qū)分一幅圖像中的物體或區(qū)域的重要指標(biāo)[1]。紋理是指諸如粗糙、光滑或凹凸不平等觸覺信息[2]。紋理分析在紋理分類領(lǐng)域有著重要的地位,它被定義為利用數(shù)學(xué)進(jìn)程提取紋理圖像中特征信息的算法,基于這種方法可以獲得很多空間結(jié)構(gòu)信息。最近,很多紋理分析領(lǐng)域的重要研究成果相繼出現(xiàn)[3-5]。

因?yàn)閳D像的隨機(jī)性和在準(zhǔn)周期性及方向性方面的差異導(dǎo)致紋理分析是一個(gè)非常復(fù)雜的過程[6-7]。在很多情況下,統(tǒng)計(jì)學(xué)方法被用于紋理分析。這些方法提供了一幅圖像灰度的空間分布統(tǒng)計(jì)信息。GLCM算法在1970年由Haralick提出,是對(duì)一幅圖像中像素亮度值(灰度值)的不同組合頻次的表格統(tǒng)計(jì)[8]。這種方法逐漸成為了一種經(jīng)典的統(tǒng)計(jì)學(xué)方法,同時(shí)也成為圖像紋理分析的支撐性算法[1]。

近年來,神經(jīng)元網(wǎng)絡(luò)快速發(fā)展并且實(shí)現(xiàn)了在多方面的應(yīng)用。首先,在生物機(jī)制方面,大量科研人員通過研究推進(jìn)了相關(guān)理論,例如:Kuebler等[9]提出了混沌神經(jīng)元網(wǎng)絡(luò)激勵(lì)信號(hào)的差異性;Xue等[10]研究了激勵(lì)型突觸和抑制型突觸的關(guān)系;Sadtler等[11]研究了一個(gè)現(xiàn)有的神經(jīng)元網(wǎng)絡(luò)約束模型是否可以表示神經(jīng)元子集的行為以及這種行為的生物原理是什么。另外,在實(shí)際應(yīng)用方面,關(guān)于神經(jīng)元網(wǎng)絡(luò)也有著廣泛的研究,例如:Kosik[12]將神經(jīng)元網(wǎng)絡(luò)應(yīng)用于阿茲海默癥的相關(guān)研究中;Beck等[13]將神經(jīng)元網(wǎng)絡(luò)應(yīng)用于生物監(jiān)控;Nazemi等[14]利用神經(jīng)元網(wǎng)絡(luò)方法解決了支持向量機(jī)的分類問題。

Hodgkin-Huxley脈沖神經(jīng)元模型由Hodgkin和Huxley在1952年提出,可以很好地仿真生物神經(jīng)元的行為[15]。但是由于該模型計(jì)算量龐大,如果應(yīng)用在大型網(wǎng)絡(luò)模型中會(huì)進(jìn)一步增加計(jì)算的復(fù)雜度,所以通常研究人員針對(duì)脈沖神經(jīng)元網(wǎng)絡(luò)(spiking neuron network,SNN)中的單個(gè)神經(jīng)元使用簡化的基于電導(dǎo)率的累積放電模型。首先,這個(gè)簡化后的模型結(jié)構(gòu)非常接近于Hodgkin-Huxley模型結(jié)構(gòu);其次,在運(yùn)算中計(jì)算量會(huì)大幅度下降。眾所周知,在人類視覺系統(tǒng)中,從初級(jí)視覺皮層中的細(xì)胞到視網(wǎng)膜和外側(cè)膝狀體核中的簡單細(xì)胞都有著不同的感受野。在視網(wǎng)膜中,信號(hào)傳輸?shù)钠鹗键c(diǎn)是兩極細(xì)胞,最終信號(hào)會(huì)傳輸至神經(jīng)節(jié)細(xì)胞[16-17]。

本文提出了一種利用改進(jìn)的GLCM算法訓(xùn)練的脈沖神經(jīng)元網(wǎng)絡(luò)SNN-GLCM。由于待測試的紋理圖像尺寸較大,以及GLCM應(yīng)用于神經(jīng)元網(wǎng)絡(luò)時(shí)對(duì)窗口大小有限制,最終GLCM矩陣中個(gè)別單元由于過量累加而使得其值過大,同時(shí)這些單元相應(yīng)的神經(jīng)網(wǎng)絡(luò)中的神經(jīng)元激發(fā)率也會(huì)過高。在這種情況下,傳統(tǒng)的GLCM算法必須被改進(jìn)以適應(yīng)該網(wǎng)絡(luò)訓(xùn)練,同時(shí)避免以上問題出現(xiàn)。本文提出了一種新的機(jī)制來減少神經(jīng)元網(wǎng)絡(luò)中神經(jīng)元的激發(fā)率,同時(shí)使得訓(xùn)練之后的激發(fā)率與靈長類大腦中的神經(jīng)元激發(fā)率非常類似。這種方法也使得SNN模型在應(yīng)用過程中適當(dāng)忽略一些次要信息,使后續(xù)的特征提取和紋理分析著重于關(guān)鍵信息,另外計(jì)算效率也得到了大幅度提高。本文提出的網(wǎng)絡(luò)將被用于圖像紋理的分割。

1 灰度共生矩陣

灰度共生矩陣GLCMP定義為一個(gè)大小為M×N的圖像I在給定偏置(Δx,Δy)時(shí)的灰度共生值的分布狀態(tài)統(tǒng)計(jì)結(jié)果。當(dāng)計(jì)算灰度圖像的GLCM矩陣時(shí),首先應(yīng)該定義窗口寬度、圖像的灰度級(jí)、偏置以及方向。一般窗口寬度可以設(shè)置為3×3,5×5或7×7,也可以根據(jù)實(shí)際的圖片大小進(jìn)行設(shè)置。如果圖像的灰度級(jí)為L,那么該圖像的GLCM矩陣的維度將會(huì)是L×L。同樣,灰度級(jí)也可以根據(jù)實(shí)際情況和計(jì)算需求進(jìn)行重新量化或調(diào)整。通常更大的窗口需要配備更大的偏置值。另外,方向性有4種不同的選擇方式:0°,45°,90°和135°。從數(shù)學(xué)的角度上來說,圖像I的GLCMP定義為:

(1)

其中:1≤i≤L; 1≤j≤L。

GLCM的窗口寬度、偏置和方向示意圖如圖1所示。

圖1 GLCM的窗口寬度、偏置和方向示意圖

在某些情況下,紋理計(jì)算時(shí)需要將GLCM的形式轉(zhuǎn)化為歸一化對(duì)稱矩陣,可參考文獻(xiàn)[4,6,18]。常用的GLCMP紋理測量參數(shù)定義如下:

角二階距(ASM)

(2)

能量(ENG)

(3)

對(duì)比度(CON)

(4)

差異性(DIS)

(5)

同質(zhì)性(HOM)

(6)

最大概率(MAX)

MAX=maxPi,j

(7)

熵(ENT)(假設(shè)0*ln(0)=0)

(8)

均值(Mean)

(9)

方差(Variance)

(10)

相關(guān)性(Correlation)

(11)

其中i和j分別是GLCMP的行向量和列向量。

2 構(gòu)建基于GLCM算法的脈沖神經(jīng)元模型

本文基于GLCM算法,并結(jié)合視覺系統(tǒng)的生物機(jī)制,構(gòu)建了一個(gè)脈沖神經(jīng)元網(wǎng)絡(luò),如圖2所示。構(gòu)建該網(wǎng)絡(luò)的目標(biāo)是最終通過網(wǎng)絡(luò)獲得關(guān)于圖像信號(hào)的紋理特征信息,基于這些信息最終實(shí)現(xiàn)圖像分類。

圖2 關(guān)鍵特征提取神經(jīng)網(wǎng)絡(luò)SNN-GLCM

在圖2的脈沖神經(jīng)元網(wǎng)絡(luò)模型中共有3個(gè)神經(jīng)元陣列,這些陣列會(huì)由突觸電流引發(fā)脈沖信號(hào)。輸入神經(jīng)元層的突觸電流來自神經(jīng)元的光接收器,每一個(gè)光接收器都將圖像的像素亮度或灰度信息轉(zhuǎn)化為突觸電流[19-20]。該陣列的維度是M×N。陣列中的每一個(gè)神經(jīng)元都被認(rèn)為是一個(gè)光接收器,表述為IN(m,n),m=1,…,M;n=1,…,N。假設(shè)fm,n(t)函數(shù)表示圖像像素的灰度值,光接收器將這些灰度值轉(zhuǎn)化輸出的突觸電流用Im,n(t) 表示,則該累積放電模型的Im,n(t)可用式(12)表示。

(12)

其中:α是轉(zhuǎn)化常數(shù);τ是時(shí)間常數(shù),表示突觸電流的衰減速率。神經(jīng)元膜電壓vm,n(t)可用以下方程表示:

(13)

其中:gl是膜電導(dǎo);El是反轉(zhuǎn)電勢;c表示膜電容;I0是背景噪聲。

如果膜電壓超過了門限值vth,那么神經(jīng)元就發(fā)出一個(gè)脈沖,令Sm,n(t)表示這個(gè)神經(jīng)元所產(chǎn)生的脈沖訓(xùn)練:

(14)

該網(wǎng)絡(luò)模型的底層由橫向神經(jīng)元陣列和縱向神經(jīng)元陣列組成。如果圖像的灰度級(jí)為L,那么橫向和縱向神經(jīng)元陣列中的神經(jīng)元可以分別表示為HOUT(p,q)和VOUT(p,q),其中:p=1,…,L;q=1,…,L。這2個(gè)神經(jīng)元陣列通過激勵(lì)型突觸進(jìn)行脈沖訓(xùn)練。假設(shè)突觸強(qiáng)度為WHOUT(p,q)和WVOUT(p,q),根據(jù)對(duì)稱性GLCM算法,突觸強(qiáng)度分布可以表示為:

其中:1≤p≤L; 1≤q≤L; 1≤m≤M; 1≤n≤N。

突觸電流IHOUT(p,q)(t)和IVOUT(p,q)(t)可以表示為:

(18)

(19)

神經(jīng)元膜電壓可以表示為:

(20)

(21)

在2個(gè)輸出層中,神經(jīng)元的脈沖訓(xùn)練用SOUT(t)表示:

(22)

最終將獲得2個(gè)神經(jīng)元陣列HOUT和VOUT,它們的激發(fā)率可用以下函數(shù)表示:

(23)

通過打印rOUT(m,n)(t)可以獲得激發(fā)率譜圖,它們對(duì)應(yīng)于對(duì)稱橫向GLCM矩陣和縱向GLCM矩陣。

3 基于SNN-GLCM網(wǎng)絡(luò)提取圖像特征并分類

在實(shí)驗(yàn)中,首先基于GLCM算法對(duì)Lena圖像進(jìn)行測試。在圖像處理領(lǐng)域,Lena圖像作為基準(zhǔn)圖像被廣泛使用。由于原始圖像的灰度級(jí)過高,所以首先將圖像量化為16級(jí)灰度圖以避免GLCM矩陣維度過大。圖3(a)是原始圖像,圖3(b)是16級(jí)量化圖像。

圖3 Lena原始圖像和16級(jí)量化圖像

針對(duì)上述16級(jí)量化圖像,設(shè)置窗口寬度為5×5,像素偏置為1,并使用歸一化對(duì)稱橫向GLCM 算法提取到圖像的部分紋理信息。圖4(a)~(f)是最終提取到的GLCM最大二階矩、熵、對(duì)比度、平均值、方差和相關(guān)性圖像。

圖4 GLCM紋理特征

在使用窗口GLCM算法時(shí)會(huì)產(chǎn)生邊緣問題。由于窗口內(nèi)所有元素必須全部位于灰度圖像內(nèi),致使每一個(gè)窗口的中心像素?zé)o法位于圖像的4個(gè)邊帶。如果窗口的維度是n×n,則沿著圖像的邊緣有(n-1)/2像素帶寬未被處理。針對(duì)這種情況,常見的處理方法是在這些區(qū)域內(nèi)填入最相鄰的紋理特征值。

本文中將利用Matlab軟件對(duì)所構(gòu)建的脈沖神經(jīng)元網(wǎng)絡(luò)SNN-GLCM進(jìn)行仿真測試。在實(shí)驗(yàn)中根據(jù)Euler方法,步長設(shè)置為0.1 ms。根據(jù)生物神經(jīng)元特性將參數(shù)設(shè)置如下:vth=-60 mV,El=-70 mV,gl=1.0 μs/mm2,c=8 nF/mm2,τ=16 ms,T=400 ms,α=0.02,β=4.3,I0=7 μA。

在該實(shí)驗(yàn)中,首先從標(biāo)準(zhǔn)紋理庫Brodatz album 中選取了一些待測試的紋理圖像[21]。每個(gè)測試樣本的大小為256×256。之后將這些樣本依次輸入SNN-GLCM網(wǎng)絡(luò)。網(wǎng)絡(luò)通過運(yùn)算輸出每個(gè)樣本的橫向和縱向GLCM矩陣,并計(jì)算出各個(gè)樣本的二階矩、對(duì)比度、熵、平均值、方差和相關(guān)系數(shù)。這些計(jì)算結(jié)果將被看作每個(gè)測試圖像的特征值。基于這些特征值和k-means算法,最終實(shí)現(xiàn)了紋理分割。實(shí)驗(yàn)結(jié)果如圖5所示。

從結(jié)果可以看出:本文中所提出的基于SNN-GLCM網(wǎng)絡(luò)的圖像分割算法可以很好地實(shí)現(xiàn)圖像分割,同時(shí)可以精確定位圖像邊界。

圖5 基于SNN-GLCM網(wǎng)絡(luò)針對(duì)5幅圖像的

4 結(jié)束語

本文提出了一個(gè)結(jié)合生物機(jī)制和GLCM算法的脈沖神經(jīng)元網(wǎng)絡(luò)來提取視覺圖像的特征信息。基于獲得的特征信息,最終很好地實(shí)現(xiàn)了紋理圖像的分割。

[1]HARALICK R M,SHANMUGAM K,DINSTEIN I H.Textural features for image classification[J].IEEE Trans Syst Man Cybern,1973,3(6):610-621.

[2]TAMURA H,MORI S,YAMAWAKI T.Textural features corresponding to visual perception[J].IEEE Trans Syst Man Cybern,1978,8(6):460-473.

[3]BERGOUNIOUX M.Second-order variational models for image texture analysis[J].Advances in Imaging and Electron Physics,2014,181:35-124.

[4]BENCO M,HUDEC R,KAMENCAY P,et al.An advanced approach to extraction of colour texture features based on GLCM[J].International Journal of Advanced Robotic Systems,2014,11(1):129-163.

[5]MIRZAPOUR F,GHASSEMIAN H.Using GLCM and Gabor filters for classification of PAN images[C]// 21st Iranian Conference on Electrical Engineering.Iran:Electrical Engineering,2013:1-6.

[6]ZHANG J,LI G L,HE S W.Texture-based image retrieval by edge detection matching GLCM[J].IEEE Computer Soc,2008,22:782-786.

[7]王衛(wèi)星,楊記明.一種基于圖像處理的巖石裂隙粗糙度幾何信息算法[J].重慶郵電大學(xué)學(xué)報(bào)(自然科學(xué)版),2010,22(4):454-457.

[8]BENCO M,HUDEC R.Novel method for color textures features extraction based on GLCM[J].Radioengineering,2007,16(4):64-67.

[9]KUEBLER E S,BONNEMA E,CORRISTON J,et al.Stimulus discrimination in networks of spiking neurons[C]//2013 International Joint Conference on Neural Networks.Dallas:Ablex Pub.Corp.,2013:1-8.

[10]XUE M S,ATALLAH B V,SCANZIANI M.Equalizing excitation-inhibition ratios across visual cortical neurons[J].Nature,2014,511(7511):596-600.

[11]SADTLER P T,QUICK K M,GOLUB M D,et al.Neural constraints on learning[J].Nature,2014,512(7515):423-426.

[12]KOSIK K S.Study neuron networks to tackle Alzheimer’s[J].Nature,2013,503(7474):31-32.

[13]BECK M W,WILSON B N,VONDRACEK B,et al.Application of neural networks to quantify the utility of indices of biotic integrity for biological monitoring[J].Ecological Indicators,2014,45(5):195-208.

[14]NAZEMI A,DEHGAN M.A neural network method for solving support vector classification problems[J].Neurocomputing,2015,152:369-376.

[15]HODGKIN A L,HUXLEY A F.The dual effect of membrane potential on sodium conductance in the giant axon of Loligo[J].The Journal of physiology,1952,116(4):497-506.

[16]MASLAND R H.The fundamental plan of the retina[J].Nature Neuroscience,2001,4(9):877-886.

[17]SCHULTZ S K.Principles of neural science[J].American Journal of Psychiatry,2001,158(4):662.

[18]SAROJA G A S,SULOCHANA C H.Texture analysis of non-uniform images using GLCM[C]//2013 IEEE Conference on Information and Communication Technologies.Gulin:Information and Communication Technologies,2013:1319-1322.

[19]ZHANG Z M,WU Q X,ZHUO Z Q,et al.Fast wavelet transform based on spiking neural network for visual images[J].Communications in Computer and Information Science,2013,375:7-12.

[20]ZHANG Z M,WU Q X,ZHUO Z Q,et al.Wavelet transform and texture recognition based on spiking neural network for visual images[J].Neurocomputing,2015,151(3):985-995.

[21]BRODATZ P.Texture:A Photographic Album for Artists & Designers[M].New York:Dover Publications,1966.

(責(zé)任編輯楊文青)

Clustering Algorithm Based on Spiking Neural Network

ZHANG Zhen-min

(Jinshan College of Fujian Agriculture and Forestry University, Fuzhou 350002, China)

Based on gray level co-occurrence matrix algorithm of biological mechanisms and improvement of the neural network of the pulse, we tried to simulate the brain’s ability to extract key information and used these to extract information of texture image segmentation. The experimental results show that the use of pulse the graylevel co-occurrence matrix algorithm for training neural networks can effectively extract the image of the symbiotic characteristics of texture image segmentation and gain good results.

grey-level co-occurrence matrix; spiking neuron network; feature extraction; texture

2016-01-15

福建省中青年教師教育科研項(xiàng)目(JB13286)

張振敏(1982—),女,湖南長沙人,博士,講師,主要從事神經(jīng)網(wǎng)絡(luò)和模式識(shí)別方面的研究,E-mail:min1011@126.com。

format:ZHANG Zhen-min.Clustering Algorithm Based on Spiking Neural Network[J].Journal of Chongqing University of Technology(Natural Science),2016(8):99-104.

10.3969/j.issn.1674-8425(z).2016.08.016

TP183

A

1674-8425(2016)08-0099-06

引用格式:張振敏.基于脈沖神經(jīng)網(wǎng)絡(luò)的聚類算法研究[J].重慶理工大學(xué)學(xué)報(bào)(自然科學(xué)),2016(8):99-104.

猜你喜歡
信息模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
展會(huì)信息
一個(gè)相似模型的應(yīng)用
信息
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 青草91视频免费观看| 亚洲精品在线91| 97视频在线观看免费视频| 91无码人妻精品一区| 色婷婷在线影院| 91久久夜色精品国产网站| 亚洲另类国产欧美一区二区| 国产又粗又爽视频| 免费在线成人网| 日韩人妻少妇一区二区| 动漫精品中文字幕无码| 国产精品免费入口视频| 国产一级毛片高清完整视频版| 日韩在线视频网站| 国产精品区视频中文字幕| 亚洲精品无码久久久久苍井空| 国产高清国内精品福利| 国产丰满大乳无码免费播放| 国产精品熟女亚洲AV麻豆| 色偷偷综合网| 中国丰满人妻无码束缚啪啪| 91麻豆国产在线| 日韩资源站| 扒开粉嫩的小缝隙喷白浆视频| 久久福利片| 亚洲av综合网| 中字无码av在线电影| 欧美日韩国产系列在线观看| 国产综合精品一区二区| 91久久国产综合精品女同我| 午夜性刺激在线观看免费| 欧美自拍另类欧美综合图区| 国产99精品视频| 国产大片喷水在线在线视频| 日韩一级二级三级| 亚洲一区二区成人| 国产免费一级精品视频 | 一本大道香蕉久中文在线播放| 久久99国产综合精品女同| 亚洲AV成人一区国产精品| 热九九精品| 国产乱子伦一区二区=| 夜色爽爽影院18禁妓女影院| 亚洲欧洲日本在线| 制服丝袜亚洲| 99999久久久久久亚洲| 波多野结衣无码视频在线观看| 韩日免费小视频| 很黄的网站在线观看| 97国内精品久久久久不卡| AV老司机AV天堂| 全色黄大色大片免费久久老太| 久久香蕉国产线看观看精品蕉| 欧美中文字幕在线二区| 国产精品hd在线播放| 国内熟女少妇一线天| 国产永久免费视频m3u8| 性欧美精品xxxx| 亚洲αv毛片| 网友自拍视频精品区| 99伊人精品| 99热国产这里只有精品9九 | 色综合成人| AV不卡国产在线观看| 国产美女91呻吟求| 欧美一区精品| 国产亚洲精品91| 日韩毛片在线播放| 亚洲水蜜桃久久综合网站| 91午夜福利在线观看| 欧美yw精品日本国产精品| 亚洲精品国产日韩无码AV永久免费网| 精品亚洲欧美中文字幕在线看| 54pao国产成人免费视频| 国产成人综合亚洲欧美在| 日韩资源站| 国产精品欧美激情| 国产成人久久综合一区| 国产乱码精品一区二区三区中文 | 成人伊人色一区二区三区| 亚洲无码37.| 久久无码高潮喷水|