999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于SCFNN之PAM非線性信道均衡器成效研究

2017-03-27 05:57:58李慶海林瑞昌
計算機(jī)測量與控制 2017年3期
關(guān)鍵詞:信號系統(tǒng)

李慶海,林瑞昌

(浙江工貿(mào)職業(yè)技術(shù)學(xué)院 電子工程系,浙江 溫州 325003)

基于SCFNN之PAM非線性信道均衡器成效研究

李慶海,林瑞昌

(浙江工貿(mào)職業(yè)技術(shù)學(xué)院 電子工程系,浙江 溫州 325003)

自組織型模糊類神經(jīng)網(wǎng)絡(luò)(SCFNN)可依據(jù)一定的法則自我構(gòu)建神經(jīng)網(wǎng)絡(luò)的組織結(jié)構(gòu),從而適用于當(dāng)前控制對象;多層神經(jīng)元是傳統(tǒng)的類神經(jīng)網(wǎng)絡(luò),廣泛應(yīng)用于各個領(lǐng)域;倒傳遞學(xué)習(xí)法與最陡坡降法相結(jié)合,可使以上兩種類神經(jīng)網(wǎng)絡(luò)進(jìn)行有效的融合;目前,信道均衡器上的系統(tǒng)架構(gòu)種類非常多,各種類神經(jīng)網(wǎng)絡(luò)應(yīng)用于信道均衡器也頗為普遍;在研究SCFNN的基礎(chǔ)上,將其應(yīng)用于通道均衡器確實可行,效果良好;比較了SCFNN與MLP在通道均衡器的成效;仿真表明,在相同通道環(huán)境下,SCFNN的訓(xùn)練收斂速度、位錯誤率與系統(tǒng)敏感度優(yōu)于MLP,完成結(jié)構(gòu)學(xué)習(xí)后SCFNN的結(jié)構(gòu)也頗為精簡。

自組織型模糊類神經(jīng)網(wǎng)絡(luò);均衡器;多層神經(jīng)元;最陡坡降法

0 引言

在信道中傳送數(shù)字信號,難免會遭受到噪聲的干擾及產(chǎn)生符際干擾(ISI),或是信號能量在傳送過程中衰減,使接收端收到的是失真的信號,因此,我們必須在接收端補(bǔ)償或修正收到的信號,希望能恢復(fù)失真的信號。過去以線性信道均衡器解決此類問題,慢慢的通道環(huán)境日趨復(fù)雜,線性信道均衡器難以恢復(fù)嚴(yán)重的非線性失真信號[1]。

經(jīng)過學(xué)習(xí)的類神經(jīng)網(wǎng)絡(luò)可以在輸入信號與輸出信號間行成復(fù)雜的決策邊界(decision boundary),所具有的復(fù)雜映對(Mapping)能力能解決非線性或高度非線性分類問題,所以,多采用類神經(jīng)網(wǎng)絡(luò)解決信道非線性失真的問題[2-3]。在復(fù)數(shù)類神經(jīng)網(wǎng)絡(luò)方面,Chen 等專家[3-9]證實各種類神經(jīng)網(wǎng)絡(luò)均衡器可以產(chǎn)生復(fù)數(shù)非線性隔離曲線,亦即等化高度非線性信道。上述這些類神經(jīng)網(wǎng)絡(luò)都是訓(xùn)練架構(gòu)已經(jīng)確定的神經(jīng)網(wǎng)絡(luò),訓(xùn)練期間調(diào)整其前后層間鏈接權(quán)重(link weight),或神經(jīng)元的偏權(quán)值(Bias),或同一層間神經(jīng)元的鏈接權(quán)重,經(jīng)過數(shù)十次甚至于上萬次學(xué)習(xí)循環(huán)網(wǎng)絡(luò)收斂后,才是一個可以工作的類神經(jīng)網(wǎng)絡(luò)。

圖1 自組織型模糊類神經(jīng)網(wǎng)絡(luò)應(yīng)用于均衡器

圖1的自組織型模糊類神經(jīng)網(wǎng)絡(luò)(self-constructing fuzzy neural network,SCFNN)最早由Faa-Jeng Lin等提出并實現(xiàn)于永久磁鐵式同步馬達(dá)速度控制[10]。本文將SCFNN加上Hard decision之后,應(yīng)用在有ISI效應(yīng)、非線性與噪聲的信道失真后衰敗信號重建,我們?nèi)シ抡鍵SI、非線性、與噪聲不同組合模型,經(jīng)過一再測試,SCFNN所建出來的類神經(jīng)網(wǎng)絡(luò)均衡器,有很好的信號恢復(fù)能力且硬件需求簡單。以目前均衡器所使用的類神經(jīng)系統(tǒng)架構(gòu)來說,圖2的多層神經(jīng)元(multi-layer perceptron,MLP)結(jié)構(gòu)[11-12]是信號恢復(fù)程度相當(dāng)高的一種,雖然MLP存在收斂容易落入局部極小值與訓(xùn)練周期數(shù)過長的問題普遍也有專家學(xué)者改善傳統(tǒng)MLP后,將其應(yīng)用于通道均衡器[5-13]。本文除了測試SCFNN在通道均衡器的表現(xiàn)之外,并以MLP信道均衡器為比照對象,來驗證SCFNN在信號恢復(fù)上能否比MLP更為強(qiáng)健(Robustness)。

圖2 多層神經(jīng)元類神經(jīng)網(wǎng)絡(luò)

1 數(shù)字傳輸系統(tǒng)

具有均衡器的數(shù)字通信系統(tǒng)如圖3所示,在時間KT時傳送的信號t(k),k=0、1、2表示原始數(shù)字序列,假設(shè)其具有統(tǒng)計獨立與機(jī)率相等的特性,其中,1/T代表符號率,信道(Channel)表示信號行經(jīng)路線特性,一個被廣泛使用的線性分散信道模型是有限長度脈沖響應(yīng)(finite impulse response, FIR)模型,在時間kT時通道的輸出a(k)可表示為[4]:

(1)

h(i),i=0…nh-1為通道的脈沖響應(yīng)而nh是FIR通道的長度。傳送設(shè)備的電子組件可能會引起信號產(chǎn)生非線性失真,a(k)經(jīng)NL后的輸出b(k)可表示為:

b(k)=f[a(k),a(k-1),...,a(k-nk+1),

h(0),h(1),...h(nk-1)

(2)

φ(…)表示NL產(chǎn)生的非線性函數(shù)。通道也可能受具有變異數(shù)σ2平均值為0的白色高斯噪聲影響,所以,當(dāng)我們考慮白色高斯噪聲時,均衡器收到的信號r(k)=b(k)+q(k),q(k)即代表白色高斯噪聲,y*(k)是經(jīng)均衡器補(bǔ)償后的輸出,y*(k)與正確信號y(k)比較,產(chǎn)生一個誤差信號e(k)=y(k)-y*(k),若所有訓(xùn)練數(shù)字序列的e(k)均方根值超出可容許的誤差范圍,則持續(xù)訓(xùn)練修正均衡器的參數(shù),直至e(k)均方根值在許可范圍之內(nèi)為止。

圖3 具有均衡器的數(shù)字傳輸系統(tǒng)

在本研究中所采用的信道模型有以下3種,其轉(zhuǎn)移函數(shù)分別表示如下[6-8]:

CH=1:1.0

CH=2:0.447+0.89z-1

CH=3:0.2.9+0.995z-1+0.2.9z-2

(3)

CH=1因具單位脈沖響應(yīng)所以相當(dāng)于是一個沒有任何ISI的通道,CH=2相當(dāng)于是一個不具最小相的通道。CH=3表示目前的位數(shù)受后續(xù)兩個位影響的信道。ISI效應(yīng)產(chǎn)生主要是因為數(shù)據(jù)在高速傳輸時需要相當(dāng)高的符元速率,然而在多重傳輸環(huán)境中,由于時間的不準(zhǔn)確性,頻寬不足,振幅失真,相位失真,而受到嚴(yán)重的“相鄰符元互相干擾”,如圖4所示。為了處理由ISI所引起的有限頻寬通道,首先必須要有此ISI之離散時間模型。如圖5所示,為有ISI之通道離散時間截線濾波器(transversal filter)模型,其跳階增益為XK,時間區(qū)間為2LT,其輸入信號為In,輸出信號為yn,噪聲信號為vn。

圖4 ISI效應(yīng)

圖5 ISI效應(yīng)的通道離散時間模型

在本研究中,采用的非線性現(xiàn)象有以下4種[6-8]:

NL=0:b(k)=a(k)

NL=1:b(k)=tanh(a(k))

NL=2:b(k)=a(k)+0.2a2(k)-0.1a3(k)

NL=3:b(k)=a(k)+0.2a2(k)-0.1a3(k)+0.5cos(πa(k))

(4)

NL=0相當(dāng)于一個線性信道模型,NL=1相當(dāng)于是傳輸系統(tǒng)放大器飽和的非線性信道,NL=2與NL=3則是兩個任意非線性信道。本研究中仿真各種信道模型、非線性模型、訊號噪聲強(qiáng)度比(SNR=8-18,間隔2)不同組合條件下,研究SCFNN所建出來的結(jié)構(gòu)與信號恢復(fù)情形。

2 自組織型模糊類神經(jīng)網(wǎng)絡(luò)應(yīng)用在信道均衡器

圖1自組織型模糊類神經(jīng)網(wǎng)絡(luò)系統(tǒng)[10],運(yùn)作之始就是三個輸入節(jié)點與一個輸出節(jié)點,隨著訓(xùn)練動作的進(jìn)行逐步加入第二層歸屬函數(shù)(membership function)節(jié)點與第三層乘積運(yùn)作節(jié)點,并逐步調(diào)整第二層每一個高斯型歸屬函數(shù)的平均值(Mean)mji、標(biāo)準(zhǔn)差(Deviation)σji與第三層、輸出節(jié)點間的鏈接權(quán)重(link weight)ωj,直至所有訓(xùn)練樣本的推論輸出值與期望輸出值差的均方根值收斂為止。訓(xùn)練周期視訓(xùn)練樣本的復(fù)雜度而異,可能需數(shù)個至數(shù)十個訓(xùn)練周期,所謂一個訓(xùn)練周期表示所有的訓(xùn)練樣本執(zhí)行過一次。

我們逐步說明自組織型模糊類神經(jīng)網(wǎng)絡(luò)推論輸出值的計算過程與學(xué)習(xí)方法,訓(xùn)練樣本逐筆進(jìn)入自組織型模糊類神經(jīng)網(wǎng)絡(luò),經(jīng)過逐層運(yùn)算得到一個推論輸出值。以下是各層的計算過程。

Layer 1:此層是輸入節(jié)點,序列r(k)、r(k-1)、r(k-2)透過此節(jié)點傳到下一層,沒有計算動作。其中:

r(k):非線性模型輸出加上白色高斯噪聲后的數(shù)字序列;

r(k-1):較r(k)延遲1個位的數(shù)字序列;

r(k-2):較r(k)延遲2個位的數(shù)字序列。

Layer 2:此層的每一節(jié)點相當(dāng)于是第一層輸入變量的語意項(linguistic label),亦即算出輸入變量i屬于此歸屬函數(shù)的程度Aji,本研究中采用高斯函數(shù)作為歸屬函數(shù)(membership function),

(5)

mji:信號r(k-i)對第j個歸屬函數(shù)的中點(Mean)。

σji:信號r(k-i)對第j個歸屬函數(shù)的標(biāo)準(zhǔn)差(Standard deviation)。

Layer 3:此層的每一節(jié)點表示模糊規(guī)則的命題部(Precondition part),其函數(shù)是:

uj=Aj1(r(k))·Aj2(r(k-1))·Aj3(r(k-2))

(6)

亦即第二層三個輸入歸屬函數(shù)群中第j個歸數(shù)函數(shù)值進(jìn)入此節(jié)點相乘,得一乘積為此層的輸出。

Layer 4:此層僅有一個節(jié)點主要的動作是解模糊化(Defuzzify),若以y*表示推論輸出值,則:

(7)

uj(1<=j<=M)表示第三層的輸出,ωj(1<=j<=M)表示第三層每一節(jié)點與第四層輸出節(jié)點之間的鏈接權(quán)重,M是系統(tǒng)學(xué)習(xí)過程中已建立的規(guī)則數(shù)目。

SCFNN的特色之一是在線學(xué)習(xí)(on-line learning),SCFNN在初始狀態(tài)僅有n個輸入節(jié)點與一個輸出節(jié)點,經(jīng)由結(jié)構(gòu)學(xué)習(xí)(structure learning)建立系統(tǒng),經(jīng)由參數(shù)學(xué)習(xí)(parameter learning)將系統(tǒng)每個規(guī)則的3個參數(shù)調(diào)到最佳狀態(tài)。開始結(jié)構(gòu)學(xué)習(xí)之后,每一訓(xùn)練樣本進(jìn)入SCFNN輸入節(jié)點,對每一輸入值產(chǎn)生每一個歸屬函數(shù)的激發(fā)量,若發(fā)現(xiàn)激發(fā)量的值都小于設(shè)定值,則在第二層為每一個輸入變量增加一個節(jié)點,第三層也增加一個節(jié)點,亦即增加一條規(guī)則,完成結(jié)構(gòu)學(xué)習(xí)后系統(tǒng)可以將輸入變量的論域(universe of discourse),做合理的模糊分割(fuzzy partition),當(dāng)然我們希望建立最少的規(guī)則也希望產(chǎn)生最少的模糊集合(fuzzy sets)。

接著我們說明學(xué)習(xí)過程的參數(shù)學(xué)習(xí),倒傳遞(back propagation)算法是參數(shù)學(xué)習(xí)的主要精神,我們將一筆三位的數(shù)據(jù)r(k)、r(k-1)、r(k-2)輸入給自組織型模糊類神經(jīng)網(wǎng)絡(luò)經(jīng)過計算得到一個推論輸出值的同時,也有一個位的正確輸出值y(k)傳到自組織型模糊類神經(jīng)網(wǎng)絡(luò)以比較兩者的差,進(jìn)而推論出3個要修正參數(shù)(鏈接權(quán)重ωj、歸屬函數(shù)的平均值mji與標(biāo)準(zhǔn)差σji的修正量然后進(jìn)行修正。這個動作在每一筆數(shù)據(jù)進(jìn)入系統(tǒng)就做一次,直至系統(tǒng)學(xué)習(xí)完成,完成學(xué)習(xí)后系統(tǒng)可以工作。我們以求輸出值相反方向說明上述3個參數(shù)修正量的公式。首先定義能量函數(shù)E如下:

(8)

y:對應(yīng)每一訓(xùn)練樣本的正確輸出值。

y*:r(k)、r(k-1)、r(k-2)進(jìn)入系統(tǒng)之后的推論輸出值。

Layer 4:

鏈接權(quán)重ωj變化量及更新方式如下:

ηw(y-y*)uj

(9)

wj(N+1)=wj(N)+Δwj

(10)

N為學(xué)習(xí)樣本編號;j為第三層節(jié)點編號。

由(8)式可看出每輸入一筆訓(xùn)練樣本給自組織型類神經(jīng)網(wǎng)絡(luò)得到推論輸出值后,調(diào)整計算正確輸出值與推論輸出值差后進(jìn)行參數(shù)調(diào)整。

歸屬函數(shù)的中間值與標(biāo)準(zhǔn)差之調(diào)整量公式如下:

Layer 3:

(11)

(12)

式中,ηm、ησ是參數(shù),可調(diào)整以得到較佳的結(jié)果。接著實際進(jìn)行歸屬函數(shù)參數(shù)的調(diào)整,

mji(N+1)=mji(N)+Δmji

(13)

σji(N+1)=σji(N)+Δδji

(14)

經(jīng)過了結(jié)構(gòu)學(xué)習(xí)與參數(shù)學(xué)習(xí),系統(tǒng)也收斂,表示這是一個可以工作的自組織型模糊類神經(jīng)網(wǎng)絡(luò),即可切換進(jìn)入傳輸模式進(jìn)行信息接收工作。在模擬過程中,我們另外隨機(jī)產(chǎn)生100,000位PAM{+1,-1}測試數(shù)據(jù),逐筆進(jìn)入系統(tǒng)進(jìn)行運(yùn)算,求推論輸出值并計算位錯誤率。

3 總結(jié)自組織型模糊類神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)的信道均衡器算法

為仿真通道的ISI現(xiàn)象,本研究以r(k)、r(k-1)、r(k-2)三個數(shù)字序列作為自組織型模糊類神經(jīng)網(wǎng)絡(luò)的輸入信號,圖1與圖3是本研究之系統(tǒng)結(jié)構(gòu)。以下總結(jié)本研究的算法:

1)學(xué)習(xí)部分。

(a)若是第一筆數(shù)據(jù)則分別對n個輸入變量建立n個高斯型歸屬函數(shù),以輸入變量值為高斯函數(shù)中點m,偏離值(Deviation)σ采固定值。計算3個激發(fā)量(firing strength)Aj1、Aj2、Aj3的乘積u1,u1與輸出端間之鏈接權(quán)重ω1(link weight)初始時采隨意值。j在本論文中表示圖一第二層每一群歸屬函數(shù)編號,亦是第三層乘積運(yùn)作節(jié)點編號。

(b)第二筆數(shù)據(jù)起,對已建立之歸屬函數(shù)求出u1、u2、…un并找出這中間最大值Umax,將此值與既定值Umin做比較,若小于Umin則建立一個新的規(guī)則,亦即第二層每群增加一個高斯歸屬函數(shù)。歸屬函數(shù)的平均值mji=r(k)、r(k-1)、r(k-2),標(biāo)準(zhǔn)差σji則采隨機(jī)值,因為后續(xù)尚需調(diào)整),第三層增加一個乘積運(yùn)作節(jié)點,鏈接權(quán)重值ωj亦采隨機(jī)值。

(c)計算推論輸出值y*=u1ω1+u2ω2+u3ω3+…+uMωM,M表示目前歸屬函數(shù)的數(shù)目。

(d)調(diào)整每一個高斯型歸屬函數(shù)中點mij、偏離值(Deviation)σij與鏈接權(quán)重(Link Weight)ωj。

(e)計算所有訓(xùn)練樣本之推論輸出值與正確輸出值誤差之均方根值。

2)重復(fù)步驟(b)~(e)直至所有訓(xùn)練樣本之推論,輸出與正確輸出之均方根值收斂至設(shè)定值或訓(xùn)練次數(shù)已達(dá)一定次數(shù)為止。

3)使用另一數(shù)字序列,測試已訓(xùn)練好的自組織型類神經(jīng)網(wǎng)絡(luò)均衡器計算其位錯誤率(Bit Error Rate)。

4 模擬結(jié)果

我們仿真3種主要的信道模型搭配非線性模型、不同信號噪聲強(qiáng)度比,每一種狀況都以500位PAM信號{+1,-1}進(jìn)行20個學(xué)習(xí)循環(huán)的訓(xùn)練,再以100000位PAM信號{+1,-1}進(jìn)行測試,記錄均方根值收斂曲線、位錯誤率與SCFNN完成學(xué)習(xí)后的規(guī)則數(shù)。在上一節(jié)曾提到訓(xùn)練樣本進(jìn)入輸入節(jié)點之后,若激發(fā)量小于設(shè)定值,則需建立一個規(guī)則,此最小激發(fā)量我們設(shè)定為0.125。在參數(shù)學(xué)習(xí)過程中,更新鏈接權(quán)重、高斯函數(shù)平均值與標(biāo)準(zhǔn)差時有三個重要的參數(shù)ηw、ηm、ησ,我們分別設(shè)定為0.025。本文以信道轉(zhuǎn)移函數(shù)CH=3,非線性模型(NL=0-3)與噪聲(SNR=8-18)作為模擬條件。在仿真過程中SCFNN所建立的規(guī)則數(shù)列于表1。 圖6~7是MLP與SCFNN的MSE值、由圖中可看出SCFNN的收斂較為快速,亦即可在較短訓(xùn)練周期下達(dá)到相等程度信號恢復(fù)。NL=3加上低SNR值會產(chǎn)生收斂不是很理想情況。圖8~9是MLP與SCFNN的位錯誤率值,本文發(fā)現(xiàn)相對于MLP,我們可看出,SCFNN對此4種非線性現(xiàn)象變化較大,亦即SCFNN對不同的非線性現(xiàn)象,展現(xiàn)出其高敏感度。

表1 SCFNN在CH=3、NL=0-3、最小激發(fā)量0.125 經(jīng)500 bit/20cycle訓(xùn)練的最后規(guī)則數(shù)

圖6 MLP-CH=3,NL=3,訓(xùn)練期間均方根值收斂曲線

圖7 SCFNN-CH=3,NL=3,訓(xùn)練期間均方根值收斂曲線

圖10~13是SCFNN與MLP 位錯誤率的比較,我們可以發(fā)現(xiàn),SCFNN的位錯誤率都在MLP之下,亦即SCFNN的信恢復(fù)能力比較高 。

圖8 MLP-CH=3,NL=0-3,位錯誤率

圖9 SCFNN-CH=2,NL=0-3,位錯誤率

圖10 MLP與 SCFNN CH=3,NL=0,位錯誤率比對

圖11 MLP與 SCFNN CH=3,NL=1位錯誤率比對

圖12 MLP與SCFNN CH=3,NL=2位錯誤率比對

圖13 MLP與 SCFNN CH=3,NL=3位錯誤率比對

5 結(jié)論

本研究以自組織型模糊類神經(jīng)網(wǎng)絡(luò)(SCFNN)設(shè)計數(shù)字傳輸系統(tǒng)非線性均衡器,在適度非線性搭配不同程度SNR仿真條件組合下,檢視SCFNN在數(shù)字傳輸系統(tǒng)非線性均衡器的成效。證實SCFNN在信號恢復(fù)程度明顯優(yōu)于MLP,且其M.S.E曲線收斂狀況亦比較快速。系統(tǒng)敏感度是目前各個架構(gòu)所欠缺的能力,本文驗證了SCFNN在系統(tǒng)敏感度優(yōu)于MLP。SCFNN架構(gòu)雖簡單但也不是很精簡,再進(jìn)一步,為了使硬件成本降低,將結(jié)構(gòu)數(shù)降低乃是必要途徑,也是后續(xù)可努力改善的目標(biāo)之一。

[1] Haykin S. Communication Systems[A].4thed[C].,New york:Wiley,2001.

[2] Lee C C,Fuzzy logic in control system:Fuzzy logic controller-Part I and part II[J].IEEE Trans.Syst.,Man,Cybern,1990, 20(9):404-436.

[3] Bernard Mulgrew.Applying radial basis functions[J].IEEE Signal Processing Magazines,1996,23(6):50-65.

[4] Jean-pierre Martens,Nico Weymaere,An equalized error back-propagation algorithm for the on-line training of multilayer perceptrons[J].IEEE Trans.Neural Networks.,2002,13(6):532-541.

[5] Azzedine zerguine,Ahmar shafi,and Maamar bettayeb,Multilayer perceptron-based lattice structure[J].IEEE Trans.Neural Networks, 2001,9(12):532-545.

[6] Deng Jianpimg,P.Saratchandran,Communication channel equalization using complex-valued minimal radial basis function neural networks[J].IEEE Trans.Neural Networks, 2003,13(6):687-696.

[7] Kechriotis G, ZervasE, Manolakos E S. Using recurrent neural networks for adaptive communication channel equalization[J].IEEE Trans.Neural Networks,1994,9(19):267-278.

[8] Chen S, Gibson G, Cowan C,et al. Reconstruction of binary signals using an adaptive radial-basis-function equalizer[J].Signal Processing,1991,22(6):77-93.

[9] Chen S, Gibson G, Cowan C,et al. Adaptive equalization of finite non-linear channels using miltilayer perceptron[J].Signal Processing,1990,20(6):107-119.

[10] Faa-Jeng Lin,Chih-Hing Lin, Po-Hung Shen.Self-constructing fuzzy neural network speed controller for permanent-magnetic synchronous motor drive[J].IEEE Tran.Fuzzy Syst,2001,9(5):751-759.

[11] 暴 春,謝邦昌.淺談類神經(jīng)網(wǎng)絡(luò)[J].山西科技,2006,10(1):132-132.

[12] 趙 娟,高正明.基于BP神經(jīng)網(wǎng)絡(luò)的盲均衡器設(shè)計[J].聲學(xué)技術(shù),2013,32(2):141-145.

[13] 董玉華,張俊星.修正的解相關(guān)前饋神經(jīng)網(wǎng)絡(luò)盲均衡算法研究[J].大連民族學(xué)院學(xué)報,2012,14(5):460-462.

A SCFNN Based PAM Channel Equalizer Performance Research

Li Qinghai,Lin Ruichang

(Department of Electronic Engineering, Zhejiang Industry & Trade Vocational College,Wenzhou 325003,China)

Self-Constructing Fuzzy Neural Network(SCFNN)can create a fuzzy neural network for a target in accordance with a dedicated algorithm.Multi-layer Perceptron(MLP)neural network is a very traditional neural network and many applications were developed in different fields.Back Propagation(BP) combined with steepest descent method make the SCFNN and MLP learned efficiently.Today, many kinds of channel equalizers were constructed, and many kinds channel equalizers based on neural network were also constructed.We prove that the SCFNN can be a superior equalizer. We also compare the performance of SCFNN and MLP applied in channel equalizer. The simulation results show the SCFNN is superior than the MLP in convergence speed, bit error rate and sensitivity. When the SCFNN learning processes is completed the, we found the structure is very simpler.

self-constructing fuzzy neural network(SCFNN);equalizer; multi-layer perceptron(MLP);steepest descent method

2016-12-27;

2017-01-19。

李慶海(1980-),男,黑龍江哈爾濱人,研究生,講師,主要從事自動化控制,神經(jīng)網(wǎng)絡(luò)方向的研究。

1671-4598(2017)03-0222-05

10.16526/j.cnki.11-4762/tp.2017.03.060

TP911.5

A

猜你喜歡
信號系統(tǒng)
Smartflower POP 一體式光伏系統(tǒng)
信號
鴨綠江(2021年35期)2021-04-19 12:24:18
WJ-700無人機(jī)系統(tǒng)
ZC系列無人機(jī)遙感系統(tǒng)
北京測繪(2020年12期)2020-12-29 01:33:58
完形填空二則
基于PowerPC+FPGA顯示系統(tǒng)
半沸制皂系統(tǒng)(下)
孩子停止長個的信號
連通與提升系統(tǒng)的最后一塊拼圖 Audiolab 傲立 M-DAC mini
基于LabVIEW的力加載信號采集與PID控制
主站蜘蛛池模板: 亚洲精品无码不卡在线播放| 香蕉国产精品视频| 97亚洲色综久久精品| 亚洲香蕉伊综合在人在线| 99精品一区二区免费视频| 国产精品美女在线| 色综合天天综合| 国产永久无码观看在线| 91免费国产高清观看| 欧美一级高清免费a| 伦精品一区二区三区视频| 国产精品区视频中文字幕| 国产在线专区| 四虎成人免费毛片| 久久精品国产国语对白| 国产91久久久久久| 三级国产在线观看| 天天摸天天操免费播放小视频| 国产伦精品一区二区三区视频优播| 97在线公开视频| 久久五月天综合| 国产精品欧美亚洲韩国日本不卡| 国产三级国产精品国产普男人| 国产麻豆91网在线看| 国产亚洲一区二区三区在线| 伊人久久综在合线亚洲2019| 怡春院欧美一区二区三区免费| 亚洲av无码人妻| AV无码一区二区三区四区| 欧美另类精品一区二区三区| 亚洲成a人片在线观看88| 亚洲激情99| 国产亚洲日韩av在线| 天天摸夜夜操| 玖玖精品在线| 欧美日在线观看| 精品无码日韩国产不卡av| 国产成人1024精品| 国产香蕉一区二区在线网站| 福利在线不卡| 国产精品99在线观看| 久久性视频| 大陆精大陆国产国语精品1024| 中文精品久久久久国产网址| 成人国产小视频| 四虎免费视频网站| 欧美日本在线一区二区三区| 国产成人精品无码一区二| 曰韩免费无码AV一区二区| 久久99国产综合精品女同| 啊嗯不日本网站| 精品亚洲欧美中文字幕在线看| 婷婷色中文网| 国产在线拍偷自揄拍精品| 亚洲成a∧人片在线观看无码| 国产亚洲成AⅤ人片在线观看| 亚洲成年人片| 四虎永久在线精品影院| 国产精品三区四区| 国产精品极品美女自在线看免费一区二区| 91视频青青草| 韩国福利一区| 国产一级毛片在线| 亚洲第一成年网| 国产天天色| 欧美精品成人一区二区在线观看| 免费毛片网站在线观看| 麻豆国产在线不卡一区二区| 国产情侣一区二区三区| 成人国产三级在线播放| 国产精品视频a| 久久久精品国产SM调教网站| 欧美综合区自拍亚洲综合天堂| 高清色本在线www| 男女性色大片免费网站| 九色在线视频导航91| 国产精品片在线观看手机版| 高清乱码精品福利在线视频| 91亚洲视频下载| 亚洲天堂网2014| 欧美啪啪一区| 在线看AV天堂|