999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

GRNN與BPNN的函數逼近性能對比研究

2014-04-18 18:47:56丁碩常曉恒巫慶輝
現代電子技術 2014年7期
關鍵詞:仿真

丁碩+常曉恒+巫慶輝

摘 要: 為了研究GRNN和BPNN非線性函數的逼近能力,從數學角度詳細闡述了GRNN和基于LM優化算法改進的BPNN的學習過程,編程建立了GRNN和BPNN,并分別用兩種神經網絡對指定的非線性函數進行逼近實驗。仿真結果表明,在訓練樣本數量相等且中小規模網絡的條件下,相對于BPNN而言,GRNN的逼近精度更高、收斂速度更快,具有很好的逼近能力,為解決非線性函數的逼近問題提供了良好的解決手段。

關鍵詞: 廣義回歸神經網絡; 反向傳播神經網絡; 函數逼近; 逼近能力對比; 仿真

中圖分類號: TN711?34;TP183 文獻標識碼: A 文章編號: 1004?373X(2014)07?0114?04

Comparative study on function approximation performances of GRNN and BPNN

DING Shuo, CHANG Xiao?heng, WU Qing?hui

(College of Engineering, Bohai University, Jinzhou 121013, China)

Abstract: To study the nonlinear function approximation performances of GRNN and BPNN, the learning processes of GRNN and BPNN based on LM optimization algorithm improvement are illustrated mathematically in this paper. Then GRNN and BPNN were established with computer programming. A given nonlinear function was approximated by the two neural networks respectively. The simulation results indicate that when the numbers of training samples are the same and the networks are small or medium?sized, GRNN has higher precision, faster convergence speed, and better approximation ability than BPNN. Thus GRNN is a good method to solve the problem of nonlinear function approximation.

Keywords: GRNN; BPNN; function approximation; approximation capability comparison; simulation

0 引 言

數值逼近是指給定一組數據,用數學分析的方法來分析這組數據,常用的數學分析方法有多項式擬合和插值運算。由于人工神經元網絡(Artificial Neural Networks, ANN)具有很強的非線性映射能力、自學習性和容錯性,近些年來,采用ANN對于非線性函數進行逼近成為數值逼近領域的一個研究熱點。目前,國內外學者絕大部分使用的ANN模型是BP神經網絡,但是,傳統的BP網絡收斂速度慢,訓練時間長和目標函數存在局部最小等缺點,所以,很多學者提出了許多改進算法。廣義回歸神經網絡(General Regression Neural Networks, GRNN)具有很強的非線性映射能力和柔性網絡結構以及高度的容錯性和魯棒性,很適合于解決非線性函數的逼近問題[1?5]。筆者以標準BP(Back Propagation)算法為基礎,利用收斂速度相對較快、擬合精度較高且性能穩定的LM(Levenberg?Marquart)算法來構建LMBP神經網絡,同時構建了GRNN,分別對指定的非線性函數進行逼近實驗,并對結果進行比較分析。仿真結果表明,GRNN對非線性函數的逼近能力要明顯地高于BPNN,并且設計起來更為方便。

1 人工神經網絡函數逼近定理

令[?(?)]為有限非常量的單調增連續函數,[IP]代表[P]維超立方體[[0,1]P],[C(IP)]表示定義在[IP]上的連續函數構成的集合,則給定任意函數[f(?)∈C(IP)]和[ε>0,]存在正整數[M]和一組實常數[?i,][θi]和[ωij,]其中[i=1,2,…,M;][j=1,2,…,p,]使得神經網絡的輸出如式(1)所示[6] :

[F(x1,x2,…,xp)=i=1M?i?(j=1pωijxj-θi)] (1)

即網絡可逼近任意函數[f(x):]

[F(x1,x2,…,xp)-f(x1,x2,…,xp)<ε] (2)

2 LM?BP神經網絡算法原理

針對傳統BPNN算法迭代速度慢,且易陷入局部最小點的缺點,若計算機的內存足夠大時,對于中小型結構的網絡一般使用LM改進方法。LM算法在對近似二階訓練速率進行修正時可以充分避免計算復雜的Hessian矩陣。若誤差函數用平方和表示時,可以用式(3)來表示Hessian矩陣:

[H(k)=JT(k)J(k)] (3)

梯度表達式如式(4)所示:

[g=JT(k)e(k)] (4)

式(3)中,[J(k)]是包含網絡誤差對權值和閾值的一階導數的雅克比矩陣;式(4)中,[e]為誤差向量。LM算法可按照式(5)進行修正:

[x(k+1)=x(k)-JTJ+μI-1JTe(k)] (5)

式中:[I]為單位矩陣;比例系數[μ]是一個大于0的很小的參數,當[μ]接近零時,式(5)變為牛頓法;當[μ]很大時,式(5)變為梯度下降法。因為牛頓法在對最小誤差進行逼近時,收斂速度快,精度高,所以應使式(5)最終接近于牛頓法,使[μ]減小;而只有在進行嘗試性迭代后的誤差性能增加的情況下,才使[μ]增加[2]。LM算法是一種非常有效的優化設計方法,尤其適用于目標函數為誤差平方和最小化的情況,因其具有二階收斂速度,所需要的迭代次數很少,所以可大幅度提高收斂速度,并可提高算法的穩定性以及避免陷人局部最小點的優點。

3 GRNN算法原理

GRNN由輸入層、模式層、求和層和輸出層四層組成。GRNN直接從訓練數據中獲得估計函數,可以逼近輸入和輸出向量之間的任意函數。給定[x]并假設被估計函數是連續光滑的,則[y]的期望值如式(6)所示:

[E[yx]=-∞+∞vf(x,v)dv-∞+∞f(x,v)dy] (6)

函數[f(x,y)]可定義為:[f(x,y)=12σI+1×1Ii=1Iexp-(x-xi)T(x-xi)2?σ2×exp-(y-yi)22?σ2] (7)

式(7)中[xi]和[yi]分別表示第[i]個訓練輸入向量和相應的輸出,[s]表示擴展常數,也稱為光滑因子。給定[x,] 則相應的回歸估計如式(8)所示:

[y=E[yx]=i=1Iyihii=1Ihi] (8)

[hi=exp-d2i2?σ2] (9)

[d2i=(x-xi)T(x-xi)] (10)

式(9)和式(10)中[hi]表示高斯徑向基函數,[d2i]表示向量[x]和向量[xi]之間的歐式距離的平方。

4 仿真實驗

為了便于對GRNN和BPNN逼近性能和收斂速度進行研究,本文在Matlab 7.0環境下,編程建立了GRNN和LM?BP神經網絡,分別對式(11)所示的非線性函數進行逼近實驗,并進行對比研究,逼近的目標精度為0.000 1。

[y=2?e(-x2)+cos(x),x∈[-10,10]] (11)

仿真過程[7?10]如下:

(l) 對待逼近的非線性函數進行采樣,以采樣點作為神經網絡的訓練樣本集,計算相應點的函數值,把其作為目標樣本集;

(2) 建立GRNN和三層BPNN,并用上一步驟所形成的訓練樣本集進行反復訓練,直到滿足要求;如果所建立的網絡經充分訓練后仍無法達到要求,則需調整網絡結構;

(3) 利用GRNN和BPNN對訓練樣本進行仿真;

(4) 對所建立的GRNN和BPNN進行泛化能力測試,即對不在訓練樣本集空間內的樣本進行仿真,比較兩種網絡的仿真誤差;

(5) 在樣本數相同且精度要求相等的條件下,對于兩種網絡的整體逼近結果進行比較,分析兩種網絡在解決相同問題時逼近性能的差異。

4.1 GRNN和BPNN的建立

GRNN人為調節的參數少,只有一個閾值[b,]閾值[b]的計算方法如式(12)所示:

[b=0.5×[-log(0.5)]SPREAD] (12)

式中的參數SPREAD為徑向基函數的分布密度。所以在建立GRNN時,只需要選擇一個合適的SPREAD值,SPREAD值的大小對于網絡的逼近結果影響很大,SPREAD的值越小,神經網絡對樣本數據的逼近性就越好;SPREAD的值越大,神經網絡對樣本數據的逼近過程就越光滑,但與此同時網絡輸出誤差會增大。文中在Matlab 7.0環境下編寫GRNN算法程序進行非線性函數逼近研究,SPREAD分別取0.1,0.3,0.5,0.7,1.0,程序采取循環訓練算法,不同SPREAD值對逼近結果的影響如圖1所示。可以看出,當SPREAD=0.1時,文中所建立的GRNN達到最佳逼近效果。所建立GRNN可以根據訓練算法和訓練樣本集開始學習和訓練,當網絡訓練好后,各個隱層節點的數據中心相應的輸出權值將不再改變,此時的神經網絡可以進行非線性函數逼近。

因為傳統的BPNN收斂速度慢,逼近精度不夠高,文中利用LM算法對BPNN進行改進。建立LM?BPNN,主要包含網絡層數、隱層神經元個數、初始權值和學習率四個要素。根據ANN的函數逼近理論,一個三層BPNN可以逼近任意非線性函數。因此,文中在進行函數逼近實驗時,BP神經網絡采用單隱層結構。隱含層的神經元數目的冗余將使網絡龐大,訓練困難,而不足又會導致訓練失敗。文中采用動態法來確定隱含層神經元數:即一開始選用較少的隱層神經元,如果學習一定次數后效果不好,再增加隱層神經元,一直達到比較合理的隱層神經元數為止,經過反復多次試驗隱含層神經元數最終確定為15,可以達到逼近要求。

圖1 不同SPREAD值對逼近結果的影響

初始權值對BPNN的收斂程度和訓練時間影響很大。文中在建立LM?BPNN時,輸入值在加權處理后盡可能接近零,這樣可以保證初始權值的調整發生在S型傳遞函數的斜率最陡處。文中在建立幾種數值優化BP神經網絡時,為了兼顧系統穩定性和具有較快的收斂速度,學習率選取為0.1。

4.2 GRNN和BPNN對訓練樣本集的逼近能力測試

采樣頻率取為0.4,即在[x∈[-10,10]]區間內等間距選取51個點作為訓練樣本集,對應點的函數值作為目標樣本集。GRNN和BPNN對訓練樣本點的逼近誤差如圖2所示,可以看出,兩種網絡對于訓練樣本的逼近結果的相對誤差均達到預先設定的精度要求,GRNN幾乎在所有的訓練樣本點的逼近結果的相對誤差都接近于為0,只有在個別訓練樣本的逼近結果的絕對誤差略有增大,最大相對誤差不超過-2.413e-6,但仍遠小于BPNN在對應點處的相對誤差;相比之下,BPNN在很多訓練樣本點的逼近結果的相對誤差都顯著增大,最大相對誤差為-0.113,逼近精度遠低于GRNN。

4.3 GRNN和BPNN逼近性能的泛化能力測試

為了檢驗所建立的GRNN和BPNN的泛化能力,將采樣頻率取為0.8,即在[x∈[-10,10]]區間內等間距選取25個非訓練樣本點作為測試點集。GRNN和BPNN對非訓練樣本點的逼近誤差如圖3所示,可以看出,GRNN對測試點集幾乎達到了完全逼近,只在幾個測試點有較小誤差,但最大相對誤差不超過2.612e-6;相比之下,BPNN有較大誤差,且誤差波動較大,BPNN在較小和較大的非訓練樣本點的逼近相對誤差顯著增大,其最大相對誤差不超過0.08。由此可以得出結論,GRNN對測試點集的逼近精度明顯高于BPNN且具有較強的泛化能力。

圖2 GRNN和BPNN對訓練樣本點的逼近誤差

圖3 GRNN和BPNN對非訓練樣本點的逼近誤差

4.4 GRNN和RBFNN的整體逼近結果對比

在樣本數相同且精度要求相等的條件下,利用作待逼近函數圖像時的采樣頻率產生樣本,分別用GRNN和BPNN對這些樣本進行仿真,兩種網絡對待逼近函數的整體逼近效果如圖4所示,可以看出,GRNN在待逼近函數的取值區間范圍內幾乎做到了完全逼近,而沒有經過訓練的BPNN完全無法逼近,即使利用經過訓練后的網絡(運行25次,取效果最好的1次)也在多個函數區間上仍存在逼近相對誤差大、逼近效果不理想的現象。

在樣本數和精度要求相同的條件下,GRNN和BPNN對于待逼近函數的整體逼近結果對比如表1所示。可以看出,隨著樣本集數目的不斷增大,GRNN和BPNN的收斂時間相應的在不斷增加,但總體來說,GRNN的收斂時間較BPNN的收斂時間要少很多;就兩種網絡整體逼近的均方誤差而言, GRNN的均方誤差遠遠小于BPNN的均方誤差。

表1 GRNN和BPNN整體逼近結果對比

[樣本集

數目\& GRNN收斂時 /s\& BPNN收斂時 /s\& GRNN

均方誤差\&BPNN

均方誤差\&[?]\&[?]\&[?]\&[?]\&[?]\&26\&0.036\&0.366\&2.346 6e-012\&8.565 75e-005\&33\&0.055\&0.668\&3.471 5e-012\&8.767 56e-005\&51\&0.077\&0.909\&7.986 9e-012\&9.841 37e-005\&[?]\&[?]\&[?]\&[?]\&[?]\&101\&0.091\&1.131\&8.506 0e-012\&9.995 82e-005\&]

圖4 GRNN和BPNN整體逼近結果效果圖

5 結 語

仿真結果表明, GRNN和BPNN能夠在預設精度范圍內完成非線性函數的逼近任務,文中采用LM算法對傳統BPNN進行改進可以有效提高其收斂速度和逼近精度。但LM 算法的復雜度較大,在計算過程中會產生大量的中間結果矩陣,需要較大的計算機內存空間。相比之下,GRNN 網絡在逼近能力和學習速度上較BPNN有更強的優勢,網絡最后收斂于樣本積聚較多的優化回歸面,并且在樣本數據較少以及存在不穩定數據時,逼近效果也較好。GRNN對于非線性函數的逼近精度遠遠高于BPNN,兩者不在同一數量級,GRNN基本上和待逼近函數完全吻合,在整體逼近上也明顯優于BPNN,而BPNN則存在較大誤差,且GRNN能夠自動調整網絡結構,設計起來非常方便,而且最大限度地降低了人為主觀因素對逼近結果的影響,所以在中小型網絡中應優先采用GRNN進行逼近。

參考文獻

[1] 黃忠明,吳志紅,劉全喜.幾種用于非線性函數逼近的神經網絡方法研究[J].兵工自動化,2009,28(10):88?92.

[2] 丁碩,巫慶輝.基于改進BP神經網絡的函數逼近性能對比研究[J].計算機與現代化,2012(11):10?13.

[3] DING Shuo, WU Qing?hui. A Matlab?based Study on Approximation Performances of Improved Algorithms of Typical BP Neural Networks [J]. Applied Mechanics and Materials, 2013, 313?314: 1353?1356.

[4] DING Shuo, CHANG Xiao?heng. A Matlab?based Study on the Realization and Approximation Performance of RBF Neural Networks[J]. Applied Mechanics and Materials, 2013, 325?326: 1746?1749.

[5] DING Shuo, CHANG Xiao?heng, WU Qing?hui. Approximation Performance of BP Neural Networks Improved by Heuristic Approach[J]. Applied Mechanics and Materials, 2013, 411?414: 1952?1955.

[6] 馬東宇.基于Gaussian型RBF神經網絡的函數逼近與應用[D].長沙:中南大學,2011.

[7] 智會強,牛坤,田亮,等.BP網絡和RBF網絡在函數逼近領域內的比較研究[J].科技通報,2005,21(2):193?197.

[8] 曾德惠.基于Matlab實現函數逼近[J].現代電子技術,2009,32(8):141?143.

[9] 丁碩,常曉恒.Gaussian型RBF神經網絡的函數逼近仿真研究[J].河南科學,2013,31(9):1383?1386.

[10] 劉永,張立毅.BP和RBF神經網絡的實現及其性能比較[J].電子測量技術,2007,30(4):77?80.

4.3 GRNN和BPNN逼近性能的泛化能力測試

為了檢驗所建立的GRNN和BPNN的泛化能力,將采樣頻率取為0.8,即在[x∈[-10,10]]區間內等間距選取25個非訓練樣本點作為測試點集。GRNN和BPNN對非訓練樣本點的逼近誤差如圖3所示,可以看出,GRNN對測試點集幾乎達到了完全逼近,只在幾個測試點有較小誤差,但最大相對誤差不超過2.612e-6;相比之下,BPNN有較大誤差,且誤差波動較大,BPNN在較小和較大的非訓練樣本點的逼近相對誤差顯著增大,其最大相對誤差不超過0.08。由此可以得出結論,GRNN對測試點集的逼近精度明顯高于BPNN且具有較強的泛化能力。

圖2 GRNN和BPNN對訓練樣本點的逼近誤差

圖3 GRNN和BPNN對非訓練樣本點的逼近誤差

4.4 GRNN和RBFNN的整體逼近結果對比

在樣本數相同且精度要求相等的條件下,利用作待逼近函數圖像時的采樣頻率產生樣本,分別用GRNN和BPNN對這些樣本進行仿真,兩種網絡對待逼近函數的整體逼近效果如圖4所示,可以看出,GRNN在待逼近函數的取值區間范圍內幾乎做到了完全逼近,而沒有經過訓練的BPNN完全無法逼近,即使利用經過訓練后的網絡(運行25次,取效果最好的1次)也在多個函數區間上仍存在逼近相對誤差大、逼近效果不理想的現象。

在樣本數和精度要求相同的條件下,GRNN和BPNN對于待逼近函數的整體逼近結果對比如表1所示。可以看出,隨著樣本集數目的不斷增大,GRNN和BPNN的收斂時間相應的在不斷增加,但總體來說,GRNN的收斂時間較BPNN的收斂時間要少很多;就兩種網絡整體逼近的均方誤差而言, GRNN的均方誤差遠遠小于BPNN的均方誤差。

表1 GRNN和BPNN整體逼近結果對比

[樣本集

數目\& GRNN收斂時 /s\& BPNN收斂時 /s\& GRNN

均方誤差\&BPNN

均方誤差\&[?]\&[?]\&[?]\&[?]\&[?]\&26\&0.036\&0.366\&2.346 6e-012\&8.565 75e-005\&33\&0.055\&0.668\&3.471 5e-012\&8.767 56e-005\&51\&0.077\&0.909\&7.986 9e-012\&9.841 37e-005\&[?]\&[?]\&[?]\&[?]\&[?]\&101\&0.091\&1.131\&8.506 0e-012\&9.995 82e-005\&]

圖4 GRNN和BPNN整體逼近結果效果圖

5 結 語

仿真結果表明, GRNN和BPNN能夠在預設精度范圍內完成非線性函數的逼近任務,文中采用LM算法對傳統BPNN進行改進可以有效提高其收斂速度和逼近精度。但LM 算法的復雜度較大,在計算過程中會產生大量的中間結果矩陣,需要較大的計算機內存空間。相比之下,GRNN 網絡在逼近能力和學習速度上較BPNN有更強的優勢,網絡最后收斂于樣本積聚較多的優化回歸面,并且在樣本數據較少以及存在不穩定數據時,逼近效果也較好。GRNN對于非線性函數的逼近精度遠遠高于BPNN,兩者不在同一數量級,GRNN基本上和待逼近函數完全吻合,在整體逼近上也明顯優于BPNN,而BPNN則存在較大誤差,且GRNN能夠自動調整網絡結構,設計起來非常方便,而且最大限度地降低了人為主觀因素對逼近結果的影響,所以在中小型網絡中應優先采用GRNN進行逼近。

參考文獻

[1] 黃忠明,吳志紅,劉全喜.幾種用于非線性函數逼近的神經網絡方法研究[J].兵工自動化,2009,28(10):88?92.

[2] 丁碩,巫慶輝.基于改進BP神經網絡的函數逼近性能對比研究[J].計算機與現代化,2012(11):10?13.

[3] DING Shuo, WU Qing?hui. A Matlab?based Study on Approximation Performances of Improved Algorithms of Typical BP Neural Networks [J]. Applied Mechanics and Materials, 2013, 313?314: 1353?1356.

[4] DING Shuo, CHANG Xiao?heng. A Matlab?based Study on the Realization and Approximation Performance of RBF Neural Networks[J]. Applied Mechanics and Materials, 2013, 325?326: 1746?1749.

[5] DING Shuo, CHANG Xiao?heng, WU Qing?hui. Approximation Performance of BP Neural Networks Improved by Heuristic Approach[J]. Applied Mechanics and Materials, 2013, 411?414: 1952?1955.

[6] 馬東宇.基于Gaussian型RBF神經網絡的函數逼近與應用[D].長沙:中南大學,2011.

[7] 智會強,牛坤,田亮,等.BP網絡和RBF網絡在函數逼近領域內的比較研究[J].科技通報,2005,21(2):193?197.

[8] 曾德惠.基于Matlab實現函數逼近[J].現代電子技術,2009,32(8):141?143.

[9] 丁碩,常曉恒.Gaussian型RBF神經網絡的函數逼近仿真研究[J].河南科學,2013,31(9):1383?1386.

[10] 劉永,張立毅.BP和RBF神經網絡的實現及其性能比較[J].電子測量技術,2007,30(4):77?80.

4.3 GRNN和BPNN逼近性能的泛化能力測試

為了檢驗所建立的GRNN和BPNN的泛化能力,將采樣頻率取為0.8,即在[x∈[-10,10]]區間內等間距選取25個非訓練樣本點作為測試點集。GRNN和BPNN對非訓練樣本點的逼近誤差如圖3所示,可以看出,GRNN對測試點集幾乎達到了完全逼近,只在幾個測試點有較小誤差,但最大相對誤差不超過2.612e-6;相比之下,BPNN有較大誤差,且誤差波動較大,BPNN在較小和較大的非訓練樣本點的逼近相對誤差顯著增大,其最大相對誤差不超過0.08。由此可以得出結論,GRNN對測試點集的逼近精度明顯高于BPNN且具有較強的泛化能力。

圖2 GRNN和BPNN對訓練樣本點的逼近誤差

圖3 GRNN和BPNN對非訓練樣本點的逼近誤差

4.4 GRNN和RBFNN的整體逼近結果對比

在樣本數相同且精度要求相等的條件下,利用作待逼近函數圖像時的采樣頻率產生樣本,分別用GRNN和BPNN對這些樣本進行仿真,兩種網絡對待逼近函數的整體逼近效果如圖4所示,可以看出,GRNN在待逼近函數的取值區間范圍內幾乎做到了完全逼近,而沒有經過訓練的BPNN完全無法逼近,即使利用經過訓練后的網絡(運行25次,取效果最好的1次)也在多個函數區間上仍存在逼近相對誤差大、逼近效果不理想的現象。

在樣本數和精度要求相同的條件下,GRNN和BPNN對于待逼近函數的整體逼近結果對比如表1所示。可以看出,隨著樣本集數目的不斷增大,GRNN和BPNN的收斂時間相應的在不斷增加,但總體來說,GRNN的收斂時間較BPNN的收斂時間要少很多;就兩種網絡整體逼近的均方誤差而言, GRNN的均方誤差遠遠小于BPNN的均方誤差。

表1 GRNN和BPNN整體逼近結果對比

[樣本集

數目\& GRNN收斂時 /s\& BPNN收斂時 /s\& GRNN

均方誤差\&BPNN

均方誤差\&[?]\&[?]\&[?]\&[?]\&[?]\&26\&0.036\&0.366\&2.346 6e-012\&8.565 75e-005\&33\&0.055\&0.668\&3.471 5e-012\&8.767 56e-005\&51\&0.077\&0.909\&7.986 9e-012\&9.841 37e-005\&[?]\&[?]\&[?]\&[?]\&[?]\&101\&0.091\&1.131\&8.506 0e-012\&9.995 82e-005\&]

圖4 GRNN和BPNN整體逼近結果效果圖

5 結 語

仿真結果表明, GRNN和BPNN能夠在預設精度范圍內完成非線性函數的逼近任務,文中采用LM算法對傳統BPNN進行改進可以有效提高其收斂速度和逼近精度。但LM 算法的復雜度較大,在計算過程中會產生大量的中間結果矩陣,需要較大的計算機內存空間。相比之下,GRNN 網絡在逼近能力和學習速度上較BPNN有更強的優勢,網絡最后收斂于樣本積聚較多的優化回歸面,并且在樣本數據較少以及存在不穩定數據時,逼近效果也較好。GRNN對于非線性函數的逼近精度遠遠高于BPNN,兩者不在同一數量級,GRNN基本上和待逼近函數完全吻合,在整體逼近上也明顯優于BPNN,而BPNN則存在較大誤差,且GRNN能夠自動調整網絡結構,設計起來非常方便,而且最大限度地降低了人為主觀因素對逼近結果的影響,所以在中小型網絡中應優先采用GRNN進行逼近。

參考文獻

[1] 黃忠明,吳志紅,劉全喜.幾種用于非線性函數逼近的神經網絡方法研究[J].兵工自動化,2009,28(10):88?92.

[2] 丁碩,巫慶輝.基于改進BP神經網絡的函數逼近性能對比研究[J].計算機與現代化,2012(11):10?13.

[3] DING Shuo, WU Qing?hui. A Matlab?based Study on Approximation Performances of Improved Algorithms of Typical BP Neural Networks [J]. Applied Mechanics and Materials, 2013, 313?314: 1353?1356.

[4] DING Shuo, CHANG Xiao?heng. A Matlab?based Study on the Realization and Approximation Performance of RBF Neural Networks[J]. Applied Mechanics and Materials, 2013, 325?326: 1746?1749.

[5] DING Shuo, CHANG Xiao?heng, WU Qing?hui. Approximation Performance of BP Neural Networks Improved by Heuristic Approach[J]. Applied Mechanics and Materials, 2013, 411?414: 1952?1955.

[6] 馬東宇.基于Gaussian型RBF神經網絡的函數逼近與應用[D].長沙:中南大學,2011.

[7] 智會強,牛坤,田亮,等.BP網絡和RBF網絡在函數逼近領域內的比較研究[J].科技通報,2005,21(2):193?197.

[8] 曾德惠.基于Matlab實現函數逼近[J].現代電子技術,2009,32(8):141?143.

[9] 丁碩,常曉恒.Gaussian型RBF神經網絡的函數逼近仿真研究[J].河南科學,2013,31(9):1383?1386.

[10] 劉永,張立毅.BP和RBF神經網絡的實現及其性能比較[J].電子測量技術,2007,30(4):77?80.

猜你喜歡
仿真
Proteus仿真軟件在單片機原理及應用課程教學中的應用
工業機器人模擬仿真技術在職業教育中的應用淺析
一種幫助幼兒車內脫險應急裝置的仿真分析
科技資訊(2016年18期)2016-11-15 20:09:22
論虛擬仿真實訓系統在口腔實驗教學中的應用
科技資訊(2016年18期)2016-11-15 07:55:28
基于機電設備電氣控制線路排故的仿真系統設計
價值工程(2016年29期)2016-11-14 02:01:16
航空電氣系統中故障電弧研究
Buck開關變換器的基本參數設計及仿真分析
試析PLC控制下的自動化立體倉庫仿真情況分析
基于MADYMO的航空座椅約束系統優化設計
科技視界(2016年18期)2016-11-03 21:44:44
中國體態假人模型與FAA Hybrid Ⅲ 型假人模型沖擊差異性分析
科技視界(2016年18期)2016-11-03 20:31:49
主站蜘蛛池模板: 91久久夜色精品| 五月六月伊人狠狠丁香网| 真人高潮娇喘嗯啊在线观看 | 久久久精品国产SM调教网站| 日本黄色a视频| 欧美一级高清免费a| 69av免费视频| 狠狠色狠狠色综合久久第一次| 成年午夜精品久久精品| 新SSS无码手机在线观看| 日韩激情成人| 日韩A级毛片一区二区三区| 久久精品这里只有国产中文精品| 好久久免费视频高清| 久久综合色视频| 国产乱子伦手机在线| 久久久久青草大香线综合精品| 99久久精品国产精品亚洲| 一本一道波多野结衣一区二区 | 国产综合在线观看视频| 国产人在线成免费视频| 欧美日韩国产成人高清视频| 亚洲欧美综合在线观看| 国产精品99一区不卡| 成人在线第一页| 久久久精品无码一二三区| 久久久噜噜噜| 婷婷亚洲最大| 亚洲国产精品无码久久一线| 成年看免费观看视频拍拍| 欧美性天天| 无码粉嫩虎白一线天在线观看| 久久精品只有这里有| 亚洲第一天堂无码专区| 欧美成人亚洲综合精品欧美激情| 国产99视频在线| 国产精品99r8在线观看| 亚洲国产天堂久久综合| 制服丝袜 91视频| 日本欧美午夜| 伊人色婷婷| 91www在线观看| 精品国产中文一级毛片在线看| 国产一级视频在线观看网站| 国内视频精品| 日韩AV无码一区| 熟女成人国产精品视频| 国产女人综合久久精品视| 亚洲美女一区| 国产乱子伦一区二区=| 国产浮力第一页永久地址| 五月激情综合网| 亚洲天堂成人| 国产成人永久免费视频| 国产精品制服| 一本二本三本不卡无码| 福利小视频在线播放| 亚洲成人在线免费观看| 国产va在线| 亚洲午夜福利精品无码不卡 | 91精品aⅴ无码中文字字幕蜜桃| 色婷婷成人| A级毛片无码久久精品免费| 成年人久久黄色网站| 免费人欧美成又黄又爽的视频| 国产成人综合久久精品尤物| 人妻少妇久久久久久97人妻| 国产精品尤物铁牛tv| 国产亚卅精品无码| 色婷婷色丁香| 亚洲第一成年网| 91探花国产综合在线精品| 欧美午夜性视频| 日韩成人免费网站| 久久国产精品麻豆系列| 国产精品免费电影| 黄色不卡视频| 欧美日韩中文国产va另类| 午夜视频在线观看区二区| 国产又粗又猛又爽| 1级黄色毛片| 99精品福利视频|