丁碩+常曉恒+巫慶輝
摘 要: 為了研究GRNN和BPNN非線性函數的逼近能力,從數學角度詳細闡述了GRNN和基于LM優化算法改進的BPNN的學習過程,編程建立了GRNN和BPNN,并分別用兩種神經網絡對指定的非線性函數進行逼近實驗。仿真結果表明,在訓練樣本數量相等且中小規模網絡的條件下,相對于BPNN而言,GRNN的逼近精度更高、收斂速度更快,具有很好的逼近能力,為解決非線性函數的逼近問題提供了良好的解決手段。
關鍵詞: 廣義回歸神經網絡; 反向傳播神經網絡; 函數逼近; 逼近能力對比; 仿真
中圖分類號: TN711?34;TP183 文獻標識碼: A 文章編號: 1004?373X(2014)07?0114?04
Comparative study on function approximation performances of GRNN and BPNN
DING Shuo, CHANG Xiao?heng, WU Qing?hui
(College of Engineering, Bohai University, Jinzhou 121013, China)
Abstract: To study the nonlinear function approximation performances of GRNN and BPNN, the learning processes of GRNN and BPNN based on LM optimization algorithm improvement are illustrated mathematically in this paper. Then GRNN and BPNN were established with computer programming. A given nonlinear function was approximated by the two neural networks respectively. The simulation results indicate that when the numbers of training samples are the same and the networks are small or medium?sized, GRNN has higher precision, faster convergence speed, and better approximation ability than BPNN. Thus GRNN is a good method to solve the problem of nonlinear function approximation.
Keywords: GRNN; BPNN; function approximation; approximation capability comparison; simulation
0 引 言
數值逼近是指給定一組數據,用數學分析的方法來分析這組數據,常用的數學分析方法有多項式擬合和插值運算。由于人工神經元網絡(Artificial Neural Networks, ANN)具有很強的非線性映射能力、自學習性和容錯性,近些年來,采用ANN對于非線性函數進行逼近成為數值逼近領域的一個研究熱點。目前,國內外學者絕大部分使用的ANN模型是BP神經網絡,但是,傳統的BP網絡收斂速度慢,訓練時間長和目標函數存在局部最小等缺點,所以,很多學者提出了許多改進算法。廣義回歸神經網絡(General Regression Neural Networks, GRNN)具有很強的非線性映射能力和柔性網絡結構以及高度的容錯性和魯棒性,很適合于解決非線性函數的逼近問題[1?5]。筆者以標準BP(Back Propagation)算法為基礎,利用收斂速度相對較快、擬合精度較高且性能穩定的LM(Levenberg?Marquart)算法來構建LMBP神經網絡,同時構建了GRNN,分別對指定的非線性函數進行逼近實驗,并對結果進行比較分析。仿真結果表明,GRNN對非線性函數的逼近能力要明顯地高于BPNN,并且設計起來更為方便。
1 人工神經網絡函數逼近定理
令[?(?)]為有限非常量的單調增連續函數,[IP]代表[P]維超立方體[[0,1]P],[C(IP)]表示定義在[IP]上的連續函數構成的集合,則給定任意函數[f(?)∈C(IP)]和[ε>0,]存在正整數[M]和一組實常數[?i,][θi]和[ωij,]其中[i=1,2,…,M;][j=1,2,…,p,]使得神經網絡的輸出如式(1)所示[6] :
[F(x1,x2,…,xp)=i=1M?i?(j=1pωijxj-θi)] (1)
即網絡可逼近任意函數[f(x):]
[F(x1,x2,…,xp)-f(x1,x2,…,xp)<ε] (2)
2 LM?BP神經網絡算法原理
針對傳統BPNN算法迭代速度慢,且易陷入局部最小點的缺點,若計算機的內存足夠大時,對于中小型結構的網絡一般使用LM改進方法。LM算法在對近似二階訓練速率進行修正時可以充分避免計算復雜的Hessian矩陣。若誤差函數用平方和表示時,可以用式(3)來表示Hessian矩陣:
[H(k)=JT(k)J(k)] (3)
梯度表達式如式(4)所示:
[g=JT(k)e(k)] (4)
式(3)中,[J(k)]是包含網絡誤差對權值和閾值的一階導數的雅克比矩陣;式(4)中,[e]為誤差向量。LM算法可按照式(5)進行修正:
[x(k+1)=x(k)-JTJ+μI-1JTe(k)] (5)
式中:[I]為單位矩陣;比例系數[μ]是一個大于0的很小的參數,當[μ]接近零時,式(5)變為牛頓法;當[μ]很大時,式(5)變為梯度下降法。因為牛頓法在對最小誤差進行逼近時,收斂速度快,精度高,所以應使式(5)最終接近于牛頓法,使[μ]減小;而只有在進行嘗試性迭代后的誤差性能增加的情況下,才使[μ]增加[2]。LM算法是一種非常有效的優化設計方法,尤其適用于目標函數為誤差平方和最小化的情況,因其具有二階收斂速度,所需要的迭代次數很少,所以可大幅度提高收斂速度,并可提高算法的穩定性以及避免陷人局部最小點的優點。
3 GRNN算法原理
GRNN由輸入層、模式層、求和層和輸出層四層組成。GRNN直接從訓練數據中獲得估計函數,可以逼近輸入和輸出向量之間的任意函數。給定[x]并假設被估計函數是連續光滑的,則[y]的期望值如式(6)所示:
[E[yx]=-∞+∞vf(x,v)dv-∞+∞f(x,v)dy] (6)
函數[f(x,y)]可定義為:[f(x,y)=12σI+1×1Ii=1Iexp-(x-xi)T(x-xi)2?σ2×exp-(y-yi)22?σ2] (7)
式(7)中[xi]和[yi]分別表示第[i]個訓練輸入向量和相應的輸出,[s]表示擴展常數,也稱為光滑因子。給定[x,] 則相應的回歸估計如式(8)所示:
[y=E[yx]=i=1Iyihii=1Ihi] (8)
[hi=exp-d2i2?σ2] (9)
[d2i=(x-xi)T(x-xi)] (10)
式(9)和式(10)中[hi]表示高斯徑向基函數,[d2i]表示向量[x]和向量[xi]之間的歐式距離的平方。
4 仿真實驗
為了便于對GRNN和BPNN逼近性能和收斂速度進行研究,本文在Matlab 7.0環境下,編程建立了GRNN和LM?BP神經網絡,分別對式(11)所示的非線性函數進行逼近實驗,并進行對比研究,逼近的目標精度為0.000 1。
[y=2?e(-x2)+cos(x),x∈[-10,10]] (11)
仿真過程[7?10]如下:
(l) 對待逼近的非線性函數進行采樣,以采樣點作為神經網絡的訓練樣本集,計算相應點的函數值,把其作為目標樣本集;
(2) 建立GRNN和三層BPNN,并用上一步驟所形成的訓練樣本集進行反復訓練,直到滿足要求;如果所建立的網絡經充分訓練后仍無法達到要求,則需調整網絡結構;
(3) 利用GRNN和BPNN對訓練樣本進行仿真;
(4) 對所建立的GRNN和BPNN進行泛化能力測試,即對不在訓練樣本集空間內的樣本進行仿真,比較兩種網絡的仿真誤差;
(5) 在樣本數相同且精度要求相等的條件下,對于兩種網絡的整體逼近結果進行比較,分析兩種網絡在解決相同問題時逼近性能的差異。
4.1 GRNN和BPNN的建立
GRNN人為調節的參數少,只有一個閾值[b,]閾值[b]的計算方法如式(12)所示:
[b=0.5×[-log(0.5)]SPREAD] (12)
式中的參數SPREAD為徑向基函數的分布密度。所以在建立GRNN時,只需要選擇一個合適的SPREAD值,SPREAD值的大小對于網絡的逼近結果影響很大,SPREAD的值越小,神經網絡對樣本數據的逼近性就越好;SPREAD的值越大,神經網絡對樣本數據的逼近過程就越光滑,但與此同時網絡輸出誤差會增大。文中在Matlab 7.0環境下編寫GRNN算法程序進行非線性函數逼近研究,SPREAD分別取0.1,0.3,0.5,0.7,1.0,程序采取循環訓練算法,不同SPREAD值對逼近結果的影響如圖1所示。可以看出,當SPREAD=0.1時,文中所建立的GRNN達到最佳逼近效果。所建立GRNN可以根據訓練算法和訓練樣本集開始學習和訓練,當網絡訓練好后,各個隱層節點的數據中心相應的輸出權值將不再改變,此時的神經網絡可以進行非線性函數逼近。
因為傳統的BPNN收斂速度慢,逼近精度不夠高,文中利用LM算法對BPNN進行改進。建立LM?BPNN,主要包含網絡層數、隱層神經元個數、初始權值和學習率四個要素。根據ANN的函數逼近理論,一個三層BPNN可以逼近任意非線性函數。因此,文中在進行函數逼近實驗時,BP神經網絡采用單隱層結構。隱含層的神經元數目的冗余將使網絡龐大,訓練困難,而不足又會導致訓練失敗。文中采用動態法來確定隱含層神經元數:即一開始選用較少的隱層神經元,如果學習一定次數后效果不好,再增加隱層神經元,一直達到比較合理的隱層神經元數為止,經過反復多次試驗隱含層神經元數最終確定為15,可以達到逼近要求。
圖1 不同SPREAD值對逼近結果的影響
初始權值對BPNN的收斂程度和訓練時間影響很大。文中在建立LM?BPNN時,輸入值在加權處理后盡可能接近零,這樣可以保證初始權值的調整發生在S型傳遞函數的斜率最陡處。文中在建立幾種數值優化BP神經網絡時,為了兼顧系統穩定性和具有較快的收斂速度,學習率選取為0.1。
4.2 GRNN和BPNN對訓練樣本集的逼近能力測試
采樣頻率取為0.4,即在[x∈[-10,10]]區間內等間距選取51個點作為訓練樣本集,對應點的函數值作為目標樣本集。GRNN和BPNN對訓練樣本點的逼近誤差如圖2所示,可以看出,兩種網絡對于訓練樣本的逼近結果的相對誤差均達到預先設定的精度要求,GRNN幾乎在所有的訓練樣本點的逼近結果的相對誤差都接近于為0,只有在個別訓練樣本的逼近結果的絕對誤差略有增大,最大相對誤差不超過-2.413e-6,但仍遠小于BPNN在對應點處的相對誤差;相比之下,BPNN在很多訓練樣本點的逼近結果的相對誤差都顯著增大,最大相對誤差為-0.113,逼近精度遠低于GRNN。
4.3 GRNN和BPNN逼近性能的泛化能力測試
為了檢驗所建立的GRNN和BPNN的泛化能力,將采樣頻率取為0.8,即在[x∈[-10,10]]區間內等間距選取25個非訓練樣本點作為測試點集。GRNN和BPNN對非訓練樣本點的逼近誤差如圖3所示,可以看出,GRNN對測試點集幾乎達到了完全逼近,只在幾個測試點有較小誤差,但最大相對誤差不超過2.612e-6;相比之下,BPNN有較大誤差,且誤差波動較大,BPNN在較小和較大的非訓練樣本點的逼近相對誤差顯著增大,其最大相對誤差不超過0.08。由此可以得出結論,GRNN對測試點集的逼近精度明顯高于BPNN且具有較強的泛化能力。
圖2 GRNN和BPNN對訓練樣本點的逼近誤差
圖3 GRNN和BPNN對非訓練樣本點的逼近誤差
4.4 GRNN和RBFNN的整體逼近結果對比
在樣本數相同且精度要求相等的條件下,利用作待逼近函數圖像時的采樣頻率產生樣本,分別用GRNN和BPNN對這些樣本進行仿真,兩種網絡對待逼近函數的整體逼近效果如圖4所示,可以看出,GRNN在待逼近函數的取值區間范圍內幾乎做到了完全逼近,而沒有經過訓練的BPNN完全無法逼近,即使利用經過訓練后的網絡(運行25次,取效果最好的1次)也在多個函數區間上仍存在逼近相對誤差大、逼近效果不理想的現象。
在樣本數和精度要求相同的條件下,GRNN和BPNN對于待逼近函數的整體逼近結果對比如表1所示。可以看出,隨著樣本集數目的不斷增大,GRNN和BPNN的收斂時間相應的在不斷增加,但總體來說,GRNN的收斂時間較BPNN的收斂時間要少很多;就兩種網絡整體逼近的均方誤差而言, GRNN的均方誤差遠遠小于BPNN的均方誤差。
表1 GRNN和BPNN整體逼近結果對比
[樣本集
數目\& GRNN收斂時 /s\& BPNN收斂時 /s\& GRNN
均方誤差\&BPNN
均方誤差\&[?]\&[?]\&[?]\&[?]\&[?]\&26\&0.036\&0.366\&2.346 6e-012\&8.565 75e-005\&33\&0.055\&0.668\&3.471 5e-012\&8.767 56e-005\&51\&0.077\&0.909\&7.986 9e-012\&9.841 37e-005\&[?]\&[?]\&[?]\&[?]\&[?]\&101\&0.091\&1.131\&8.506 0e-012\&9.995 82e-005\&]
圖4 GRNN和BPNN整體逼近結果效果圖
5 結 語
仿真結果表明, GRNN和BPNN能夠在預設精度范圍內完成非線性函數的逼近任務,文中采用LM算法對傳統BPNN進行改進可以有效提高其收斂速度和逼近精度。但LM 算法的復雜度較大,在計算過程中會產生大量的中間結果矩陣,需要較大的計算機內存空間。相比之下,GRNN 網絡在逼近能力和學習速度上較BPNN有更強的優勢,網絡最后收斂于樣本積聚較多的優化回歸面,并且在樣本數據較少以及存在不穩定數據時,逼近效果也較好。GRNN對于非線性函數的逼近精度遠遠高于BPNN,兩者不在同一數量級,GRNN基本上和待逼近函數完全吻合,在整體逼近上也明顯優于BPNN,而BPNN則存在較大誤差,且GRNN能夠自動調整網絡結構,設計起來非常方便,而且最大限度地降低了人為主觀因素對逼近結果的影響,所以在中小型網絡中應優先采用GRNN進行逼近。
參考文獻
[1] 黃忠明,吳志紅,劉全喜.幾種用于非線性函數逼近的神經網絡方法研究[J].兵工自動化,2009,28(10):88?92.
[2] 丁碩,巫慶輝.基于改進BP神經網絡的函數逼近性能對比研究[J].計算機與現代化,2012(11):10?13.
[3] DING Shuo, WU Qing?hui. A Matlab?based Study on Approximation Performances of Improved Algorithms of Typical BP Neural Networks [J]. Applied Mechanics and Materials, 2013, 313?314: 1353?1356.
[4] DING Shuo, CHANG Xiao?heng. A Matlab?based Study on the Realization and Approximation Performance of RBF Neural Networks[J]. Applied Mechanics and Materials, 2013, 325?326: 1746?1749.
[5] DING Shuo, CHANG Xiao?heng, WU Qing?hui. Approximation Performance of BP Neural Networks Improved by Heuristic Approach[J]. Applied Mechanics and Materials, 2013, 411?414: 1952?1955.
[6] 馬東宇.基于Gaussian型RBF神經網絡的函數逼近與應用[D].長沙:中南大學,2011.
[7] 智會強,牛坤,田亮,等.BP網絡和RBF網絡在函數逼近領域內的比較研究[J].科技通報,2005,21(2):193?197.
[8] 曾德惠.基于Matlab實現函數逼近[J].現代電子技術,2009,32(8):141?143.
[9] 丁碩,常曉恒.Gaussian型RBF神經網絡的函數逼近仿真研究[J].河南科學,2013,31(9):1383?1386.
[10] 劉永,張立毅.BP和RBF神經網絡的實現及其性能比較[J].電子測量技術,2007,30(4):77?80.
4.3 GRNN和BPNN逼近性能的泛化能力測試
為了檢驗所建立的GRNN和BPNN的泛化能力,將采樣頻率取為0.8,即在[x∈[-10,10]]區間內等間距選取25個非訓練樣本點作為測試點集。GRNN和BPNN對非訓練樣本點的逼近誤差如圖3所示,可以看出,GRNN對測試點集幾乎達到了完全逼近,只在幾個測試點有較小誤差,但最大相對誤差不超過2.612e-6;相比之下,BPNN有較大誤差,且誤差波動較大,BPNN在較小和較大的非訓練樣本點的逼近相對誤差顯著增大,其最大相對誤差不超過0.08。由此可以得出結論,GRNN對測試點集的逼近精度明顯高于BPNN且具有較強的泛化能力。
圖2 GRNN和BPNN對訓練樣本點的逼近誤差
圖3 GRNN和BPNN對非訓練樣本點的逼近誤差
4.4 GRNN和RBFNN的整體逼近結果對比
在樣本數相同且精度要求相等的條件下,利用作待逼近函數圖像時的采樣頻率產生樣本,分別用GRNN和BPNN對這些樣本進行仿真,兩種網絡對待逼近函數的整體逼近效果如圖4所示,可以看出,GRNN在待逼近函數的取值區間范圍內幾乎做到了完全逼近,而沒有經過訓練的BPNN完全無法逼近,即使利用經過訓練后的網絡(運行25次,取效果最好的1次)也在多個函數區間上仍存在逼近相對誤差大、逼近效果不理想的現象。
在樣本數和精度要求相同的條件下,GRNN和BPNN對于待逼近函數的整體逼近結果對比如表1所示。可以看出,隨著樣本集數目的不斷增大,GRNN和BPNN的收斂時間相應的在不斷增加,但總體來說,GRNN的收斂時間較BPNN的收斂時間要少很多;就兩種網絡整體逼近的均方誤差而言, GRNN的均方誤差遠遠小于BPNN的均方誤差。
表1 GRNN和BPNN整體逼近結果對比
[樣本集
數目\& GRNN收斂時 /s\& BPNN收斂時 /s\& GRNN
均方誤差\&BPNN
均方誤差\&[?]\&[?]\&[?]\&[?]\&[?]\&26\&0.036\&0.366\&2.346 6e-012\&8.565 75e-005\&33\&0.055\&0.668\&3.471 5e-012\&8.767 56e-005\&51\&0.077\&0.909\&7.986 9e-012\&9.841 37e-005\&[?]\&[?]\&[?]\&[?]\&[?]\&101\&0.091\&1.131\&8.506 0e-012\&9.995 82e-005\&]
圖4 GRNN和BPNN整體逼近結果效果圖
5 結 語
仿真結果表明, GRNN和BPNN能夠在預設精度范圍內完成非線性函數的逼近任務,文中采用LM算法對傳統BPNN進行改進可以有效提高其收斂速度和逼近精度。但LM 算法的復雜度較大,在計算過程中會產生大量的中間結果矩陣,需要較大的計算機內存空間。相比之下,GRNN 網絡在逼近能力和學習速度上較BPNN有更強的優勢,網絡最后收斂于樣本積聚較多的優化回歸面,并且在樣本數據較少以及存在不穩定數據時,逼近效果也較好。GRNN對于非線性函數的逼近精度遠遠高于BPNN,兩者不在同一數量級,GRNN基本上和待逼近函數完全吻合,在整體逼近上也明顯優于BPNN,而BPNN則存在較大誤差,且GRNN能夠自動調整網絡結構,設計起來非常方便,而且最大限度地降低了人為主觀因素對逼近結果的影響,所以在中小型網絡中應優先采用GRNN進行逼近。
參考文獻
[1] 黃忠明,吳志紅,劉全喜.幾種用于非線性函數逼近的神經網絡方法研究[J].兵工自動化,2009,28(10):88?92.
[2] 丁碩,巫慶輝.基于改進BP神經網絡的函數逼近性能對比研究[J].計算機與現代化,2012(11):10?13.
[3] DING Shuo, WU Qing?hui. A Matlab?based Study on Approximation Performances of Improved Algorithms of Typical BP Neural Networks [J]. Applied Mechanics and Materials, 2013, 313?314: 1353?1356.
[4] DING Shuo, CHANG Xiao?heng. A Matlab?based Study on the Realization and Approximation Performance of RBF Neural Networks[J]. Applied Mechanics and Materials, 2013, 325?326: 1746?1749.
[5] DING Shuo, CHANG Xiao?heng, WU Qing?hui. Approximation Performance of BP Neural Networks Improved by Heuristic Approach[J]. Applied Mechanics and Materials, 2013, 411?414: 1952?1955.
[6] 馬東宇.基于Gaussian型RBF神經網絡的函數逼近與應用[D].長沙:中南大學,2011.
[7] 智會強,牛坤,田亮,等.BP網絡和RBF網絡在函數逼近領域內的比較研究[J].科技通報,2005,21(2):193?197.
[8] 曾德惠.基于Matlab實現函數逼近[J].現代電子技術,2009,32(8):141?143.
[9] 丁碩,常曉恒.Gaussian型RBF神經網絡的函數逼近仿真研究[J].河南科學,2013,31(9):1383?1386.
[10] 劉永,張立毅.BP和RBF神經網絡的實現及其性能比較[J].電子測量技術,2007,30(4):77?80.
4.3 GRNN和BPNN逼近性能的泛化能力測試
為了檢驗所建立的GRNN和BPNN的泛化能力,將采樣頻率取為0.8,即在[x∈[-10,10]]區間內等間距選取25個非訓練樣本點作為測試點集。GRNN和BPNN對非訓練樣本點的逼近誤差如圖3所示,可以看出,GRNN對測試點集幾乎達到了完全逼近,只在幾個測試點有較小誤差,但最大相對誤差不超過2.612e-6;相比之下,BPNN有較大誤差,且誤差波動較大,BPNN在較小和較大的非訓練樣本點的逼近相對誤差顯著增大,其最大相對誤差不超過0.08。由此可以得出結論,GRNN對測試點集的逼近精度明顯高于BPNN且具有較強的泛化能力。
圖2 GRNN和BPNN對訓練樣本點的逼近誤差
圖3 GRNN和BPNN對非訓練樣本點的逼近誤差
4.4 GRNN和RBFNN的整體逼近結果對比
在樣本數相同且精度要求相等的條件下,利用作待逼近函數圖像時的采樣頻率產生樣本,分別用GRNN和BPNN對這些樣本進行仿真,兩種網絡對待逼近函數的整體逼近效果如圖4所示,可以看出,GRNN在待逼近函數的取值區間范圍內幾乎做到了完全逼近,而沒有經過訓練的BPNN完全無法逼近,即使利用經過訓練后的網絡(運行25次,取效果最好的1次)也在多個函數區間上仍存在逼近相對誤差大、逼近效果不理想的現象。
在樣本數和精度要求相同的條件下,GRNN和BPNN對于待逼近函數的整體逼近結果對比如表1所示。可以看出,隨著樣本集數目的不斷增大,GRNN和BPNN的收斂時間相應的在不斷增加,但總體來說,GRNN的收斂時間較BPNN的收斂時間要少很多;就兩種網絡整體逼近的均方誤差而言, GRNN的均方誤差遠遠小于BPNN的均方誤差。
表1 GRNN和BPNN整體逼近結果對比
[樣本集
數目\& GRNN收斂時 /s\& BPNN收斂時 /s\& GRNN
均方誤差\&BPNN
均方誤差\&[?]\&[?]\&[?]\&[?]\&[?]\&26\&0.036\&0.366\&2.346 6e-012\&8.565 75e-005\&33\&0.055\&0.668\&3.471 5e-012\&8.767 56e-005\&51\&0.077\&0.909\&7.986 9e-012\&9.841 37e-005\&[?]\&[?]\&[?]\&[?]\&[?]\&101\&0.091\&1.131\&8.506 0e-012\&9.995 82e-005\&]
圖4 GRNN和BPNN整體逼近結果效果圖
5 結 語
仿真結果表明, GRNN和BPNN能夠在預設精度范圍內完成非線性函數的逼近任務,文中采用LM算法對傳統BPNN進行改進可以有效提高其收斂速度和逼近精度。但LM 算法的復雜度較大,在計算過程中會產生大量的中間結果矩陣,需要較大的計算機內存空間。相比之下,GRNN 網絡在逼近能力和學習速度上較BPNN有更強的優勢,網絡最后收斂于樣本積聚較多的優化回歸面,并且在樣本數據較少以及存在不穩定數據時,逼近效果也較好。GRNN對于非線性函數的逼近精度遠遠高于BPNN,兩者不在同一數量級,GRNN基本上和待逼近函數完全吻合,在整體逼近上也明顯優于BPNN,而BPNN則存在較大誤差,且GRNN能夠自動調整網絡結構,設計起來非常方便,而且最大限度地降低了人為主觀因素對逼近結果的影響,所以在中小型網絡中應優先采用GRNN進行逼近。
參考文獻
[1] 黃忠明,吳志紅,劉全喜.幾種用于非線性函數逼近的神經網絡方法研究[J].兵工自動化,2009,28(10):88?92.
[2] 丁碩,巫慶輝.基于改進BP神經網絡的函數逼近性能對比研究[J].計算機與現代化,2012(11):10?13.
[3] DING Shuo, WU Qing?hui. A Matlab?based Study on Approximation Performances of Improved Algorithms of Typical BP Neural Networks [J]. Applied Mechanics and Materials, 2013, 313?314: 1353?1356.
[4] DING Shuo, CHANG Xiao?heng. A Matlab?based Study on the Realization and Approximation Performance of RBF Neural Networks[J]. Applied Mechanics and Materials, 2013, 325?326: 1746?1749.
[5] DING Shuo, CHANG Xiao?heng, WU Qing?hui. Approximation Performance of BP Neural Networks Improved by Heuristic Approach[J]. Applied Mechanics and Materials, 2013, 411?414: 1952?1955.
[6] 馬東宇.基于Gaussian型RBF神經網絡的函數逼近與應用[D].長沙:中南大學,2011.
[7] 智會強,牛坤,田亮,等.BP網絡和RBF網絡在函數逼近領域內的比較研究[J].科技通報,2005,21(2):193?197.
[8] 曾德惠.基于Matlab實現函數逼近[J].現代電子技術,2009,32(8):141?143.
[9] 丁碩,常曉恒.Gaussian型RBF神經網絡的函數逼近仿真研究[J].河南科學,2013,31(9):1383?1386.
[10] 劉永,張立毅.BP和RBF神經網絡的實現及其性能比較[J].電子測量技術,2007,30(4):77?80.