摘要:在BP神經網絡現有算法的基礎上提出一種新的算法,該算法的基本原理是任選一組自由權,通過解線性方程組求得隱層權,將選定的自由權與求得的權合在一起,就得到所需的學習權值。該算法不存在傳統方法的局部極小及收斂速度慢的問題。
關鍵詞:神經網絡;MATALB仿真;新BP算法
中圖分類號:TP183 文獻標識碼:A 文章編號:1009-3044(2009)05-1197-02
BP Artificial Neural Network's New Algorithm
SONG Shao-yun, ZHONG-tao
(Yuxi Normal University, School of Information Technology and Engineering, Yuxi 653100, China)
Abstract: The BP neural networks algorithm presented in this paper is based on the existing algorithm, which basic principle is choosing a freedom weight, by solving the linear equations to achieve hidden layer, combination freedom weight, then obtain weight is necessary weight. This algorithm hasn't the traditional method such as the local minimum and the slower rate of convergence in BP neural networks algorithm.
Key words: neural network; MATALB simulation; new BP algorithm
1 引言
BP人工神經網絡實際上是通過梯度下降法來修正各層神經元之間的權值,使誤差不斷下降以達到期望的精度。從本質上講,這種計算過程是一種迭代過程,迭代算法一般都與初值的選擇密切相關,如初值選擇的好,則收斂速度快,如初值選擇不好,則收斂速度慢或根本不收斂。當采用梯度下降算法調整權值時,不可避免地存在陷入局部極小的問題。盡管很多文獻都報道了各種各樣的改進方法來加快收斂速度,如變學習率,加慣性項(也稱動量項)等方法。然而,由于這些方法都由于迭代及優化的基本思想,不可能從根本上解決對初值的依賴性及局部極小問題。
2 BP網絡結構及參數假設
考慮三層結構的BP網絡,如圖1所示。網絡參數假設如下:1)樣本數量:k個;2)輸入節點:n個;3)隱層神經元:v個;4)輸出層神經元:m個;5)輸入向量:xp;6)隱層加權和向量:nethp;7)隱層輸出向量:hp;8)輸出層加權和向量:netvp;10)教師向量:tp。
其中:p=1,2,3,…,k。輸入層與隱層、隱層與輸出層的權矩陣分別為: