999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于數據并行的過程神經網絡訓練算法

2011-01-01 00:00:00許少華,劉丹丹
智能計算機與應用 2011年5期

摘要:針對過程神經網絡時空聚合運算機制復雜、學習周期長的問題,提出了一種基于數據并行的過程神經網絡訓練算法。該方法基于梯度下降的批處理訓練方式,應用MPI并行模式進行算法設計,在局域網內實現多臺計算機的機群并行計算。文中給出了基于數據并行的過程神經網絡訓練算法和實現機制,對不同規模的訓練函數樣本集和進程數進行了對比實驗,并對加速比、并行效率等算法性質進行了分析。實驗結果表明,根據網絡和樣本規模適當選取并行粒度,算法可較大提高過程神經網絡的訓練效率。

關鍵詞:

中圖分類號: TP183文獻標識碼:A文章編號:2095-2163(2011)03-0040-03

A Training Algorithm of Process Neural Networks based on Data Parallel

XU Shaohua, LIU Dandan

Abstract: Aiming at the problems in the complex mechanism of the space-time aggregation operation and long training time of process neural networks, a training algorithm based on data parallel is proposed. Based on batch process of process neural network by the standard gradient descent, the algorithm uses the parallel model of MPI to realize parallel computing of cluster which is composed of multiple computers in local area network. The paper shows a training algorithm and the realizing mechanism of process neural networks based on data parallel. The comparison experiments are carried out under different sizes of training function sample set and different number of processes, and analyzes algorithm properties such as speedup, parallel efficiency. The results show that the algorithm can improve the training efficiency of process neural networks, when the parallel granularity is appropriate.

Key words:

0引言

過程神經網絡(Process Neural Network, PNN)是一種新型的動態人工神經網絡模型[1,2],由于具有對非線性動態系統直接的辨識建模能力,以及對樣本過程模態特征的自適應學習性質,將PNN應用于非線性系統的信息處理在機制上具有較好的適應性[3-5]。PNN的聚合運算機制復雜,其訓練的計算復雜度相比非時變傳統神經網絡成倍數增加[6]。盡管多年來許多研究人員對神經網絡模型和算法進行了改進和優化以提高訓練速度,并在某些方面取得了較好的效果[7-10],但還普遍存在訓練速度慢、易陷入局部極小等缺陷,這些改進算法仍不能滿足實際應用的要求。

并行計算是提高大規模計算問題效率的有效方法,對于人工神經網絡訓練,目前也有一些學者建立了若干并行學習模式,并取得了較好的實驗結果[11-13]。筆者根據PNN所具有的本質并行機制和信息處理邏輯,提出了一種基于數據并行的PNN訓練算法。在算法設計中,將訓練樣本按照模態特征分布劃分給不同的處理機,各處理機對相同的網絡模型和不同子樣本集進行訓練,通過消息機制偵測各計算節點的訓練結果并更新網絡參數。文中建立了一種基于梯度下降的PNN批處理訓練算法,對不同規模的訓練樣本集和進程數進行了對比實驗,并對并行算法性質和計算復雜度進行了分析。

1PNN模型和訓練算法

1.1過程神經元模型

過程神經元的拓撲結構和時空聚合運算機制如圖1所示。

圖1中,x1(t),x2(t),...,xn(t)為過程神經元的時變輸入函數;w1(t),w2(t),...,wn(t)為相應的連接權函數,∑為空間聚合算子, ∫為時間累積算子, f為激勵函數。

過程神經元輸入與輸出之間的映射關系為:

y=fw(t)x(t)dt-θ (1)

其中,[0,T]為系統過程輸入區間,θ為閾值。

1.2PNN模型

PNN是由若干過程神經元和其它類型的神經元按照一定結構關系組成的網絡模型。一種多輸入/單輸出三層PNN如圖2所示。

圖2中, xi(t)(i=1,2,...,n)為網絡輸入函數, wij(t)(i=1,2,...,n j=1,2,...,m)為網絡輸入層與隱層之間的連接權函數, g為輸出層神經元激勵函數,vj(j=1,2,...,m)為隱層節點到輸出節點的連接權,y為網絡輸出。

由圖2,PNN輸入和輸出之間的映射關系為:

y=g(v f((w(t)x(t))dt-θ)-θ) (2)

式(2)中,θ為隱層節點的激勵閾值,θ為輸出神經元閾值。

1.3基于批處理的學習算法

目前,PNN的訓練主要采用基于函數基展開、基于數值積分等學習算法[14,15]。本文討論主要針對基于函數基展開的學習算法進行研究。

考慮由K個樣本(X1(t),d1),...,(XK(t),dK)組成的訓練集。由式(2),網絡誤差函數可定義為:

E=(y-d)=

v fw(t)x(t)dt-θ-d

其中, Xk(t)=(x1k(t),x2k(t),...,xnk(t)),dk為第k個樣本的期望輸出。

采用PNN函數正交基展開的訓練算法[8],則基于批處理模式的網絡權值學習規則為:

vj=vj+α∑△vj(4)

wij=wij+β∑△wij (5)

θj=θj+γ∑△θj(6)

其中,α,β,γ為學習率;∑△vj,∑△wij,∑△θj為 n樣本累積梯度之和。

令ukj=w(t)x(t)dt-θ;則

△vj=-=-2v f(ukj-d)f(ukj) (7)

△wij(t)=-=

-2vf(ukj-d)f'(ukj)xi(t)dt(8)

△θ(t)=-=2v f(ukj-d)f'(ukj)(9)

若取f(u)=,則f'(u)=f(u)(1-f(u))。

2數據并行算法設計

2.1算法原理

筆者提出的基于訓練集樣本劃分的PNN并行訓練算法主要采用Master/Slave 并行模式,同時結合PNN的結構特征和聚合運算機制進行設計。并行模式分為主計算節點(主控節點)和從計算節點。主計算節點依照1.3節建立的算法進行網絡權值更改計算,再將新的網絡模型發送到各從節點,各從節點對于不同的數據執行相同網絡模型下的運算,并把參數調整信息傳給主進程,由主進程匯集計算結果并進行網絡性質參數調整。不斷重復這種迭代過程,直至滿足訓練終止條件。

2.2算法性質分析

過程神經網絡時空聚合運算機制復雜、計算復雜度高。采用基于L項函數正交基展開的學習算法,在具有相同輸入/輸出節點的情況下,過程神經元的計算復雜度是BP神經元的L倍;若PNN有m個過程神經元隱層,則PNN的計算復雜度是BP網絡的m×L倍;而主節點進行網絡參數調整時,計算復雜度是BP神經網絡的n×m×k×L倍(k為網絡輸出節點個數),即PNN并行算法在主從節點處的時間開銷都較大增加,提高了算法的計算/通信比。

考慮各個進程的計算負載平衡,采用如下策略。基于相似性原則,利用切比雪夫泛數對訓練集樣本進行聚類,使每一類樣本具有相近的模態特征。在初始分類基礎上,通過分裂、相似合并及調整分類數等運算,使每類近似包含從節點個數倍數的樣本數。樣本分割時,各子樣本集從各個類中隨機選取個數相同或近似相等的樣本,構成訓練子集。由于不同樣本子集的分布特征近似相同,從而實現均衡計算負載分配。同時,采用批處理的訓練模式,也減少了處理器之間的通信次數。

2.3算法描述

設總訓練樣本集中共有K個樣本,并行計算環境有M臺處理器,其中一臺作為主計算節點,其他處理器作為從計算節點。具體算法如下:

(1)初始化MPI運行環境;

(2)如果當前進程為主進程,則獲取網絡學習參數并初始化網絡權值,發送給各個從進程;

(3)各從進程建立網絡結構并根據所接受的主進程發出的網絡權值,初始化網絡,各從進程的網絡結構均相同;

(4)各個從進程按照過程神經網絡批處理算法訓練一次該從進程中的所有的樣本,并將梯度累加值與從進程的當前誤差發送給主進程,在此期間各個從進程同步進行計算互不通信;

(5)主進程將從各個從進程中接受到的信息梯度再次累加,得到總樣本的累積梯度,這個梯度反映的是總體樣本誤差的下降趨勢,比較各進程的誤差精度,并取誤差精度最大值與期望誤差限比較,若小于期望誤差或達到預設次數,則停止計算,否則轉(6);

(6)主進程將累積梯度分發給各個從進程;

(7)各個從進程按照接受到的梯度修改權值,返回(6)。

3仿真實驗

考慮如下時變函數樣本集:asin(b1π(t-c)),asin(b2π

(t-c)),asin(b3π(t-c))。其中,t∈[0,2π],x∈[-1,+1],a,b1,b2,b3,c,x為參數。當各參數取不同的值時,生成不同類型和規模的樣本集。實驗中,各參數采用如下方法賦值:a從1開始以0.2為步長遞增,b1從2開始以1為步長遞增,b2是在b1的基礎上加0.1,b3是在b1的基礎上加0.2,c是從0.5開始以0.1為步長遞增;x在[-1,1]區間直接按樣本數進行等分計算,如樣本為1 000,那么x在[-1,1]之間等分999份,從-1開始按步長遞增。

PNN采用三層結構,其中3個輸入層節點,10個過程神經元隱層節點,1個神經元輸出層節點。在不同樣本規模及不同進程數下進行實驗,訓練時間、加速比、計算效率等評價指標的對比結果如表1所示。

從實驗結果可以看出,隨著問題規模的增大,并行算法比串行算法訓練時間有明顯的降低;但當節點規模過大時,訓練的時間反而增大,同時隨著進程數的增加,并行過程的效率在減小。其主要原因是在適當的并行粒度下,增加進程數可以使得各個子進程分擔樣本集中的訓練任務,從而降低訓練時間;但是當進程數增加到一定數量后,通信開銷卻隨著進程數的增加而不斷增加。這主要是因為在機群環境下,一次通信的開銷要遠遠大于一次計算的開銷,盡管節點增多使得各從節點分得的計算量相應減少,但節點間的通訊時間會明顯增加,因此,應適當選擇并行粒度。 4結束語

針對過程神經網絡的學習問題,建立了一種基于數據并行的訓練算法。在局域網內多臺計算機所組成的機群環境下,搭建了MPI并行環境。綜合考慮計算負載平衡、計算/通信比、計算效率等算法性質,文中采用了基于梯度下降批處理的訓練模式,以及考慮訓練樣本模態變化特征的子樣本集劃分策略,仿真實驗結果表明,該方法較大提高了算法效率。

參考文獻:

[ 1 ] 何新貴,梁久禎. 過程神經元網絡的若干理論問題[J]. 中國工

程科學,2000,2(12):40-44.

[ 2 ] 何新貴,梁久禎,許少華. 過程神經元網絡的訓練及其應用[J].

中國工程科學,2001,3(4):31-35.

[ 3 ] MA Shuai, TANG Shiwei, YANG Dongqing, et al. Mining ma-

ximal moving sequential patterns in mobile environment[J]. Acta

Scientiarum Naturalium Universitatis Pekinensis, 2004(3):379

-387.

[ 4 ] 丁剛,邊旭,侯立國,等. 基于對傳過程神經網絡的航空發動機

轉子仿真故障診斷研究[J]. 航空精密制造技術,2008(5).

[ 5 ] 許少華,何新貴. 多聚合過程神經元網絡及其學習算法研究[J].

計算機學報,2007,30(1):48-55.

[ 6 ] 許少華. 過程神經元網絡理論模型及算法研究[D]. 北京航空航

天大學博士論文,2004-07.

[ 7 ] MAGOULAS G D,VRAHATIS M N,ANDEROULAKIS G S. E-ffective back-propagation training with variable stepsize[J]. Ne-

ural Networks, 1997,10(1):69-82.

[ 8 ] YU Xiaohu, CHEN Guoan. Efficient back-propagation learning

using optimal learning rate and momentum[J]. Neural Network-

s,1997,10(3):517-527.

[ 9 ] LEONARD J A,KRAMER M A. Improvement of the back-pr-

opagation algorithm for training neural networks[J]. Computers &

Chemical Engineering, 1990, 14(1):337.

[10] 陳玉芳,雷霖. 提高BP網絡收斂速率的又一種算法[J]. 計算機

仿真,2004,21(11):74-79.

[11] 張雷,陳躍輝,楊波. 基于并行PSO的BP神經網絡優化算法研

究[J]. 計算機科學,2005,32(8):308-311.

[12] 許廷發, 宋建中, 喬雙. 基于多CPU并行結構的神經網絡集成

算法研究[J]. 光電子#8226;激光,2003,14(11):1183-1185.

[13] 吳一帆 ,趙平,李思昆. 基于神經網絡的并行布局算法[J]. 中南

工業大學學報,,2000,31(3):275-278.

[14] 許少華,何新貴. 過程神經網絡一種基于函數正交基展開的學

習算法[J]. 計算機學報,2004,27(5):645-649.

[15] 葛利. 一種基于混合遺傳算法學習的過程神經網絡[J]. 哈爾濱

工業大學學報,2005,37(7):986-988.

[16] 李敏生,劉斌. BP學習算法的改進與應用[J]. 北京理工大學學

報,1999,19(6):721-724.

主站蜘蛛池模板: 国产在线97| 欧美19综合中文字幕| 国产裸舞福利在线视频合集| 激情综合激情| 亚洲第一香蕉视频| 欧美视频在线不卡| 亚洲天天更新| 国产成人a在线观看视频| 久久精品日日躁夜夜躁欧美| 久久国语对白| 伊在人亞洲香蕉精品區| 色天天综合| 午夜福利网址| 国产91特黄特色A级毛片| 久久免费视频6| 欧美一区二区三区国产精品| 久草视频中文| 91精品亚洲| 色综合中文综合网| 性视频久久| 一级香蕉人体视频| 欧美 国产 人人视频| 天天综合色天天综合网| 国产97视频在线观看| 好久久免费视频高清| 久青草国产高清在线视频| 久久综合亚洲鲁鲁九月天| 国产极品嫩模在线观看91| 色综合手机在线| 狠狠色婷婷丁香综合久久韩国 | 国产精品55夜色66夜色| 亚洲欧美在线看片AI| 欧美日韩精品在线播放| 制服丝袜在线视频香蕉| 日韩无码精品人妻| 国产高清在线丝袜精品一区| 无码一区二区波多野结衣播放搜索| 曰韩人妻一区二区三区| 无码精品国产VA在线观看DVD| 国产地址二永久伊甸园| 九色在线观看视频| 亚洲无码日韩一区| 67194亚洲无码| 啊嗯不日本网站| 日韩高清中文字幕| 天堂网亚洲系列亚洲系列| 成AV人片一区二区三区久久| 国产亚洲视频免费播放| 欧美翘臀一区二区三区| 成人一级黄色毛片| 国产亚洲现在一区二区中文| 91精品专区国产盗摄| 亚洲一欧洲中文字幕在线| 国产在线无码一区二区三区| 日本午夜精品一本在线观看| 成人午夜免费视频| 免费看一级毛片波多结衣| 日韩在线观看网站| 国产精品黄色片| 91国内在线观看| 亚洲成人网在线播放| 国产无码在线调教| 国产主播一区二区三区| 日韩二区三区| 久久精品66| 色婷婷久久| AV不卡国产在线观看| 91麻豆精品国产高清在线| 任我操在线视频| 四虎永久免费地址在线网站 | 91小视频在线| AV不卡在线永久免费观看| 午夜视频日本| 国产夜色视频| 香蕉久久国产超碰青草| 亚洲天堂免费观看| 久久综合亚洲色一区二区三区| 亚洲一级毛片免费观看| 香蕉久久国产超碰青草| 欧美午夜小视频| 国产成人综合亚洲网址| 男女男精品视频|