宿玉海,彭 雷,郭勝川
(山東財(cái)經(jīng)大學(xué)金融學(xué)院,山東濟(jì)南 250014)
商業(yè)銀行的信用風(fēng)險(xiǎn)管理一直是人們關(guān)注的焦點(diǎn),在引入工程方法進(jìn)行信用風(fēng)險(xiǎn)的度量后,BP神經(jīng)網(wǎng)絡(luò)信用風(fēng)險(xiǎn)模型以其較強(qiáng)的逼近非線性函數(shù)的優(yōu)勢(shì)從眾多方法中脫穎而出,其對(duì)于歷史數(shù)據(jù)的模擬仿真和預(yù)測(cè)能力也顯示出了獨(dú)特的優(yōu)勢(shì)。但是,BP神經(jīng)網(wǎng)絡(luò)信用模型在處理較為復(fù)雜的財(cái)務(wù)數(shù)據(jù)時(shí),對(duì)于數(shù)據(jù)指標(biāo)在模型中獲得的權(quán)值沒(méi)有一個(gè)明確的標(biāo)準(zhǔn),而是特別依賴于對(duì)于歷史數(shù)據(jù)指標(biāo)的選擇,使得模型對(duì)于新樣本的考察缺乏一個(gè)有效的動(dòng)態(tài)權(quán)值變動(dòng),這就造成了模型在使用過(guò)程中的困難。
隨著B(niǎo)P神經(jīng)網(wǎng)絡(luò)信用風(fēng)險(xiǎn)管理模型應(yīng)用的增多,許多學(xué)者逐漸認(rèn)識(shí)到BP神經(jīng)網(wǎng)絡(luò)信用風(fēng)險(xiǎn)模型在處理財(cái)務(wù)數(shù)據(jù)時(shí)存在的問(wèn)題,采取一系列的措施對(duì)BP神經(jīng)網(wǎng)絡(luò)信用風(fēng)險(xiǎn)模型進(jìn)行了改進(jìn),特別是對(duì)于權(quán)值設(shè)定的改進(jìn)做了大量的工作。Back等[1]建議將遺傳算法與神經(jīng)網(wǎng)絡(luò)結(jié)合起來(lái)協(xié)同工作,但沒(méi)有實(shí)際討論引入遺傳算法后帶來(lái)的實(shí)際效果;Piramuthu等[2]采用符號(hào)特征樣本的技術(shù)處理輸入數(shù)據(jù)取得了較為明顯的效果,但是符號(hào)特征樣本技術(shù)則存在較為主觀的人為因素影響。國(guó)內(nèi)學(xué)者在引進(jìn)神經(jīng)網(wǎng)絡(luò)以后,也為神經(jīng)網(wǎng)絡(luò)模型的優(yōu)化進(jìn)行了卓有成效的努力。如許佳娜、西寶[3]采用層次分析法對(duì)神經(jīng)網(wǎng)絡(luò)模型的改進(jìn),以及郭英見(jiàn)、吳沖[4]采用DS證據(jù)理論將神經(jīng)網(wǎng)絡(luò)和SVM的輸出結(jié)果進(jìn)行的融合,都在一定程度上增強(qiáng)了神經(jīng)網(wǎng)絡(luò)模型的判別準(zhǔn)確率,但他們?cè)谏窠?jīng)網(wǎng)絡(luò)的權(quán)值修改上仍然沒(méi)有找到很好的設(shè)定規(guī)則。
可以看出,許多學(xué)者在神經(jīng)網(wǎng)絡(luò)良好的泛化能力和模式識(shí)別能力上達(dá)成了共識(shí),但對(duì)于神經(jīng)網(wǎng)絡(luò)中占有重要地位的連接權(quán)值的修正,沒(méi)有給出一個(gè)較為恰當(dāng)?shù)臉?biāo)準(zhǔn)。本文在探討改進(jìn)這一問(wèn)題時(shí),將遺傳算法與Adaboost算法分別引入到BP神經(jīng)網(wǎng)絡(luò)信用風(fēng)險(xiǎn)模型中,通過(guò)兩種模型對(duì)于相同的訓(xùn)練樣本和預(yù)測(cè)樣本的考察分析,比較兩種方法的優(yōu)劣,從而為BP神經(jīng)網(wǎng)絡(luò)信用風(fēng)險(xiǎn)模型的改進(jìn)提供一定的參考。
本文結(jié)構(gòu)安排如下:第一部分為引言;第二部分介紹BP神經(jīng)網(wǎng)絡(luò)信用風(fēng)險(xiǎn)模型并評(píng)價(jià)其缺陷;第三部分使用Adaboost算法以及遺傳算法對(duì)BP神經(jīng)網(wǎng)絡(luò)信用風(fēng)險(xiǎn)模型進(jìn)行算法尋優(yōu);第四部分則通過(guò)Matlab的模擬進(jìn)行實(shí)證分析并比較實(shí)證結(jié)果;第五部分根據(jù)實(shí)證分析的結(jié)果得出相應(yīng)的結(jié)論并探討商業(yè)銀行在應(yīng)用過(guò)程中應(yīng)注意的問(wèn)題。
在人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)中根據(jù)信息流向和網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu),可以將ANN分為前饋網(wǎng)絡(luò)和反饋網(wǎng)絡(luò)兩大類。反向傳播(Back Propagation,BP)網(wǎng)絡(luò)[5](如圖1)就是一種多層前饋神經(jīng)網(wǎng)絡(luò),采用誤差反向傳播算法(Error Back-propagation Algorithm,簡(jiǎn)稱BP算法),是目前應(yīng)用最廣泛的一種神經(jīng)網(wǎng)絡(luò)。

圖1 誤差反向傳播網(wǎng)絡(luò)結(jié)構(gòu)
BP網(wǎng)絡(luò)采用有監(jiān)督的學(xué)習(xí)方式,其學(xué)習(xí)由以下四個(gè)過(guò)程組成:輸入模式由輸入層經(jīng)隱含層向輸出層的“模式順傳播”過(guò)程;網(wǎng)絡(luò)的期望輸出與實(shí)際輸出之差的誤差信號(hào)由輸出層經(jīng)隱含層逐層修正連接權(quán)的“誤差逆?zhèn)鞑ァ边^(guò)程;由“模式順傳播”與“誤差逆?zhèn)鞑ァ钡姆磸?fù)進(jìn)行的網(wǎng)絡(luò)“記憶訓(xùn)練”過(guò)程;網(wǎng)絡(luò)趨向收斂即網(wǎng)絡(luò)的總體誤差趨向極小值的“學(xué)習(xí)收斂”過(guò)程。對(duì)三層BP網(wǎng)絡(luò),設(shè)輸入層、隱含層和輸出層結(jié)點(diǎn)個(gè)數(shù)分別為I,J,K,訓(xùn)練樣本的個(gè)數(shù)為P,網(wǎng)絡(luò)的輸入為Xp={xpi},期望輸出為T(mén)p={tpi},實(shí)際輸出為Op={opi},輸入層與隱含層的連接權(quán)為 wjt,隱含層與輸出層的連接權(quán)為 wkj,其中 p∈{1,2,…,p},i∈{1,2,…,I},k∈{1,2,…,K},激活函數(shù)為Sigmoid函數(shù)。對(duì)于一個(gè)輸入樣本,平方誤差Ep可定義為:

對(duì)于全部學(xué)習(xí)樣本,系統(tǒng)誤差則可定義為:

對(duì)于網(wǎng)絡(luò)的學(xué)習(xí)和迭代,采用優(yōu)化理論中的最速算法對(duì)網(wǎng)絡(luò)進(jìn)行學(xué)習(xí),調(diào)整連接權(quán),可使總體誤差最小,學(xué)習(xí)公式如下:

其中,η表示學(xué)習(xí)步長(zhǎng),δpk和δpj分別被表示為:

1.權(quán)值的修改方式
一般來(lái)說(shuō),權(quán)值的修改有兩種方式:一是對(duì)于每一個(gè)訓(xùn)練樣本,就調(diào)整一次權(quán)值,稱為On-line處理,另一種是輸入全部的訓(xùn)練樣本后才修改一次權(quán)值,稱為Batch處理。本文采用第二種處理方式[6]。
2.初始權(quán)值與初始輸入的確定
由于輸入初始值和初始權(quán)值對(duì)學(xué)習(xí)是否達(dá)到局部最小和能否收斂關(guān)系很大,有必要對(duì)輸入的初始值進(jìn)行歸一化處理。通過(guò)一定的處理方式將初始輸入調(diào)到較小的區(qū)間[0,1]內(nèi),初始權(quán)值是通過(guò)隨機(jī)函數(shù)生成[-0.5,0.5]之間的隨機(jī)數(shù)賦給各連接權(quán),避免由于大的輸入或權(quán)值使網(wǎng)絡(luò)陷入飽和狀態(tài)。
3.網(wǎng)絡(luò)層次的選定
網(wǎng)絡(luò)層次的增加可減少各隱含層單元總個(gè)數(shù),同時(shí)使學(xué)習(xí)過(guò)程變得更容易,但可能增加網(wǎng)絡(luò)的學(xué)習(xí)時(shí)間。本模型是用于模式分類的判別函數(shù)的神經(jīng)網(wǎng)絡(luò),因此采用三層BP網(wǎng)絡(luò)。
4.隱含層單元個(gè)數(shù)確定
對(duì)于三層網(wǎng)絡(luò),確定隱含層節(jié)點(diǎn)的主要經(jīng)驗(yàn)法則是:隱含層節(jié)點(diǎn)既不是各層中節(jié)點(diǎn)數(shù)最少的,也不是最多的;隱含層節(jié)點(diǎn)數(shù)介于輸入輸出節(jié)點(diǎn)數(shù)之和的50%-70%之間;隱層節(jié)點(diǎn)數(shù)應(yīng)小于學(xué)習(xí)樣本數(shù),若節(jié)點(diǎn)數(shù)大于樣本數(shù),則必有冗余節(jié)點(diǎn)可歸并,若節(jié)點(diǎn)數(shù)等于樣本數(shù),則網(wǎng)絡(luò)成為插值網(wǎng)絡(luò),插值網(wǎng)絡(luò)的泛化能力較差。另外,對(duì)于三層網(wǎng)絡(luò),確定隱層單元數(shù)的以下經(jīng)驗(yàn)公式可供參考[7]:
(2)n1=log2n,n為輸入層單元數(shù)。
5.權(quán)值的調(diào)整公式及學(xué)習(xí)參數(shù)的確定
采用最速下降法調(diào)整權(quán)值,對(duì)那些嚴(yán)重卷繞的非凸函數(shù)效果不佳,往往不易收斂,即使收斂也需很長(zhǎng)時(shí)間,這里采用改進(jìn)BP算法,加上慣性項(xiàng)[8],即

n+1表示第n+1次迭代,η,a分別表示學(xué)習(xí)因子和動(dòng)量因子。此法比最速下降法收斂速度快。對(duì)η,a的確定,可以采用試值法:先初始化η,a的值,再依次調(diào)整η,a到合適的值,使網(wǎng)絡(luò)以較快速度收斂,又不出現(xiàn)振蕩。利用試值法得出本模型里的η,a分別為0.90,0.70。
從以上的構(gòu)建和設(shè)計(jì)原理分析來(lái)看,BP神經(jīng)網(wǎng)絡(luò)信用風(fēng)險(xiǎn)模型在進(jìn)行權(quán)值的調(diào)整時(shí),由于缺乏有效明確的標(biāo)準(zhǔn),而只是采用既定的模式根據(jù)特定的歷史數(shù)據(jù)自動(dòng)調(diào)整,造成了模型過(guò)于依賴數(shù)據(jù)的缺點(diǎn)和判別偶然性大的缺陷,使得模型判別的誤差不能夠準(zhǔn)確的反映到模型中去從而影響到模型判別的準(zhǔn)確性。因而,改變權(quán)值的調(diào)整方式十分必要。
1.Adaboost算法
Adaboost算法是一種迭代算法,其核心思想是針對(duì)同一個(gè)訓(xùn)練集訓(xùn)練不同的分類器(弱分類器),然后把這些弱分類器集合起來(lái),構(gòu)成一個(gè)更強(qiáng)的最終分類器(強(qiáng)分類器)。其主要思想為:首先給出弱學(xué)習(xí)算法和樣本空間(x,y),從樣本空間中找出m組訓(xùn)練數(shù)據(jù),每組數(shù)據(jù)的權(quán)重都為1/m。然后使用弱學(xué)習(xí)算法迭代運(yùn)算T次,每次運(yùn)算后都按照分類結(jié)果更新訓(xùn)練數(shù)據(jù)權(quán)重分布,對(duì)于分類誤差較大的訓(xùn)練數(shù)據(jù)組調(diào)整并給予更大的權(quán)重,然后重新予以訓(xùn)練,直到取得較好的訓(xùn)練效果。弱分類器訓(xùn)練后會(huì)得到一系列分類函數(shù)序列f1,f2,…,fT,且每個(gè)分類函數(shù)都有一個(gè)權(quán)重,分類越好的函數(shù),對(duì)應(yīng)的權(quán)重就越大。T次迭代以后,最終的強(qiáng)分類器F由各個(gè)弱分類器加權(quán)得到。BP-Adaboost模型把BP神經(jīng)網(wǎng)絡(luò)作為弱分類器,反復(fù)訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)輸出,通過(guò)Adaboost算法把得到的多個(gè)BP神經(jīng)網(wǎng)絡(luò)弱分類器組成一個(gè)強(qiáng)分類器。
2.Adaboost算法步驟設(shè)計(jì)
(1)數(shù)據(jù)選擇和網(wǎng)絡(luò)初始化。從樣本空間中隨機(jī)選擇m組訓(xùn)練數(shù)據(jù),初始化測(cè)試數(shù)據(jù)的分布權(quán)值為Di(i)=1/m。
(2)弱分類器預(yù)測(cè)。訓(xùn)練第t個(gè)弱分類器時(shí),使用訓(xùn)練數(shù)據(jù)訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)并且預(yù)測(cè)訓(xùn)練數(shù)據(jù)輸出,得到預(yù)測(cè)序列g(shù)(t)的預(yù)測(cè)誤差和ei,誤差和et的計(jì)算公式為:

其中,g(t)為預(yù)測(cè)分類結(jié)果;y為期望分類結(jié)果。
(3)計(jì)算預(yù)測(cè)序列權(quán)重。根據(jù)預(yù)測(cè)序列g(shù)(t)的預(yù)測(cè)誤差et計(jì)算序列的權(quán)重at,權(quán)重計(jì)算公式為:

(4)測(cè)試數(shù)據(jù)權(quán)重調(diào)整。根據(jù)預(yù)測(cè)序列權(quán)重at調(diào)整下一輪訓(xùn)練樣本的權(quán)重,調(diào)整式為:

式中,B是歸一化因子,目的是在權(quán)重比例不變的情況下使分布權(quán)值和為1。
(5)強(qiáng)分類函數(shù)。訓(xùn)練T輪后得到T組弱分類函數(shù)f(gt,at),由T組弱分類函數(shù)f(gt,at)組合得到了強(qiáng)分類函數(shù):

這樣,經(jīng)過(guò)以上幾步的準(zhǔn)備,只要將篩選好的數(shù)據(jù)輸入到構(gòu)建好的系統(tǒng)當(dāng)中,經(jīng)過(guò)訓(xùn)練就可以構(gòu)建出基于Adaboost算法的BP神經(jīng)網(wǎng)絡(luò)信用風(fēng)險(xiǎn)模型。
1.遺傳算法
遺傳算法在一開(kāi)始需要實(shí)現(xiàn)從表現(xiàn)型到基因型的映射即編碼工作。初代種群產(chǎn)生之后,按照適者生存和優(yōu)勝劣汰的原理,逐代演化產(chǎn)生出越來(lái)越好的近似解,在每一代,根據(jù)問(wèn)題域中個(gè)體的適應(yīng)度大小選擇個(gè)體,并借助于自然遺傳學(xué)的遺傳算子進(jìn)行組合交叉和變異,產(chǎn)生出代表新的解集的種群。這個(gè)過(guò)程將導(dǎo)致種群像自然進(jìn)化一樣的后生代種群比前代更加適應(yīng)于環(huán)境,末代種群中的最優(yōu)個(gè)體經(jīng)過(guò)解碼,可以作為問(wèn)題近似最優(yōu)解。遺傳算法的基本操作為:
(1)選擇操作
選擇操作是從舊群體中選擇個(gè)體到新個(gè)體中,個(gè)體被選中的概率跟適應(yīng)度值有關(guān),個(gè)體適應(yīng)度值越好,被選中的概率越大。通常使用的有輪盤(pán)賭法,錦標(biāo)賽法等多種方法。
(2)交叉操作
交叉操作是從個(gè)體中選擇兩個(gè)個(gè)體,經(jīng)兩個(gè)染色體的交換組合,產(chǎn)生新優(yōu)秀個(gè)體。交叉過(guò)程為從群體中任選兩個(gè)染色體,隨機(jī)選擇一點(diǎn)或多點(diǎn)染色體位置進(jìn)行交換(如演示圖2)。

圖2 交叉操作
(3)變異操作
變異操作是指從群體中任選一個(gè)個(gè)體,選擇染色體中的一點(diǎn)進(jìn)行變異以產(chǎn)生更優(yōu)秀的個(gè)體(如演示圖3)。

圖3 變異操作
2.遺傳算法步驟設(shè)計(jì)
(1)種群初始化
個(gè)體編碼方法為實(shí)數(shù)編碼,每個(gè)個(gè)體均為一個(gè)實(shí)數(shù)串,由輸入層與隱含層連接權(quán)值、隱含層閾值、隱含層與輸入層連接權(quán)值以及輸入層閾值4部分組成。將根據(jù)數(shù)據(jù)指標(biāo)建立的網(wǎng)絡(luò)結(jié)構(gòu)確定,從而得到一個(gè)原始的BP神經(jīng)網(wǎng)絡(luò)。
(2)適應(yīng)度函數(shù)
(3)選擇操作
本文采用輪盤(pán)賭法進(jìn)行選擇操作,即基于適應(yīng)度比例的選擇策略,每個(gè)個(gè)體i被選中的概率pi為:

其中,F(xiàn)i為個(gè)體i的適應(yīng)度值,由于適應(yīng)度值越小越好,所以在對(duì)個(gè)體選擇前對(duì)適應(yīng)度值求倒數(shù);k為系數(shù),N為種群個(gè)體數(shù)。
(4)交叉操作
由于個(gè)體采用實(shí)數(shù)編碼,因而交叉操作采用實(shí)數(shù)交叉法,第個(gè)k染色體ak和第l個(gè)染色體al在j位的交叉操作方法如下:

其中,b是[0,1]之間的隨機(jī)數(shù)。
(5)變異操作
選取第i個(gè)個(gè)體的的第j個(gè)基因aij進(jìn)行變異,方法如下:

這樣,根據(jù)以上幾步的準(zhǔn)備,只要將篩選好的數(shù)據(jù)輸入到構(gòu)建好的系統(tǒng)當(dāng)中,經(jīng)過(guò)訓(xùn)練就可以構(gòu)建出經(jīng)過(guò)遺傳算法改進(jìn)的BP神經(jīng)網(wǎng)絡(luò)信用風(fēng)險(xiǎn)模型。
在選取了數(shù)據(jù)初始指標(biāo)以后,需要對(duì)數(shù)據(jù)指標(biāo)進(jìn)行歸一化處理①由 于在本文中需要使用matlab進(jìn)行評(píng)分模擬,所以需要將數(shù)據(jù)指標(biāo)轉(zhuǎn)換成0-1之間的數(shù)據(jù),從而減小模型模擬時(shí)的誤差。,將數(shù)據(jù)的取值范圍進(jìn)一步縮小。另外,由于本文選取的數(shù)據(jù)指標(biāo)均為上市公司的財(cái)務(wù)數(shù)據(jù),為了消除其中的共線性因素,需要采用主成分分析法,剔除其中的共線性因素,從而消除模型對(duì)于重復(fù)指標(biāo)的處理[9]。
本文在進(jìn)行實(shí)證研究的時(shí)候,對(duì)模型修改采取Batch處理,即將全部的樣本輸入到模型中仿真后再進(jìn)行調(diào)試;對(duì)于初始權(quán)值,采用[-0.5,0.5]之間的連接權(quán)值隨機(jī)賦予;對(duì)于網(wǎng)絡(luò)層次的選擇,本文采用單隱層模型②采用單隱層模型,可以在一定程度上減少誤差,這是本文唯一使用先驗(yàn)結(jié)論的地方;筆者之前做過(guò)大量研究,對(duì)于同樣的樣本,單一隱含層優(yōu)于雙隱層模型模型。;隱含層節(jié)點(diǎn)數(shù)應(yīng)介于輸入輸出節(jié)點(diǎn)數(shù)的50%-70%之間,經(jīng)過(guò)對(duì)于原始BP網(wǎng)絡(luò)的設(shè)計(jì),本文采用的隱含層節(jié)點(diǎn)數(shù)為13。
對(duì)于三種模型——原始BP神經(jīng)網(wǎng)絡(luò)模型、經(jīng)過(guò)Adaboost算法優(yōu)化的神經(jīng)網(wǎng)絡(luò)模型、經(jīng)過(guò)遺傳算法改進(jìn)的神經(jīng)網(wǎng)絡(luò)模型,我們從系統(tǒng)誤差和總誤判比率[3]兩個(gè)層面上進(jìn)行比較(見(jiàn)表1和圖4、5)。

表1 三種模型系統(tǒng)誤差和總誤判比率一覽表
可以看出,對(duì)三個(gè)模型進(jìn)行仿真比較時(shí),Adaboost算法和遺傳算法在一定程度上對(duì)原始的BP神經(jīng)網(wǎng)絡(luò)系統(tǒng)起到了優(yōu)化的作用:采用Adaboost算法進(jìn)行優(yōu)化后,系統(tǒng)總誤差有了較大程度的降低,這主要是因?yàn)锳daboost算法對(duì)權(quán)值的修改方式是采用即時(shí)回饋[9]的方式,能夠優(yōu)先給予起到主要作用的數(shù)據(jù)指標(biāo)賦予較大的權(quán)值,并且能夠及時(shí)減小對(duì)最終得分影響較小的指標(biāo)及時(shí)減小權(quán)值的賦予,從而對(duì)中的結(jié)果起到優(yōu)化作用;而對(duì)于經(jīng)過(guò)遺傳算法改進(jìn)的神經(jīng)網(wǎng)絡(luò)系統(tǒng),它的總誤判比率在三個(gè)模型當(dāng)中最低,這可能是由于遺傳算法對(duì)于權(quán)值采取了變異的處理方法,即對(duì)于發(fā)生預(yù)測(cè)誤差較大的樣本重新調(diào)整,與起主要作用的樣本數(shù)據(jù)權(quán)值及時(shí)的進(jìn)行互換,這在一定程度上增強(qiáng)了模型對(duì)于數(shù)據(jù)指標(biāo)的強(qiáng)調(diào)性[10]。從這個(gè)層面上理解,也就可以解釋在三個(gè)模型當(dāng)中,遺傳算法對(duì)于訓(xùn)練樣本和預(yù)測(cè)樣本的判別,兩類錯(cuò)誤發(fā)生的概率較低,從而使得總誤判比率較低;但是,由于對(duì)權(quán)值的調(diào)整采用的是近似“休克”的變異,也就增加了其系統(tǒng)總誤差變大的可能性。通過(guò)圖4可以直觀的看出兩類優(yōu)化模型在對(duì)原始BP神經(jīng)網(wǎng)絡(luò)進(jìn)行優(yōu)化的過(guò)程中的誤差判別走勢(shì)。
通過(guò)圖4可以看出,在選擇6步的訓(xùn)練步長(zhǎng)時(shí),訓(xùn)練樣本、預(yù)測(cè)樣本以及有效的均方誤差走勢(shì)能夠在較大程度上取得最終擬合的一致。但是測(cè)試樣本的均方誤差,以及訓(xùn)練樣本與有效均方誤差曲線卻在初期出現(xiàn)了一定的偏離,最后的擬合表明經(jīng)過(guò)模型的調(diào)整,在訓(xùn)練步長(zhǎng)為六時(shí),達(dá)到了最后的訓(xùn)練目標(biāo)。


在圖5中可以看出,選擇同樣的步長(zhǎng),采用遺傳算法改進(jìn)后的BP神經(jīng)網(wǎng)絡(luò)信用風(fēng)險(xiǎn)模型,只需要訓(xùn)練步長(zhǎng)為4就可以達(dá)到最終擬合的最優(yōu),這也在一定程度上表明了遺傳算法對(duì)于權(quán)值的調(diào)整可以較快的進(jìn)行徹底地改變;但是由于這種改變的過(guò)程過(guò)于劇烈,極有可能導(dǎo)致系統(tǒng)學(xué)習(xí)的崩潰而不能正確反映樣本特征[11]。
1.對(duì)于BP神經(jīng)網(wǎng)絡(luò)信用風(fēng)險(xiǎn)模型的改進(jìn)和優(yōu)化,Adaboost算法和遺傳算法都能在較大程度上提高模型判別的準(zhǔn)確率,較大的減少系統(tǒng)誤差,對(duì)于BP神經(jīng)網(wǎng)絡(luò)信用風(fēng)險(xiǎn)模型的改進(jìn)都可以提供較好的參考。
2.Adaboost算法采用的權(quán)值調(diào)整是通過(guò)不斷減少起弱作用的輸入數(shù)據(jù)的權(quán)值,這種調(diào)整較為緩和,其中發(fā)生誤判比率的概率也較小,但是模型在使用過(guò)程中模型改變的時(shí)間較長(zhǎng),如果添加到訓(xùn)練樣本中歷史數(shù)據(jù)過(guò)多,會(huì)影響模型的使用效率。
3.遺傳算法采用的權(quán)值調(diào)整是使用類似巨變式的變異,這種調(diào)整對(duì)于模型的學(xué)習(xí)能夠節(jié)省大量的時(shí)間,但卻可能造成模型過(guò)于注重權(quán)值而忽略了樣本的原始的屬性,造成判斷的失真。
根據(jù)本文以上討論的結(jié)論,商業(yè)銀行在進(jìn)行信用風(fēng)險(xiǎn)評(píng)估時(shí),需要根據(jù)各商業(yè)銀行的特點(diǎn)和擁有歷史數(shù)據(jù)的情況,在現(xiàn)有信用風(fēng)險(xiǎn)管理模型的基礎(chǔ)上結(jié)合BP神經(jīng)網(wǎng)絡(luò)信用風(fēng)險(xiǎn)模型使用:對(duì)于處理客戶數(shù)據(jù)較少,可以進(jìn)行較長(zhǎng)時(shí)間評(píng)級(jí)的商業(yè)銀行,應(yīng)該在原有BP神經(jīng)網(wǎng)絡(luò)信用風(fēng)險(xiǎn)模型的基礎(chǔ)上,采用Adaboost算法對(duì)模型內(nèi)的權(quán)值調(diào)整進(jìn)行優(yōu)化,并以此提高判別的準(zhǔn)確率;對(duì)于需要在短時(shí)間內(nèi)處理大量客戶信息的商業(yè)銀行,則應(yīng)采用遺傳算法對(duì)不適合的權(quán)值設(shè)置進(jìn)行較大的改變,以減少模型尋優(yōu)的成本,提高商業(yè)銀行信用風(fēng)險(xiǎn)管理的效率。
[1]BACK B,LAITINEN K SERE.Neural Networks and Genetic Algorithms for Bankruptcy Predictions[J].Expert Syst,1996(4):407-413.
[2]PIRAMUTHU S,H RAGHAVAN,M SHAW.Using Feature Construction to Improve the Performance of Neural Network[J].Management Science,1998(44):416 -430.
[3]徐佳娜,西寶.基于HAP-ANN模型的商業(yè)銀行信用風(fēng)險(xiǎn)評(píng)估[J].哈爾濱理工大學(xué)學(xué)報(bào),2004(6):94-95.
[4]郭英見(jiàn),吳沖.基于信息融合的商業(yè)銀行信用風(fēng)險(xiǎn)評(píng)估模型研究[J].金融研究,2009(1):95-106.
[5]ODOM M D,R SHARDA.A Neural Network for Bankruptcy Prediction,International Joint Conference on Neural Network[R].San Diego,CA,1990,163 -168.
[6]TAMK Y,M KIANG.Managerial Applications of Neural Networks,the Case of Bank Failure Predictions[J].Management Sciences,1987,38(l):926 -947.
[7]KIVILUOTO K.Predicting Bankruptcies with the Self- Organizing Map[J].Neurocomputing,1998(21):199 -201.
[8]SALCHENBERER L M,E M CINER,N A LASH.Neural Networks:A New Tool for Predicting Thrift Failures[J].Decision Sciences,1992(23):899 -916.
[9]高鐵梅.計(jì)量經(jīng)濟(jì)分析方法與建模[M].北京:清華大學(xué)出版社,2005:465-466.
[10]于立勇.商業(yè)銀行信用風(fēng)險(xiǎn)評(píng)估預(yù)測(cè)模型研究[J].管理科學(xué)學(xué)報(bào),2003(5):46-52.
[11]張德峰.MATLAB神經(jīng)網(wǎng)絡(luò)仿真與應(yīng)用[M].北京:電子工業(yè)出版社,2009:320-321.
山東財(cái)政學(xué)院學(xué)報(bào)2012年2期