999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于CNN的圖像分類中激活函數(shù)的研究

2021-01-18 03:38:06張琴
現(xiàn)代計(jì)算機(jī) 2020年32期
關(guān)鍵詞:模型

張琴

(福州職業(yè)技術(shù)學(xué)院信息技術(shù)工程系,福州 350108)

0 引言

2012年Hinton教授小組在ImageNet視覺識別競賽[1]中通過卷積神經(jīng)網(wǎng)絡(luò)(CNN)將錯(cuò)誤率從原來的25%降到了16%之后,CNN的應(yīng)用越來越廣泛,主要包括計(jì)算機(jī)視覺、自然語言處理、語音識別等領(lǐng)域[2]。激活函數(shù)作為CNN中的一個(gè)重要模塊,不僅為卷積神經(jīng)網(wǎng)絡(luò)提供了學(xué)習(xí)復(fù)雜分布所必需的非線性,而且可以有效抑制殘差衰減并提高收斂速度,這也是CNN取得成功的關(guān)鍵[3]。研究者對CNN的研究工作高度重視,但其中存在一些困難和問題仍然沒有很好的解決方法。例如,在網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)和模型訓(xùn)練方面尚未形成通用的理論,需要依靠經(jīng)驗(yàn)并花費(fèi)大量時(shí)間進(jìn)行調(diào)試,不斷探索優(yōu)化算法和最佳的參數(shù);反向傳播算法中存在“梯度消失”、“神經(jīng)元壞死”等現(xiàn)象,導(dǎo)致模型無法進(jìn)行有效的訓(xùn)練。本文通過分析各種常用激活函數(shù)的優(yōu)缺點(diǎn),結(jié)合激活函數(shù)在訓(xùn)練過程中的作用,給出激活函數(shù)在設(shè)計(jì)時(shí)需要考慮的要點(diǎn),據(jù)此設(shè)計(jì)出了一種新的非線性非飽和的激活函數(shù)SReLU,該函數(shù)兼具Softplus函數(shù)和ReLU函數(shù)的優(yōu)點(diǎn),具有較強(qiáng)的表達(dá)能力和稀疏能力[4],且收斂速度快,識別率高。

1 常見的激活函數(shù)及特征

1.1 飽和非線性激活函數(shù)

Sigmoid函數(shù)及其導(dǎo)數(shù)的圖像如圖1所示,從函數(shù)圖像可以看出該函數(shù)能夠把輸入的連續(xù)實(shí)值變換為0和1之間的輸出,即輸出恒為正值,不是以零為中心的,這個(gè)特性會導(dǎo)致后面網(wǎng)絡(luò)層的輸入也不以零為中心,從而影響收斂速度。x為0附近的值時(shí),激活函數(shù)對信號增益效果明顯,但是當(dāng)|x|的取值越來越大時(shí),σ'(x)越來越小,容易導(dǎo)致梯度消失。Tanh函數(shù)也是一種常用的S型非線性激活函數(shù),函數(shù)及其導(dǎo)數(shù)的圖像如圖2所示,它是Sigmoid函數(shù)的改進(jìn)版。Tanh函數(shù)克服了Sigmoid非0均值輸出的缺點(diǎn),收斂速度較快,但是仍然無法解決梯度彌散的問題。由于這兩個(gè)函數(shù)本身及其導(dǎo)數(shù)的計(jì)算都是指數(shù)級的,計(jì)算量相對較大。

圖1 Sigmoid函數(shù)及其導(dǎo)數(shù)

圖2 Tanh函數(shù)及其導(dǎo)數(shù)

1.2 非飽和非線性激活函數(shù)

ReLU函數(shù):σ(x)=max(0,x)

Softplus函數(shù):σ(x)=ln(ex+1)

ReLU函數(shù)及其導(dǎo)數(shù)的函數(shù)圖像如圖3所示,由圖可知ReLU函數(shù)具有分段線性性質(zhì),因此其前傳、后傳、求導(dǎo)都具有分段線性,相比于傳統(tǒng)的S型激活函數(shù),ReLU收斂速度更快。當(dāng)輸入值小于0時(shí),ReLU函數(shù)強(qiáng)制將輸出結(jié)果置為0,使訓(xùn)練后的網(wǎng)絡(luò)模型具有適度的稀疏性,降低了過擬合發(fā)生的概率,但是稀疏性使模型有效容量降低,從而產(chǎn)生“神經(jīng)元壞死”現(xiàn)象[5],導(dǎo)致模型無法學(xué)習(xí)到有效特征。Softplus是對ReLU近似光滑的一種表現(xiàn)形式,其函數(shù)圖像如圖4,它不僅可以把輸入的數(shù)據(jù)全部進(jìn)行非線性的映射,而且不會把一些有價(jià)值的信息隱藏掉,但是用Softplus函數(shù)作為激活函數(shù),收斂速度很慢。

圖3 ReLU函數(shù)及其導(dǎo)數(shù)

圖4 Softplus函數(shù)及其導(dǎo)數(shù)

2 激活函數(shù)設(shè)計(jì)方法分析

前向傳播和反向傳播是卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練的兩個(gè)主要步驟。前向傳播是指數(shù)據(jù)從低層向高層傳播,從輸出層輸出結(jié)果的過程。當(dāng)前向傳播得到的結(jié)果不符合預(yù)期的時(shí)侯,開始執(zhí)行將誤差從高層向低層傳播訓(xùn)練,推導(dǎo)參數(shù)的學(xué)習(xí)規(guī)則,迭代改變參數(shù),直到誤差損失滿足設(shè)定的精度的過程。通過對卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程進(jìn)行分析,可以更好的理解激活函數(shù)在模型訓(xùn)練中的作用,幫助我們選擇更加適合的激活函數(shù)。

(1)在前向傳播過程中,對卷積層每一種輸出的特征圖xj有:

式中Mj表示選擇輸入特征圖組合,σ是激活函數(shù),是卷積核,bj是第j種特征圖的偏置。由式(1)可知,在前向傳播過程中,激活函數(shù)對上一層卷積操作的結(jié)果進(jìn)行非線性變換,增強(qiáng)特征的表達(dá)能力。所以激活函數(shù)必須為非線性函數(shù),此外,為了模型的訓(xùn)練速度,激活函數(shù)的計(jì)算應(yīng)盡可能簡便。

(2)反向傳播的主要任務(wù)是對卷積核參數(shù)k和偏置b進(jìn)行優(yōu)化。根據(jù)BP算法,將損失函數(shù)分別對卷積核參數(shù)k和偏置b求偏導(dǎo)然后乘以學(xué)習(xí)率,可以得到參數(shù)的變化量Δk和Δb。誤差代價(jià)函數(shù)對卷積核k求偏導(dǎo):

誤差代價(jià)函數(shù)對偏置b求偏導(dǎo):

由(1)到(3)式可知,激活函數(shù)在卷積神經(jīng)網(wǎng)絡(luò)前向傳播和反向傳播中均起到巨大作用。在選擇激活函數(shù)時(shí)應(yīng)綜合考慮激活函數(shù)自身及其導(dǎo)數(shù)的特點(diǎn),具體如下:①激活函數(shù)必須為非線性函數(shù)。②激活函數(shù)自身及其導(dǎo)數(shù)的計(jì)算不可過于復(fù)雜。③為了保證網(wǎng)絡(luò)參數(shù)能正常更新,應(yīng)盡量避免選擇軟飽和激活函數(shù),即具有性質(zhì)的激活函數(shù)。④為了加快模型的收斂速度,參數(shù)的更新方向不應(yīng)該被限制。選擇一個(gè)取值即可以為正數(shù)也可以為負(fù)數(shù)的激活函數(shù),可以加快收斂,參數(shù)更新也更加靈活。

3 改進(jìn)的激活函數(shù)SReLU

改進(jìn)后的激活函數(shù)SReLU是一種非線性非飽和的激活函數(shù),兼具Softplus函數(shù)和ReLU函數(shù)的優(yōu)點(diǎn)。在大于0的部分使用ReLU激活函數(shù);為了激活負(fù)值,在小于0的部分,使用向下平移ln2個(gè)單位的Softplus激活函數(shù)。SReLU表達(dá)式為:f(x)=max(ln(1+ex)-ln2,x),函數(shù)圖像如圖5所示,SReLU激活函數(shù)保留了ReLU函數(shù)收斂快的優(yōu)勢,同時(shí)激活了負(fù)值,向前一層傳播的信息也更多,緩解了“神經(jīng)元死亡”的現(xiàn)象。

4 試驗(yàn)及結(jié)果分析

為了驗(yàn)證提出的SReLU激活函數(shù)在不同數(shù)據(jù)集中的有效性,分別在數(shù)據(jù)集MINIST和CIFA-100中使用SReLU及其他常見的激活函數(shù)進(jìn)行訓(xùn)練分析。本試驗(yàn)基于Keras深度學(xué)習(xí)框架,通過損失函數(shù)下降曲線和在訓(xùn)練集、測試集、驗(yàn)證集上的準(zhǔn)確率分析實(shí)驗(yàn)的運(yùn)行狀態(tài)。最終的實(shí)驗(yàn)結(jié)果表明:在MINIST和CIFA-100這兩個(gè)數(shù)據(jù)集中使用SReLU激活函數(shù)均能夠達(dá)到比其他常用激活函數(shù)更快的收斂速度和更高的準(zhǔn)確率。

圖5 SReLU函數(shù)

4.1 在MINIST數(shù)據(jù)集上實(shí)驗(yàn)結(jié)果及分析

MINIST數(shù)據(jù)集是一個(gè)簡單的手寫數(shù)字?jǐn)?shù)據(jù)集,該數(shù)據(jù)集包含70000張28×28像素的灰度手寫數(shù)字圖片[7]。本次針對MINIST數(shù)據(jù)集的試驗(yàn)設(shè)計(jì)的網(wǎng)絡(luò)模型結(jié)構(gòu)由2個(gè)卷積層,1個(gè)池化層,1個(gè)全連接層和一個(gè)輸出層組成。第一個(gè)卷積層通道數(shù)為32,F(xiàn)ilter大小為3×3,,卷積步長為1。第二個(gè)卷積層通道數(shù)為64,F(xiàn)ilter大小與卷積步長與第一個(gè)卷積層相同。池化層Filter大小為2×2,全連接層神經(jīng)元個(gè)數(shù)為128,輸出層使用Softmax回歸,學(xué)習(xí)率設(shè)為0.001。實(shí)驗(yàn)結(jié)果準(zhǔn)確率如表1所示,由表1可知,相比于經(jīng)典的激活函數(shù),提出的激活函數(shù)SReLU在訓(xùn)練集、測試集和驗(yàn)證集上均具有最高的精度。實(shí)驗(yàn)損失函數(shù)下降曲線如圖6所示,在整個(gè)訓(xùn)練過程中Sigmoid函數(shù)的損失率最高,ReLU函數(shù)在前1000次迭代中損失下降最快,之后SReLU函數(shù)迭代損失下降速度逐漸高于ReLU,最終SReLU函數(shù)的損失最小,說明在MINIST數(shù)據(jù)集上基于SReLU激活函數(shù)的模型分類性能最好。

表1 SReLU在MINIST數(shù)據(jù)集上的準(zhǔn)確率

圖6 SReLU在MINIST數(shù)據(jù)集上的損失率

4.2 在CIFA-100數(shù)據(jù)集上實(shí)驗(yàn)結(jié)果及分析

CIFAR數(shù)據(jù)集是一組用于普通物體識別的數(shù)據(jù)集,該數(shù)據(jù)集由來自100個(gè)分類的60000張32×32像素的彩色圖片組成,每個(gè)分類包含500個(gè)訓(xùn)練樣本和100個(gè)測試樣本[8]。本次針對CIFAR-100數(shù)據(jù)集的試驗(yàn)設(shè)計(jì)的網(wǎng)絡(luò)模型結(jié)構(gòu)由4個(gè)卷積層,2個(gè)池化層,1個(gè)全連接層和一個(gè)輸出層組成。第一、二個(gè)卷積層通道數(shù)為64,第三、四個(gè)卷積層通道數(shù)為128,四個(gè)卷積層Filter大小均為3×3,卷積步長均為1。2個(gè)池化層Filter大小均為2×2,全連接層神經(jīng)元個(gè)數(shù)為512,輸出層使用Softmax回歸,學(xué)習(xí)率設(shè)為0.001。實(shí)驗(yàn)結(jié)果準(zhǔn)確率如表2所示,由表2可知,在CIFA-100數(shù)據(jù)集上,相比于常見的激活函數(shù),提出的激活函數(shù)SReLU在訓(xùn)練集、測試集和驗(yàn)證集上均具有最高的精度。實(shí)驗(yàn)損失函數(shù)下降曲線如圖7所示,由圖可知,相比于其他激活函數(shù),SReLU函數(shù)在前2000次迭代中就達(dá)到了最快的收斂速度,最終SReLU函數(shù)的損失最小,說明在CI?FA-100數(shù)據(jù)集上基于SReLU激活函數(shù)的模型分類性能最好。

表2 SReLU在CIFA-100數(shù)據(jù)集上的準(zhǔn)確率

圖7 SReLU在CIFA-100數(shù)據(jù)集上的損失率

5 結(jié)語

激活函數(shù)是卷積神經(jīng)網(wǎng)絡(luò)模型的重要組成部分,“激活的神經(jīng)元”使卷積神經(jīng)網(wǎng)絡(luò)具備了分層的非線性特征學(xué)習(xí)能力。首先通過分析激活函數(shù)在前向傳播和反向傳播中的作用,給出了激活函數(shù)本身及其導(dǎo)數(shù)需要具備的一些特性,然后針對卷積神經(jīng)網(wǎng)絡(luò)中經(jīng)典激活函數(shù)存在“梯度消失”、“神經(jīng)元壞死”或不易收斂等缺陷,設(shè)計(jì)了一種新的非線性非飽和的激活函數(shù)SRe?LU,該函數(shù)保留了ReLU函數(shù)收斂快的優(yōu)勢,同時(shí)激活了負(fù)值,緩解了“神經(jīng)元死亡”的現(xiàn)象。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點(diǎn)
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 扒开粉嫩的小缝隙喷白浆视频| 免费无码又爽又黄又刺激网站| 日本91在线| 欧美精品亚洲二区| 日韩精品一区二区三区视频免费看| 在线五月婷婷| 亚洲网综合| 激情五月婷婷综合网| 欧美在线中文字幕| 五月激情婷婷综合| 国产v欧美v日韩v综合精品| 青青热久免费精品视频6| 国产乱人免费视频| 欧美中文字幕第一页线路一| 久久婷婷六月| 97成人在线视频| 久久精品国产亚洲麻豆| 亚洲成AV人手机在线观看网站| 国产精品久线在线观看| 中文字幕在线观看日本| 99re这里只有国产中文精品国产精品| 特级aaaaaaaaa毛片免费视频| 国产成人精品18| av一区二区三区高清久久| 亚洲天堂免费| 一级毛片基地| 一级成人a毛片免费播放| 精品国产福利在线| 亚洲色图另类| 欧美一区二区啪啪| 亚洲第一国产综合| 欧美 国产 人人视频| 在线看片国产| 亚洲无码精品在线播放| 狠狠色丁香婷婷| 免费精品一区二区h| 中文字幕第1页在线播| 九色最新网址| 在线看片免费人成视久网下载| 色偷偷男人的天堂亚洲av| 国产精品极品美女自在线| 夜夜操天天摸| 国产一级裸网站| 色综合婷婷| 久久香蕉国产线看观看精品蕉| 中文字幕佐山爱一区二区免费| 热99精品视频| 亚洲无码电影| 91毛片网| 成人无码区免费视频网站蜜臀| 亚洲国产亚洲综合在线尤物| 精品综合久久久久久97| 又爽又黄又无遮挡网站| 无码AV动漫| 欧美福利在线观看| 在线观看无码av免费不卡网站| 亚洲日本www| 日韩国产无码一区| 丁香婷婷激情网| 99国产精品国产| 亚洲欧美不卡视频| 99ri精品视频在线观看播放| 国产尤物jk自慰制服喷水| 成人字幕网视频在线观看| 成年人午夜免费视频| 国产精品2| 伊人成色综合网| 国产黑丝一区| 色婷婷电影网| 国产精品一区在线麻豆| 中国精品久久| 亚洲区第一页| 日韩成人在线网站| 三上悠亚在线精品二区| 成人另类稀缺在线观看| 国产欧美在线观看精品一区污| 国产成人永久免费视频| 欧美第一页在线| 亚洲欧洲日本在线| 欧美精品综合视频一区二区| 亚洲乱码在线视频| 国产午夜福利在线小视频|