999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

卷積神經(jīng)網(wǎng)絡(luò)中激活函數(shù)的一種改進(jìn)

2019-03-19 06:53:58劉小文郭大波

劉小文,郭大波,李 聰

(山西大學(xué) 物理電子工程學(xué)院,山西 太原 030006)

0 引 言

卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)中模仿人腦神經(jīng)網(wǎng)絡(luò)處理信息的一種學(xué)習(xí)網(wǎng)絡(luò),可以用于大型圖像處理.在生物神經(jīng)網(wǎng)絡(luò)中[1],神經(jīng)元通過樹突接收來自其他神經(jīng)元的信號(hào),各樹突接收信號(hào)的權(quán)重(突觸權(quán)值)不同,神經(jīng)元接收的信號(hào)來自于各樹突接收的信號(hào)與其權(quán)重的乘積之和.卷積神經(jīng)網(wǎng)絡(luò)采用權(quán)值共享網(wǎng)絡(luò)結(jié)構(gòu)使之更類似于生物神經(jīng)網(wǎng)絡(luò),同時(shí)模型的容量可以通過改變網(wǎng)絡(luò)的深度和廣度來調(diào)整,從而對(duì)自然圖像也具有很強(qiáng)的處理能力[2].

1 卷積神經(jīng)網(wǎng)絡(luò)和激活函數(shù)

對(duì)于卷積神經(jīng)網(wǎng)絡(luò)的研究,自2006年Hinton等[3]在Science 上提出了深度學(xué)習(xí),許多學(xué)者從不同的方向都有所創(chuàng)新.有基于構(gòu)建圖像表示方法研的CNN圖像分類方法研究[4],有基于自適應(yīng)學(xué)習(xí)率的研究[5],有將dropout層運(yùn)用于池化階段的方法[6],有致力于預(yù)訓(xùn)練與隨機(jī)初始化模型[7],這些方法都在一定程度上提高了卷積神經(jīng)網(wǎng)絡(luò)的表達(dá)能力.本文主要研究在圖像分類問題上,激活函數(shù)的優(yōu)化對(duì)提高分類準(zhǔn)確率和降低損失率的影響.

對(duì)于一個(gè)單層的感知機(jī),可以很容易地完成一個(gè)二分類的運(yùn)算,如圖 1 所示.

圖 1 中y=w1x1+w2x2+b.

圖 2 含激活函數(shù)的單層感知機(jī)Fig.2 Single layer perceptron with activation function

圖 2 中a=w1x1+w2x2+b,y=σ(a).

這樣輸出值由于經(jīng)過激勵(lì)函數(shù)σ(a),就可以處理非線性的分類問題,多層感知器的情況同上.

激活函數(shù)是指把激活的神經(jīng)元的特征通過非線性函數(shù)把特征保留并映射出來,這就是神經(jīng)網(wǎng)絡(luò)能解決非線性問題的關(guān)鍵所在[12].實(shí)際就是在卷積神經(jīng)網(wǎng)絡(luò)中起到?jīng)Q定信號(hào)能否傳遞的作用.在卷積神經(jīng)網(wǎng)絡(luò)中,當(dāng)網(wǎng)絡(luò)具有的是線性屬性,那么函數(shù)的線性方程及其組合也僅僅有線性表達(dá)的能力,網(wǎng)絡(luò)的多層就沒有了意義,相當(dāng)于只有一個(gè)隱藏層的線性網(wǎng)絡(luò).使用激活函數(shù)增加了神經(jīng)網(wǎng)絡(luò)模型的表達(dá)能力,使其可以運(yùn)用到眾多的非線性網(wǎng)絡(luò)模型中,深度神經(jīng)網(wǎng)絡(luò)也才真正具有了人工智能的意義[13].

2 經(jīng)典的激活函數(shù)

常見的飽和非線性激活函數(shù)包括Sigmoid函數(shù)(如圖 3)和雙曲正切函數(shù)Tanh函數(shù)(如圖 4).

圖 3 sigmoid函數(shù)Fig.3 sigmoid function

圖 4 tanh函數(shù)Fig.4 tanh function

經(jīng)過研究發(fā)現(xiàn),這兩個(gè)激活函數(shù)存在較大缺陷.Sigmoid的缺陷是梯度消失和計(jì)算成本昂貴.當(dāng)Sigmoid函數(shù)趨近于0或1時(shí),梯度趨近于0.即當(dāng)進(jìn)行反向傳播時(shí),輸出值接近0或1的神經(jīng)元會(huì)達(dá)到飽和狀態(tài),因此神經(jīng)元的權(quán)重不會(huì)更新,與此類神經(jīng)元相鄰的神經(jīng)元的權(quán)值也會(huì)更新得很慢,出現(xiàn)梯度彌散問題.當(dāng)有多個(gè)神經(jīng)元出現(xiàn)這種情況時(shí),網(wǎng)絡(luò)將無法執(zhí)行反響傳播.同樣,Tanh的缺陷也是有“殺死”梯度的可能性.

為了解決這種激活函數(shù)的缺陷問題,近幾年有學(xué)者提出了近似生物神經(jīng)的ReLU函數(shù)(如圖 5)及其變體PReLU函數(shù)(如圖 6).

圖 5 Relu函數(shù)Fig.5 Relu function

圖 6 PRelu函數(shù)Fig.6 PRelu function

ReLU函數(shù)有效解決了Sigmoid函數(shù)的梯度消失問題,但依然存在均值偏移的缺點(diǎn)[14].在前項(xiàng)傳導(dǎo)過程中,當(dāng)x<0時(shí)神經(jīng)元保持非激活狀態(tài),并且在后向傳導(dǎo)中“殺死”梯度,網(wǎng)絡(luò)無法學(xué)習(xí).而PReLU函數(shù)就解決了ReLU函數(shù)在x負(fù)半軸為0的問題,其負(fù)半軸斜率系數(shù)α可以由學(xué)習(xí)得到,它具有無神經(jīng)元死亡和收斂速度更快的問題.圖 6 展示了x<0時(shí)兩種不同的α系數(shù)的圖像函數(shù).

但是,在訓(xùn)練過程中發(fā)現(xiàn),隨著訓(xùn)練次數(shù)的增多,神經(jīng)網(wǎng)絡(luò)容易出現(xiàn)震蕩、 不收斂甚至過擬合的情況,導(dǎo)致訓(xùn)練結(jié)果嚴(yán)重失真.就此問題,提出了一種ReLU函數(shù)的變體ReLU閾值函數(shù).通過在caltech101數(shù)據(jù)模型上多次的對(duì)比訓(xùn)練,發(fā)現(xiàn)ReLU閾值函數(shù)表現(xiàn)穩(wěn)定,在提高收斂的基礎(chǔ)上,對(duì)于測(cè)試集的準(zhǔn)確率也有一定提升.

3 改進(jìn)的ReLU閾值激活函數(shù)

改進(jìn)的ReLU閾值激活函數(shù)在原來ReLU激活函數(shù)的基礎(chǔ)上對(duì)于輸入的x有了限制,不是一味地學(xué)習(xí)所有的值,而是當(dāng)達(dá)到一定范圍時(shí),函數(shù)就會(huì)“dead”,不再學(xué)習(xí),這樣避免了過擬合的情況.其中x取何值時(shí)函數(shù)會(huì)“dead”,需要根據(jù)不同的數(shù)據(jù)集訓(xùn)練確定.用圖 7 示例,當(dāng)x≥10時(shí)函數(shù)的導(dǎo)數(shù)為0,函數(shù)在此區(qū)間不再有學(xué)習(xí)訓(xùn)練數(shù)據(jù)的特征,將此函數(shù)定義為ReLU10函數(shù).

圖 7 ReLU10函數(shù)Fig.7 ReLU10 function

4 實(shí)驗(yàn)及結(jié)果分析

實(shí)驗(yàn)平臺(tái)簡(jiǎn)介: PC機(jī)(Ubuntu操作系統(tǒng)),處理器Inter Core i7, 顯卡型號(hào)Tesla K40C,12 G顯存,caffe深度學(xué)習(xí)框架.

首先用Alexnet網(wǎng)絡(luò)模型對(duì)caltech101數(shù)據(jù)集進(jìn)行訓(xùn)練,將網(wǎng)絡(luò)中的激活函數(shù)分別用幾種經(jīng)典的激活函數(shù)取代,調(diào)節(jié)合適的學(xué)習(xí)率后訓(xùn)練數(shù)據(jù),訓(xùn)練結(jié)果如圖 8 和圖 9 所示.

圖 8 訓(xùn)練準(zhǔn)確率結(jié)果Fig.8 Test-accuracy result

圖 9 訓(xùn)練損失結(jié)果Fig.9 Test-loss result

其中,ReLU10是指當(dāng)x≥10時(shí),令y′=0,圖像如圖 7 所示.由訓(xùn)練結(jié)果發(fā)現(xiàn),改進(jìn)的ReLU閾值函數(shù)雖然訓(xùn)練速度略慢,但是收斂性卻是最好的,而且測(cè)試集的準(zhǔn)確率也能達(dá)到最大.各激活函數(shù)訓(xùn)練的最大準(zhǔn)確率和最小損失數(shù)據(jù)見表 1.

表 1 不同激活函數(shù)的訓(xùn)練結(jié)果比較

為了保證實(shí)驗(yàn)的準(zhǔn)確性,將含有ReLU閾值函數(shù)的Alexnet網(wǎng)絡(luò)模型[15]用于訓(xùn)練caltech256數(shù)據(jù)集.經(jīng)過對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),閾值在x=25時(shí)表現(xiàn)最為優(yōu)秀,函數(shù)圖像如圖 10 所示,訓(xùn)練結(jié)果如圖 11 和圖 12 所示.實(shí)驗(yàn)表明,此激活函數(shù)不僅提高了測(cè)試集的分類準(zhǔn)確率,而且結(jié)果更收斂,波動(dòng)最小.各激活函數(shù)訓(xùn)練的最大準(zhǔn)確率和最小損失數(shù)據(jù)見表 2.

圖 10 ReLU25函數(shù)Fig.10 ReLU25 function

圖 11 訓(xùn)練準(zhǔn)確率結(jié)果Fig.11 Test-accuracy result

圖 12 訓(xùn)練損失結(jié)果Fig.12 Test-loss result

最大準(zhǔn)確率最小損失ReLU0.6545.435ReLU100.7411.260ReLU200.9020.503ReLU250.9230.496ReLU300.9030.634

5 結(jié)束語

本文提出了一種改進(jìn)的激活函數(shù)——ReLU閾值函數(shù),應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)后對(duì)數(shù)據(jù)集caltech101和caltech256進(jìn)行訓(xùn)練,在準(zhǔn)確率和收斂性上較經(jīng)典的激活函數(shù)都有較大優(yōu)化,其中閾值為25時(shí)表現(xiàn)最佳,有效地避免神經(jīng)網(wǎng)絡(luò)出現(xiàn)震蕩、 不收斂甚至過擬合的情況,提高了網(wǎng)絡(luò)的穩(wěn)定性.

主站蜘蛛池模板: 欧美精品啪啪一区二区三区| 欧美中日韩在线| 亚洲精品爱草草视频在线| 亚洲最黄视频| 天堂中文在线资源| 色老头综合网| 亚洲免费黄色网| 久久综合国产乱子免费| 大香网伊人久久综合网2020| 白浆免费视频国产精品视频| 久久亚洲黄色视频| 91欧美亚洲国产五月天| 色妞www精品视频一级下载| 亚洲精品无码专区在线观看| 国产青青操| 欧美亚洲国产精品久久蜜芽| 久草视频中文| 欧美日韩中文国产va另类| 日本精品αv中文字幕| 大陆精大陆国产国语精品1024| 看国产毛片| a级毛片免费看| 一级香蕉视频在线观看| 国产麻豆aⅴ精品无码| 国产精品第一区在线观看| 少妇极品熟妇人妻专区视频| 丁香综合在线| 综合人妻久久一区二区精品 | 久久久久亚洲av成人网人人软件| 日本AⅤ精品一区二区三区日| 亚洲欧洲日韩久久狠狠爱| 四虎亚洲国产成人久久精品| 伊在人亚洲香蕉精品播放| 97se亚洲综合在线| 日韩一区二区在线电影| 精品国产污污免费网站| 日韩AV无码免费一二三区| 亚洲Aⅴ无码专区在线观看q| 欧美亚洲激情| 亚洲人成成无码网WWW| 日本福利视频网站| 久久综合伊人 六十路| 欧美性久久久久| 亚洲αv毛片| 无码免费的亚洲视频| 免费在线国产一区二区三区精品| 色欲色欲久久综合网| 国产丝袜精品| 免费A级毛片无码免费视频| 久久人妻xunleige无码| 无码内射在线| 国产一区二区三区视频| 久99久热只有精品国产15| 欧美有码在线| 欧美激情福利| 激情影院内射美女| 日本高清有码人妻| 国产精品网曝门免费视频| 国产男人天堂| 国产日韩久久久久无码精品| 亚洲精品国产乱码不卡| 狠狠做深爱婷婷久久一区| 在线欧美一区| 免费国产福利| 免费在线看黄网址| 精品综合久久久久久97超人该| 色综合日本| 最新日韩AV网址在线观看| 波多野结衣久久高清免费| 97国产成人无码精品久久久| 国产另类视频| 国产精品无码一二三视频| 婷婷激情五月网| 国产69囗曝护士吞精在线视频 | 亚洲欧洲自拍拍偷午夜色无码| 亚洲浓毛av| 成人自拍视频在线观看| 国产视频只有无码精品| 日韩精品视频久久| 国产香蕉97碰碰视频VA碰碰看| 亚洲区欧美区| 亚洲精品不卡午夜精品|