999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深度卷積神經網絡權重參數更新方法研究

2021-12-31 02:37:34楊曼黃遠民石遠豪
中國設備工程 2021年24期
關鍵詞:方法

楊曼,黃遠民,石遠豪

(1.佛山職業技術學院,廣東 佛山 528137;2.佛山賽寶信息產業技術研究院有限公司,廣東 佛山 528000)

1 權重參數更新方法

1.1 隨機梯度下降法(SGD)

一般而言,損失函數很復雜,參數空間龐大,而通過巧妙的使用梯度來尋找函數最小值的方法就是梯度法,梯度表示的是各點處的函數值減小最多的方向。在神經網絡的學習中,尋找最小值的梯度法稱為梯度下降法,由于神經網絡中選取的訓練數據多為隨機批量數據,因此稱為隨機梯度下降法。用數學公式來表示方法如下式所示:

1.2 Momentum

在使用SGD訓練參數時,SGD每次都會在當前位置上沿著負梯度方向更新,并不考慮之前的方向梯度大小,有時候會下降的非常慢,并且可能會陷入到局部最小值中,動量的引入就是為了加快學習過程,引入一個新的變量去積累之前的梯度(通過指數衰減平均得到),實現加速學習過程的目的。用數學公式來表示方法如下式所示:

這里變量v表示物體在梯度方向上的受力,遵循在力的作用下,物體的速度增加這一法則,v初始為None,若當前的梯度方向與累積的歷史梯度方向一致,則當前的梯度會被加強,從而這一步下降的幅度更大。若當前的梯度方向與累積的梯度方向不一致,則會減弱當前下降的梯度幅度。a初始值設定為0.5、0.9或者0.99。

1.3 AdaGrad

AdaGrad算法的思想是每一次更新參數,不同的參數使用不同的學習率。將每一個參數的每一次迭代的梯度取平方累加后再開方,用全局學習率除以這個數,作為學習率的動態更新。用數學公式來表示AdaGrad方法如下式所示:這里變量h保存了所有梯度值的平方和,在更新參數時,通過乘以來調整學習的尺度,參數元素中被大幅更新的元素的學習率將變小。從算法AdaGrad中可以看出,隨著算法不斷迭代,h會越來越大,整體的學習率會越來越小。

1.4 Adam

Adam方法計算了梯度的指數移動均值,融合了RMSProp和Momentum的方法,Adam會設置3個超參數,一個是學習率,標準值設定為0.001,另外兩個超參數beta1和beta2控制了這些移動均值的衰減率,移動均值的初始值beta1、beta2值接近于1,在深度學習庫中,標準的設定值是beta1=0.9、beta2=0.999。

2 算法對比

MNIST數據集60000個訓練數據樣本,構建5層神經網絡,輸入層數據大小為784,隱藏層神經元個數分別為600、400、200,輸出層神經元個數為10,激活函數用relu。

其迭代后損失函數結果如下表1所示(保留4位有效數字)。

表1 損失函數值

根據以上數據可得到損失AdaGrad函數最小為.0105,Adam次之且相差不大,其余兩種方法學習效率較低。

其迭代后損失函數結果如下表2所示(保留4位有效數字)。

表2 損失函數值

根據以上數據可得到Adam損失函數最小為。0.0019,在神經網絡層數不變,神經元個數不變的情況下,增加訓練樣本的迭代次數,AdaGrad的損失函數更新速度變慢,Adam方法損失函數更新速度更快、效果更好,此時損失函數值更小。

3 實例應用

以MNIST數據集為例,分別采用SGD、Momentum、AdaGrad、Adam方法對目標函數進行優化,構建以下深度CNN網絡結構圖,見圖1。完成對該數據集中手寫數字的分類識別。

圖1 深度網絡結構圖

其中Conv為卷積層,主要進行卷積運算,相當于圖像處理中的濾波器運算。Pool為池化層,主要是縮小高、長方向上的空間運算。Dropout是一種在學習的過程中隨機刪除神經元的抑制過擬合問題的方法,訓練時隨機選出隱藏層的神經元,然后將其刪除,被刪除的神經元不再進行信號的傳遞。softmax函數為輸出層函數,softmax函數的輸出是0.0到1.0之間的實數。采用上述深度卷積神經網絡進行測試,當epochs=12,得到準確率如下表3所示。

表3 測試結果

結果顯示,采用Adam進行目標函數優化,分類識別準確率為0.9951。設定當epochs=20,得到準確率如下表4所示。

表4 測試結果

結果顯示,增大epochs后,采用Adam 進行目標函數優化,分類識別準確率仍為最高0.9955。增加了0.04%,但計算速度會減慢。

4 結語

采用SGD、Momentum、AdaGrad、Adam 4種權重參數更新方法,SGD下降過程更為曲折,因噪聲使梯度更新的準確率下降,同時SGD會在某一維度上梯度更新較大產生振蕩,可能會越過最優解并逐漸發散。加入動量Momentum梯度移動更為平滑,但效率仍偏低。AdaGrad可根據自變量在各個維度的梯度值大小來調整各個維度上的學習率,避免統一的學習率難以適應所有維度的問題。Adam融合了Momentum、AdaGrad的方法,Adam的更新過程類似Momentum,但相比之下,Adam晃動的程度有所減輕。以MNIST數據集為樣本集,構建深度卷積神經網絡結構,分別采用SGD、Momentum、AdaGrad、Adam方法對目標函數進行優化,完成對該數據集中手寫數字的分類識別,結果對比顯示采用方法,識別準確率為99.55%。

猜你喜歡
方法
中醫特有的急救方法
中老年保健(2021年9期)2021-08-24 03:52:04
高中數學教學改革的方法
河北畫報(2021年2期)2021-05-25 02:07:46
化學反應多變幻 “虛擬”方法幫大忙
變快的方法
兒童繪本(2020年5期)2020-04-07 17:46:30
學習方法
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
最有效的簡單方法
山東青年(2016年1期)2016-02-28 14:25:23
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 欧美国产在线看| 69免费在线视频| 九九热视频精品在线| 欧美福利在线| 国产精品视频第一专区| 香蕉蕉亚亚洲aav综合| 乱人伦视频中文字幕在线| 亚洲精品视频在线观看视频| 91久久性奴调教国产免费| www.精品视频| 蜜桃视频一区| 无码一区二区三区视频在线播放| 视频二区中文无码| 中文字幕调教一区二区视频| 亚洲一区波多野结衣二区三区| 国产综合在线观看视频| 2020久久国产综合精品swag| 波多野结衣AV无码久久一区| 99久久精品久久久久久婷婷| 国产一区二区三区夜色| 天天躁狠狠躁| 亚洲日本中文字幕乱码中文| 中文字幕亚洲综久久2021| 2020国产免费久久精品99| 成人国产免费| 日本免费高清一区| 亚洲精品无码不卡在线播放| 四虎在线观看视频高清无码| 日韩毛片免费| 国产精品一区二区不卡的视频| 中美日韩在线网免费毛片视频 | 亚洲品质国产精品无码| 视频一区亚洲| 啪啪啪亚洲无码| 亚洲第一视频免费在线| 欲色天天综合网| 欧美亚洲另类在线观看| 自拍中文字幕| 无码一区18禁| 精品国产免费人成在线观看| 伊人激情综合网| 本亚洲精品网站| 亚洲AV一二三区无码AV蜜桃| 日本高清在线看免费观看| 伊人久热这里只有精品视频99| 国产新AV天堂| 国产无码网站在线观看| 国产剧情一区二区| 国产精品分类视频分类一区| 一级毛片免费高清视频| 欧美一区二区福利视频| 亚洲美女高潮久久久久久久| 亚洲看片网| 色噜噜狠狠狠综合曰曰曰| 国产激情在线视频| 亚洲中文字幕在线观看| 亚洲国产中文精品va在线播放| 久久青草视频| 欧美色99| 99久久国产精品无码| 9cao视频精品| 亚洲区欧美区| jijzzizz老师出水喷水喷出| 亚洲欧洲AV一区二区三区| 欧美成人aⅴ| 一级看片免费视频| 免费在线观看av| 亚洲大尺码专区影院| 久久这里只有精品免费| 99免费在线观看视频| 中文字幕在线不卡视频| 亚洲国产欧美目韩成人综合| 国产欧美日韩另类| 精品剧情v国产在线观看| 精品三级在线| a色毛片免费视频| 国产亚洲成AⅤ人片在线观看| 91国内视频在线观看| 狠狠做深爱婷婷久久一区| 国产亚洲欧美在线中文bt天堂| 色天天综合久久久久综合片| 2048国产精品原创综合在线|