999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于MNIST數(shù)據(jù)集的參數(shù)最優(yōu)化算法比較研究

2021-08-09 03:23:50卜文銳
電子技術與軟件工程 2021年11期
關鍵詞:效率優(yōu)化方法

卜文銳

(陜西國防工業(yè)職業(yè)技術學院 陜西省西安市 710300)

1 神經(jīng)網(wǎng)絡的參數(shù)優(yōu)化

1.1 參數(shù)更新

神經(jīng)網(wǎng)絡在人工智能的發(fā)展當中起到了重要作用,它通常包含著較為復雜的結構和數(shù)量龐大的參數(shù),其優(yōu)化過程的主要目的就是有針對性地更新各類參數(shù),使得為解決問題而設定的損失函數(shù)取得令人滿意的最小值。一般而言,在許多實用性較強的領域中,神經(jīng)網(wǎng)絡的優(yōu)化過程是一個較為復雜的問題,其主要原因是在將實際問題抽象為數(shù)學模型的過程中,需要引入相當數(shù)量的各類參數(shù),神經(jīng)網(wǎng)絡需要處理的參數(shù)無論是較大的數(shù)量還是復雜的結構都讓最優(yōu)解的求解較為困難。

在神經(jīng)網(wǎng)絡優(yōu)化算法當中,非常經(jīng)典的方法是選取網(wǎng)絡參數(shù)的梯度作為最小化損失函數(shù)的突破口,在很大程度上借鑒了工程數(shù)學研究中關于最速下降方法的研究成果,具體算法稱為隨機梯度下降法,簡稱SGD。相比于盲目地在參數(shù)空間中搜索,SGD 方法已經(jīng)具有巨大的優(yōu)勢了。但是,根據(jù)需要求解的具體問題,也有著比SGD 更好的優(yōu)化算法。

1.2 常用方法

1.2.1 SGD

SGD 方法的表達式如式(1)所示,W 是神經(jīng)網(wǎng)絡的權重,?L/?W 是損失函數(shù)對W 的偏導數(shù),η 為學習率(一般取0.01 或0.001)。

SGD 方法的局限性從式(1)中也可以看出,那就是梯度的方向并不一定總是指向最小值的方向。因此,在出現(xiàn)此類情況的問題中,SGD 方法的搜索效率將會大打折扣。

1.2.2 Momentum

Momentum 的表達式如式(2)和式(3)所示,W 是神經(jīng)網(wǎng)絡的權重,?L/?W 是損失函數(shù)對W 的偏導數(shù),η 為學習率,v 為速度。

Momentum 方法對應的物理模型非常類似非光滑、非真空環(huán)境下,在平面上滾動的球體,式(2)中的第一項代表了球體運動時受到的各種阻力。

1.2.3 AdaGrad

在神經(jīng)網(wǎng)絡的學習中,學習率(數(shù)學式中記為η)的設定對于網(wǎng)絡參數(shù)的優(yōu)化具有重要意義。其設定過小,相當于在搜索過程中步長過小,優(yōu)化效率較低;其設定過大,相當于在搜索過程中選定了較大的步長,可能長時間在最小值附近擺動而無法收斂。在解決工程問題的過程中,學習率衰減的方法被廣泛采用:在搜索開始距離最小值較遠時,采用較大的搜索步長;當搜索逐漸進行,接近最小值附近時,調(diào)小搜索步長。在此基礎之上,AdaGrad 方法拓展了該方法的細節(jié),針對各個參數(shù)在神經(jīng)網(wǎng)路模型中的不同用途,專門為其設定衰減率,相當于更加細化的學習率衰減方法。

圖1:四類算法最優(yōu)化結果對比

用數(shù)學式表示AdaGrad 的更新方法如式(4)和式(5)所示,W 是神經(jīng)網(wǎng)絡的權重,?L/?W 是損失函數(shù)對W 的偏導數(shù),η 為學習率。其中參數(shù)h 的設置就是為了抑制某些參數(shù)因搜索步長過大而無法收斂,具體而言:從式(4)可以看出,如果某個參數(shù)的梯度變化較大,則其h 值也會發(fā)生較大改變:而式(5)中h 值存在于分母上,就確保權重W 值只發(fā)生較小的改變,也就確保了搜索步長有針對性地衰減。

1.2.4 Adam

在優(yōu)化算法的發(fā)展過程中,各類算法相互借鑒,不斷優(yōu)化的案例十分豐富,也往往有著意想不到的效果。Adam 方法就是結合了Momentum 方法和AdaGrad 方法的特點,并進行了一些獨特算法特征的引入,在2015年正式進入最優(yōu)化方法的行列。

2 MNIST數(shù)據(jù)集

2.1 概述

MNIST 是機器學習領域最有名的數(shù)據(jù)集之一,從各類AI 訓練的典型實驗到許多知名期刊發(fā)表的論文都能見到其被廣泛使用。實際上,在閱讀圖像識別或機器學習的各類資料時,它是非常典型的研究對象,包含可以用于學習和推理的訓練圖像6 萬張,測試圖像1 萬張。神經(jīng)網(wǎng)絡的訓練過程與其它AI 的訓練類似,也即將訓練集上的訓練結果用于測試集上的圖像進行分類,而分類的效率和準確率通常是度量神經(jīng)網(wǎng)路模型好壞的基本參數(shù)。

2.2 基本參數(shù)

圖2:不同迭代次數(shù)下四種算法損失函數(shù)對比

MNIST 數(shù)據(jù)集是由28×28 像素的圖像組成,每個像素點根據(jù)其灰度的差異在0-255 之間取值,并以此保存為一個數(shù)組。在訓練過程中,每個數(shù)據(jù)所對應的分類標簽(0-9 總共10 個分類)會被輸入神經(jīng)網(wǎng)絡作為參考;而在測試過程中,數(shù)據(jù)的標簽將不提供給神經(jīng)網(wǎng)絡。

3 最優(yōu)化算法對比

3.1 實驗參數(shù)

3.1.1 四類算法對比

以求解式(6)所示的函數(shù)最小值作為四類算法對比研究的目標,在工程優(yōu)化問題當中此類函數(shù)也經(jīng)常被作為研究對象,根據(jù)其等高線圖對比最優(yōu)化算法的好壞。

針對該函數(shù)的特征,不同類型算法在最優(yōu)化參數(shù)的過程中往往會表現(xiàn)出各不相同的特征。

3.1.2 MNIST 數(shù)據(jù)集實驗參數(shù)

在MNIST 數(shù)據(jù)集上,我們比較前述SGD、Momentum、AdaGrad 和Adam 這四種算法的優(yōu)化效果,并確認不同的方法在學習進展方面的差異。我們采用一個5 層神經(jīng)網(wǎng)絡,其中每層設置100 個神經(jīng)元,激活函數(shù)采用ReLU 函數(shù),迭代次數(shù)分別設定為1000、2000、3000 和4000。

3.2 結果對比

3.2.1 四類算法對比實驗

SGD、Momentum、AdaGrad 和Adam 算法在式(6)所示最優(yōu)化問題上的結果如圖1 所示。SGD 方法主要體現(xiàn)了Z 字形搜索方式,而其它三種方法的搜索則有較顯著的非線性特征。從結果來看,AdaGrad 方法的結果最優(yōu)。但是,在最優(yōu)化問題中,結果會根據(jù)需要解決的問題而有較大的變化;并且,根據(jù)超參數(shù)(學習率等)設定的差異,結果也會發(fā)生變化。所以,在神經(jīng)網(wǎng)絡解決實際問題的過程中,網(wǎng)絡結構的設定和各類參數(shù)的設置往往決定著最終優(yōu)化算法的結果。

3.2.2 MNIST 數(shù)據(jù)集最優(yōu)化算法對比

從圖2 的結果中可知,與SGD 算法相比,其它3 種算法學習效率較高,而且速度較為接近,細致分析不同迭代次數(shù)的學習效果圖可以看出,AdaGrad 算法的學習效率總體略高于其它算法。和求解函數(shù)最小值問題時類似,我們只能確定,在當前設定的實驗參數(shù)條件下,另3 種方法學習效率比SGD 算法更高,在多數(shù)情況下最終識別手寫數(shù)字的精度也更好。

4 結語

神經(jīng)網(wǎng)絡參數(shù)的優(yōu)化是人工智能研究當中非常重要的問題,基于不同的算法設計理念,四種常用方法均有著各自的特色。在求解函數(shù)最小值問題的過程當中,AdaGrad 算法在SGD、Momentum、AdaGrad 和Adam 算法中具有較好的結果;在學習手寫數(shù)字識別領域典型的MNIST 數(shù)據(jù)集時,我們設定的迭代次數(shù)在1000、2000、3000 和4000 的5 層神經(jīng)網(wǎng)絡(每層設置100 個神經(jīng)元,激活函數(shù)采用ReLU 函數(shù))結果體現(xiàn)出與SGD 算法相比,另3 種方法學習效率更高,同時AdaGrad 算法的學習效率總體略高于其它算法。

猜你喜歡
效率優(yōu)化方法
超限高層建筑結構設計與優(yōu)化思考
民用建筑防煙排煙設計優(yōu)化探討
關于優(yōu)化消防安全告知承諾的一些思考
一道優(yōu)化題的幾何解法
提升朗讀教學效率的幾點思考
甘肅教育(2020年14期)2020-09-11 07:57:42
可能是方法不對
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
跟蹤導練(一)2
主站蜘蛛池模板: 欧美日韩国产精品va| 天天躁夜夜躁狠狠躁图片| 久久综合丝袜长腿丝袜| 成人中文在线| 91精品人妻一区二区| 中文字幕啪啪| 99久久精品免费看国产电影| 欧美性精品不卡在线观看| 无码有码中文字幕| 伊人中文网| 国产精品综合久久久| 亚洲中文无码h在线观看 | 999精品色在线观看| 少妇极品熟妇人妻专区视频| 色老二精品视频在线观看| 99人妻碰碰碰久久久久禁片| 亚洲国产精品日韩专区AV| 国产精品部在线观看| 日本三级黄在线观看| 亚洲伦理一区二区| 丁香五月婷婷激情基地| 色婷婷亚洲十月十月色天| 丝袜国产一区| 天天色天天综合| 中文字幕亚洲另类天堂| 国产精品一区二区在线播放| 综合成人国产| 国产特级毛片aaaaaa| 91无码人妻精品一区| 久久福利片| 88国产经典欧美一区二区三区| 国产一区二区网站| 日本道综合一本久久久88| 欧美日韩国产综合视频在线观看| 老司机aⅴ在线精品导航| 国产一区二区三区免费观看| 日本www在线视频| 欧美日一级片| 亚洲男人在线| 在线综合亚洲欧美网站| 日韩欧美中文字幕一本 | 国产精品亚洲片在线va| 日韩性网站| 国产精品刺激对白在线| 四虎精品黑人视频| 色AV色 综合网站| 婷五月综合| 国产网站免费看| 99在线视频免费观看| 67194亚洲无码| 国产微拍一区二区三区四区| 青青操国产视频| 日本成人不卡视频| 高清不卡毛片| 亚洲高清无码久久久| 视频一区亚洲| av尤物免费在线观看| 国产欧美日韩91| 亚洲人成网站18禁动漫无码| 日韩精品一区二区三区中文无码| 国产尤物在线播放| 亚洲一级毛片| 久久久精品无码一二三区| 色婷婷天天综合在线| 色135综合网| 国产亚洲欧美另类一区二区| 一级毛片免费观看不卡视频| www.日韩三级| 精品无码国产自产野外拍在线| 国产h视频免费观看| 国产精品亚洲欧美日韩久久| 日韩一区二区三免费高清| 国产成人在线无码免费视频| 广东一级毛片| 日本久久网站| 日本亚洲欧美在线| 欧美激情二区三区| 欧美成人影院亚洲综合图| 国产99在线| 青青青视频蜜桃一区二区| 日本在线欧美在线| 久久男人视频|