999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種改進的帶有動量的隨機梯度下降優化算法

2024-07-01 18:50:13黃建勇周躍進
關鍵詞:分類

黃建勇 周躍進

【摘?? 要】?? 帶有動量的隨機梯度下降(SGDM)優化算法是目前卷積神經網絡(CNNs)訓練中最常用的算法之一。然而,隨著神經網絡模型的復雜化,利用SGDM算法去訓練神經網絡模型所需時間越來越長,因此,改進SGDM算法的收斂性能是十分必要的。在SGDM算法的基礎上,提出了一種新算法SGDMNorm。新算法利用歷史迭代的梯度范數對梯度進行校正,在一定程度上提高了SGDM算法的收斂速度。從收斂性的角度對該算法進行分析,證明了SGDMNorm算法具有[O(T)]悔界。通過數值模擬實驗和CIFAR-10圖片分類應用,表明SGDMNorm算法收斂速度比SGDM算法更快。

【關鍵詞】?? 梯度下降算法;神經網絡;梯度范數;分類

An Improved Stochastic Gradient Descent

Optimization Algorithm with Momentum

Huang Jianyong,Zhou Yuejin*

(Anhui University of Science and Technology, Huainan 232001, China)

【Abstract】??? Stochastic gradient descent optimization algorithm with momentum (SGDM) is currently one of the most commonly used optimization algorithms for training convolutional neural networks (CNNs). However, as neural network models become more complex, the time which needs to train them by using the SGDM algorithm also increases. Therefore, it is very necessary to improve the convergence performance of SGDM algorithm. In this paper, we propose a new algorithm called SGDMNorm based on the SGDM algorithm. The new algorithm corrects gradients by using the gradient norm of historical iterations, which improves the convergence speed of the SGDM algorithm. Then, we analyze the algorithm from the perspective of convergence and prove that the SGDMNorm algorithm has a regret bound of [O(T)]. Finally, the numerical simulations and CIFAR-10 image classification applications demonstrate that the SGDMNorm algorithm converges faster than the SGDM algorithm.

【Key words】???? gradient descent algorithm; neural networks; gradient norm; classification

〔中圖分類號〕?? TP183?????????????????????????????? 〔文獻標識碼〕? A? ???????????? 〔文章編號〕 1674 - 3229(2024)02- 0036 - 09

[收稿日期]?? 2024-01-08

[基金項目]?? 深部煤礦采動響應與災害防控國家重點實驗室基金資助項目(SKLMRDPC22KF03)

[作者簡介]?? 黃建勇(1999- ),男,安徽理工大學數學與大數據學院碩士研究生,研究方向:統計機器學習。

[通訊作者]?? 周躍進(1977- ),男,博士,安徽理工大學數學與大數據學院教授,研究方向:統計機器學習、因果推斷。

0???? 引言

近年來,卷積神經網絡(Convolutional Neural Networks,CNNs)已經成為解決計算機視覺問題的主要參數模型[1-3]。然而,隨著數據集的增大和神經網絡層數的增加,模型的訓練愈發困難。所以研究一個收斂性能較好的神經網絡模型優化算法尤其重要。CNNs模型通常使用基于小批量樣本批處理的隨機梯度下降(Stochastic Gradient Descent,SGD)優化算法進行訓練。利用SGD算法訓練神經網絡模型具有操作簡單、占用計算機內存小等優點。但是,SGD算法也有缺點,其參數更新僅受當前隨機抽取的小批量樣本的平均梯度影響[4]。若其中某些樣本特性差異較大,參數更新方向可能會不一致,導致在實際應用中SGD優化算法收斂速度慢。

為了改進上述SGD算法,很多基于SGD的優化算法先后被提出。根據是否使用自適應學習率,可以將這些改進的優化算法分為兩類。第一類是非自適應學習率優化算法,即所有參數的更新使用同一個學習率。其中,SGDM(SGD with Momentum)優化算法利用每個小批量樣本平均梯度的指數滑動平均來更新參數,有效改進了SGD優化算法收斂速度慢、在局部最小值和鞍點處不更新的問題[5]。此外,袁煒和胡飛在SGDM算法的基礎上,提出了RSGDM(Rectified SGDM)優化算法,該算法利用差分估計項來修正SGDM算法中一階動量的偏差和滯后性[6]。第二類是自適應學習率優化算法,即不同參數使用不同的學習率。例如Adam(Adaptive Moment Estimation)優化算法結合了SGDM和RMSProp(Root Mean Square Propogation)的思想,利用一階動量來更新參數、二階動量來控制學習率[7]。由于Adam算法較其他算法而言,收斂速度更快,目前已被廣泛用于不同的神經網絡模型,來解決不同的計算機視覺問題。但是,在實際應用時該算法大多只能收斂到局部最優值點。為了解決該問題,Radam(Rectified Adam)優化算法根據方差分散度,動態地打開或關閉自適應學習率,在一定程度上緩解了Adam優化算法收斂到局部最優解的問題[8]。

目前,很多神經網絡模型使用第二類自適應學習率優化算法進行訓練。雖然這類算法在訓練集上的收斂速度較快,但是在測試集上準確率較差,泛化能力不如SGDM[9-10]。SGDM算法較這些自適應優化算法而言,最大的缺陷是在訓練集上收斂速度較慢。因此,本文在SGDM算法的基礎上,利用歷史迭代的梯度范數對當前梯度進行校正。經過校正,可以有效提高SGDM算法在訓練集上的收斂速度。

1???? SGDMNorm算法

在基于小批量樣本處理的SGDM算法中,首先隨機抽取一批樣本并計算其平均梯度,即:

[gt=1Bb=1B? θtf(xb,θt)],????? (1)

其中[x1,x2,...,xB]表示在迭代訓練中抽取的小批量樣本;[B]表示抽取的小批量樣本數; [θt]表示第[t]次迭代訓練時的模型參數;[?]? 表示在[θt]處的梯度;[gt]表示第[t]次迭代訓練時小批量樣本的平均梯度。

然后,利用平均梯度的指數滑動平均計算動量,即:

[mt=βtmt-1+(1-βt)gt]?????????????? ?? ??????????(2)

其中[mt]是第[t]次迭代訓練時的動量,其初始值[m0=0];[βt∈[0,1)]是指數衰減率(一般設為0.9)。

最后,對參數進行更新,即:

[θt+1=θt-αtmt] (3)

其中[αt]表示第[t]次更新參數時所用步長,也稱為學習率。

本文所提的SGDMNorm算法在SGDM算法的基礎上增加了一個梯度校正項,具體如下所示。首先,計算[gt]的[l2]范數,即:

[gt,norm=i=1kg2t,i]?? (4)

其中[gt,norm]表示[gt]的[l2]范數;[gt,i]表示[gt]的第[i]個元素;[k]表示向量[gt]中的元素個數。

然后,利用歷史梯度范數對當前梯度進行校正,即:

[et=γet-1+(1-γ)gt,norm]???????????????????? ? (5)

[st=(etgt,norm+ε)ηtgt,if et>gt,normgt???????????????????? ,otherwise]? ????? ?(6)

其中[et]表示第[t]次迭代訓練時的歷史梯度范數,其初始值[e0=0];[st]表示校正后的梯度; [ηt∈1,2]是參數,隨迭代訓練次數衰減,默認取[ηt=(1+1t)];[γ∈0,1]是參數,根據經驗,[γ]取值為0.95時效果比較好;[ε]是一個任意小的正數,使得[gt,norm+ε≠0]。

以某一函數為例,該函數圖像如圖1所示,可以看出在A和C點附近梯度及其[l2]范數都比較大;在B和D點附近梯度及其[l2]范數都比較小。因此,根據本文所提出的梯度校正方法,B和D點附近參數將會使用更大的梯度進行更新,從而更快收斂到最小值點。

SGDMNorm算法具體實現步驟如下:

步驟1?? 選擇超參數:[αt=0.01](學習率),[βt=0.9],[γ=0.95],[ηt=(1+1t)],[ε=10-16]。

步驟2?? 模型初始化:[m0←0],[e0←0],[t←0],[θ0]。

步驟3?? 判斷是否滿足終止條件,不滿足條件重復執行步驟4-10,滿足則輸出[θt+1]。

步驟4?? 更新迭代次數:[t←t+1]。

步驟5?? 計算平均梯度:[gt=1Bb=1B?? f(xb,θt)]。

步驟6?? 計算當前梯度范數:[gt,norm=i=1kg2t,i]。

步驟7?? 更新歷史梯度范數:[et=γet-1+(1-γ)gt,norm。]

步驟8?? 判斷是否進行梯度校正:

[st=(etgt,norm+ε)ηtgt,if et>gt,normgt??????????? ?????????,otherwise]。

步驟9?? 更新動量:[mt=βtmt-1+(1-βt)st]。

步驟10?? 更新參數:[θt+1=θt-αtmt]。

2???? SGDMNorm算法收斂性分析

利用Zinkevich提出的在線學習框架分析SGDMNorm算法的收斂性[11]。假設任意未知的凸損失函數序列[f1(θ),f2(θ),...,fT(θ)],目的是預測每次迭代(第[t]步)的參數[θt],[t=1,2,...,T],并計算在該點處的函數[ft(θt)]。對于此類未知的凸損失函數序列,算法可基于悔界進行分析計算。從解空間[χ]中計算一個在線猜測損失函數[ft(θt)]和一個期望損失函數[ft(θ*)],其中

[θ*=argminθ∈χt=1Tft(θ)]

并計算二者之間的誤差,悔界的定義為誤差的總和,其表達式如下所示

[R(T)=t=1T(ft(θt)-ft(θ*))]

在這種情況下,可以證明SGDMNorm算法的悔界為[O(T)]。

定理1?? 假設函數[ft]的梯度有界且由SGDMNorm算法生成的任意點[θt]之間的距離有界,即對[?θ∈Rd],有[?ft(θ)2≤G], [?ft(θ)∞≤G∞];且對[?m,n∈1,2,...,T],有[θm-θn2≤D2],[θm-θn∞≤D∞]。令[αt=αt],[βt=βt],則有[R(T)≤D2∞2(1-β1)i=1d1αT+KG∞D∞1-β1][i=1dt=1Tβt+]

[K2G2∞2(1-β1)i=1dt=1Tαt]。

證明:由文獻[7]中引理10.2有

[ft(θt)-ft(θ*)≤(gTt,θt-θ*)=i=1dgt,i(θt,i-θ*i)],

其中[gt,i]是[θ]的第[i]個元素在第[t]次迭代訓練時的梯度。

根據算法1的更新規則有

[θt+1=θt-αtmt=θt-αt[βtmt-1+(1-βt)st)] 。]

根據梯度校正規則,可以得到

[et=γet-1+(1-γ)gt,norm?? =γ[γet-2+(1-γ)gt-1,norm]+(1-γ)gt,norm?? =j=1t(1-γ)γt-jgj,norm 。]

根據梯度有界假設,經過放縮后得到[et≤(1-γt)G≤G]。

令[lt=(etgt,norm+ε)ηt,if et>gt,norm1???????????????????? ,otherwise]。因為[gt,norm≤G],[1≤ηt≤2],均是有界量,所以[lt]有界。假設上界為[K],由此可得[1≤lt≤K]。

將參數向量[θt+1]第[i]個元素與[θ*]的第[i]個元素做差,并平方可得

[(θt+1,i-θ*i)2=(θt,i-θ*i)2-2αt[βtmt-1,i+(1-βt)st,i](θt,i-θ*i)][+α2tm2t,i],

其中[mt,i]是[mt]的第[i]個元素在第[t]次迭代訓練時的動量。

因為[st,i=ltgt,i],所以上式可以表示成

[(θt+1,i-θ*i)2=(θt,i-θ*i)2-2αt[βtmt-1,i+(1-βt)ltgt,i](θt,i-θ*i)][+α2tm2t,i],

將上式整理后,得到[gt,i(θt,i-θ*i)=]

[(θt,i-θ*i)2-(θt+1,i-θ*i)22αt(1-βt)lt+βtmt-1,i(θt,i-θ*i)(1-βt)lt+][αtm2t,i2(1-βt)lt]。

對[ft(θt)-ft(θ*)]在[i∈1,...,d]的上界在[t=1,2,...,T]的累加求和,得出悔界滿足

[R(T)≤i=1dt=1T(θt,i-θ*i)2-(θt+1,i-θ*i)22αt(1-βt)lt+] [i=1dt=1Tβtmt-1,i(θt,i-θ*i)(1-βt)lt][+i=1dt=1Tαtm2t,i2(1-βt)lt]????? (7)

接下來依次對上式右邊三個單項式分別進行放縮。

1)首先對(7)式中的第一個單項式放縮,因為[lt≥1],[β1>βT]所以有

[i=1dt=1T(θt,i-θ*i)2-(θt+1,i-θ*i)22αt(1-βt)lt≤i=1dt=1T(θt,i-θ*i)2-(θt+1,i-θ*i)22αt(1-βt)≤i=1dt=1T(θt,i-θ*i)2-(θt+1,i-θ*i)22αt(1-β1), ]

接著使用錯位相減進行放縮,得到

[i=1dt=1T(θt,i-θ*i)2-(θt+1,i-θ*i)22αt(1-β1)=i=1dt=1T(θt,i-θ*i)22αt(1-β1)-t=1T(θt+1,i-θ*i)22αt(1-β1)]

[=i=1d[(θ1,i-θ*i)22α1(1-β1)+t=1T-1((θt+1,i-θ*i)22αt+1(1-β1)-(θt+1,i-θ*i)22αt(1-β1))-(θT+1,i-θ*i)22αT(1-β1)]≤i=1d[D2∞2α1(1-β1)+D2∞1-β1t=1T-1(12αt+1-12αt)]=D2∞i=1d12αT(1-β1)=D2∞2(1-β1)i=1d1αT 。]

在對第二和第三個單項式放縮前,首先對[mt,i]進行放縮,根據[mt,i]的更新方式可以得到

[mt,i=βtmt-1,i+(1-βt)st,i=βt[βt-1mt-2,i+(1-βt-1)st-1,i]+(1-βt)st,i=k=1t(1-βk)sk,ij=k+1tβj ],

根據[lt≤K]和梯度有界假設,顯然[sk,i≤KG∞],所以可得

[mt,i≤k=1t(1-βk)KG∞j=k+1tβj=KG∞(1-k=1tβk)≤KG∞]。

2)然后對(7)式中第二個單項式放縮,根據[lt≥1]和[β1>βT]可得

[i=1dt=1Tβtmt-1,i(θt,i-θ*i)(1-βt)lt≤i=1dt=1Tβtmt-1,i(θt,i-θ*i)1-βt≤i=1dt=1Tβtmt-1,i(θt,i-θ*i)1-β1≤KG∞D∞1-β1i=1dt=1Tβt。 ]

3)最后對(7)式中第三個單項式放縮,根據[lt≥1]和[β1>βT]可得

[i=1dt=1Tαtm2t,i2(1-βt)lt≤i=1dt=1Tαtm2t,i2(1-βt)≤i=1dt=1Tαtm2t,i2(1-β1)=K2G2∞2(1-β1)i=1dt=1Tαt , ]

最終經過整理后得到

[R(T)≤D2∞2(1-β1)i=1d1αT+KG∞D∞1-β1i=1dt=1Tβt+K2G2∞2(1-β1)i=1dt=1Tαt]。

推論1?? 假設函數[ft]的梯度有界且由SGDMNorm算法生成的任意點[θt]之間的距離有界,即對[?θ∈Rd],有[?ft(θ)2≤G],[?ft(θ)∞≤G∞];且對[?m,n∈1,2,...,T],有[θm-θn2≤D2],[θm-θn∞≤D∞]。若假設成立,則SGDMNorm算法對[?T≥1]有[R(T)T=O(1T)],因此,[limT→∞R(T)T=0]。

3???? 仿真實驗

下面通過仿真實驗來驗證SGDNorm算法的收斂性能。首先基于python語言sklearn庫中的make_classification函數生成一個分類數據集,類別數是10個。數據集共有40 000個數據,每個數據均有32個特征。make_classification函數中具體參數設置如表1所示,表中未出現參數均使用默認參數。

基于pytorch深度學習框架,搭建如表2所示的5層全連接神經網絡模型,將SGDM算法與SGDMNorm算法在該模型上進行實驗對比。其中激活函數均使用Relu,學習率設為0.001,批樣本量設為256,其余參數使用前文默認參數,迭代訓練1580次。每迭代訓練一次就計算一次損失函數值,并在訓練集上計算一次準確率。最后繪制出訓練損失和準確率曲線,如圖2所示。

圖2(a)是訓練損失曲線,橫軸表示迭代次數,縱軸表示損失函數值。可以看出兩種優化算法的損失曲線幾乎重合,都有較大波動性。圖2(b)是訓練準確率曲線,橫軸表示迭代次數,縱軸表示訓練準確率。可以看出在迭代400次后,SGDMNorm算法的訓練準確率開始高于SGDM算法,直到訓練結束,而且很明顯SGDMNorm算法的訓練準確率比SGDM算法更穩定,波動程度較小。所以,SGDMNorm算法收斂速度比SGDM算法快。

4???? 實例應用

為了進一步探究SGDMNorm優化算法在實際應用中的有效性,以及學習率和小批量樣本數的大小對該算法的影響,通過CIFAR-10圖片分類應用比較SGDMNorm算法與SGDM算法的性能。

4.1?? 數據集介紹

本文實驗所使用的數據集是CIFAR-10數據集。該數據集共有10個不同類別的6萬張RGB彩色圖像(圖片尺寸為32×32×3),其中有飛機、輪船、貓、狗和鳥類等。每個類別各有6000張RGB圖像,每個類別中取出5000張作為訓練集(共50 000張),余下1000張作為測試集(共10 000張)。

4.2?? 模型設計

VGG16卷積神經網絡模型共包括13個卷積層、5個池化層以及3個全連接層。整個網絡均采用寬高尺寸為3×3的小卷積核來提取特征,激活函數均使用Relu[12]。本文在VGG16卷積神經網絡模型的基礎上,使用pytorch框架,基于CIFAR-10數據集搭建了以下兩種不同的模型。

模型1是輕量化模型,采用了5個卷積層、5個池化層以及3個全連接層。整個網絡全部使用寬高尺寸為3×3的小卷積核來提取特征,激活函數均使用Relu。模型如圖3所示。

模型2則是一個較為復雜的模型,卷積層和池化層均和標準VGG16模型一樣,即13個卷積層和5個池化層,全連接層則只有一層,激活函數均使用Relu。模型如圖4所示。

4.3?? 實驗結果與結論

為了探究不同學習率和小批量樣本數對SGDMNorm算法的影響,以及該算法在不同神經網絡模型中的適用性,設置以下兩組對比實驗。

(1)實驗1(探究不同小批量樣本數對SGDMNorm算法的影響):將小批量樣本數分別設為64、128和256,學習率均設為0.001,指數衰減率均設為0.9,其他參數均使用前文所提默認值,分別迭代訓練780次,使用模型1進行實驗。

(2)實驗2(探究不同學習率對SGDMNorm算法的影響):將學習率分別設為0.001、0.005和0.01,小批量樣本數均設為256,指數衰減率均設為0.9,其他參數均使用前文所提默認值,分別迭代訓練980次,使用模型2進行實驗。

通過以上兩組實驗的設計,對SGDMNorm算法和SGDM算法進行實驗對比。每迭代訓練一次就計算一次損失函數值,并在訓練集上計算一次準確率,繪制出訓練損失和準確率曲線,如圖5-8所示。訓練結束后,在測試集進行上測試,測試準確率在表3中給出。

圖5給出了不同小批量樣本數的訓練損失曲線,a、b、c三個子圖分別對應小批量樣本數為64、128和256時的訓練數據,橫軸均表示迭代次數,縱軸均表示損失函數值。從a、b、c三圖可以看出兩種算法的損失函數值收斂速度大體相同。但是,很明顯SGDMNorm算法的損失函數值的波動性更小、更穩定。

圖6給出了不同小批量樣本數的訓練準確率曲線,a、b、c三個子圖分別對應小批量樣本數為64、128和256時的訓練數據,橫軸均表示迭代次數,縱軸均表示訓練準確率。對于a圖,可以看出在迭代50次后,SGDMNorm算法的訓練準確率開始高于SGDM算法,直到訓練結束。對于b和c圖,可以看出在整個迭代訓練過程中,兩種算法的收斂速度差不多,但是,SGDMNorm算法的訓練準確率大多時候略優于SGDM算法。總的來說,在不同小批量樣本數下,都是SGDMNorm算法準確率更高、收斂速度更快且穩定性更好。此外,可以看出較SGDM算法而言,SGDMNorm算法可以有效避免樣本數過小而導致的模型訓練過程中的不穩定。

圖7給出了不同學習率的訓練損失曲線,a、b、c三個子圖分別對應學習率為0.001、0.005和0.01時的訓練數據,橫軸均表示迭代次數,縱軸均表示損失函數值。從a和b圖可以看出,對于較小的學習率,兩種算法的訓練損失函數值收斂速度大體相同,兩種算法的損失曲線幾乎重合。從c圖可以看出,對于較大的學習率,SGDMNorm算法損失函數值收斂速度略快于SGDM算法,且波動性較小。

圖8給出了不同學習率的訓練準確率曲線,a、b、c三個子圖分別對應學習率為0.001、0.005和0.01時的訓練數據,橫軸均表示迭代次數,縱軸均表示訓練準確率。對于a圖,可以看出兩種算法的訓練準確率曲線在整個迭代訓練過程幾乎重合。對于b圖,可以看出在迭代200次前,SGDMNorm算法的訓練準確率和SGDM算法相差不大;在迭代200次后,SGDMNorm算法的訓練準確率略高于SGDM算法;在迭代900次后,兩種算法收斂速度幾乎相同。對于c圖,可以看出在迭代50次后,SGDMNorm算法訓練準確率開始高于SGDM算法,直到訓練結束,而且很明顯SGDMNorm算法的穩定性更好,準確率曲線波動性更小。總的來說,可以看出在學習率較大的情況下,兩種算法的差距較為明顯,SGDMNorm算法的優化性能比SGDM算法的優化性能更好,在訓練過程中的波動性更小。在學習率較小的情況下,兩種算法差距較小,優化性能幾乎相同。

表3給出了兩種優化算法在CIFAR-10測試集上的測試準確率。通過實驗1可以看出在同一學習率、不同小批量樣本數的條件下,都是SGDMNorm算法測試準確率更高。在小批量樣本數為64的情況下,兩種算法的測試準確率差距最大,SGDMNorm算法測試準確率比SGDM算法提高了1.44個百分點。通過實驗2可以看出在不同學習率、相同小批量樣本數的條件下,兩種算法測試準確率差距不大。當學習率較小時,SGDMNorm算法測試準確率略高于SGDM算法。當學習率較大時,SGDMNorm算法可能有過擬合的風險,導致其測試準確率稍低于SGDM算法。

5???? 結語

近年來,面對越來越多且越來越復雜的數據,深度神經網絡模型因其良好的數據處理能力引起學界的廣泛關注。但是,隨著數據集的增大、神經網絡模型層數的增加以及模型的不斷復雜化,高效快速地訓練一個高精度的模型變得愈發困難。因此一個好的優化算法對模型的訓練有著至關重要的作用。首先,本文在SGDM算法的基礎上,利用歷史迭代的梯度范數對梯度進行校正,提出了SGDMNorm算法。其次,證明了SGDMNorm優化算法具有[O(T)]悔界。再次,在CIFAR-10數據集上進行圖像分類實驗,實驗結果進一步表明SGDMNorm算法具有更好的收斂性能。在未來,也可將這種基于歷史梯度范數對梯度進行校正的思想應用到一些自適應梯度下降優化算法中。

[參考文獻]

[1] Lecun Y,Bengio Y,Hinton G. Deep learning [J]. Nature,2015,521(7553):436-444.

[2] Jaffeux L,Schwarzenb?ck A,Coutris P,et al. Ice crystal images from optical array probes: classification with convolutional neural networks[J]. Atmospheric Measurement Techniques,2022,15(17):5141-5157.

[3]Ren S,He K,Girshick R,et al. Faster r-cnn: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

[4] Bottou L. Large-scale machine learning with stochastic gradient descent[A].?Peter M. The Nineteenth International Conference on Computational Statistics[C]. Amsterdam:Elsevier Press,2010:177-186.

[5] Qian N. On the momentum term in gradient descent learning algorithms[J]. Neural Networks the Official Journal of the International Neural Network Society,1999,12(1):145-151.

[6] 袁煒,胡飛.基于差分修正的SGDM算法[J].計算機系統應用,2021,30(7):220-224.

[7] Kingma D P,Ba J. Adam: a method for stochastic optimization[A]. Bengio Y. The third International Conference on Learning Representations[C]. London:Academic Press,2015:1142-1156.

[8] Liu L,Jiang H,He P,et al. On the variance of the adaptive learning rate and beyond[A]. Lecun Y. The Eighth International Conference for Learing Repre sentations[C]. London:Academic Press,2020:1358-1371.

[9] 姜志俠,宋佳帥,劉宇寧.一種改進的自適應動量梯度下降算法[J].華中科技大學學報(自然科學版),2023,51(5):137-143.

[10]??? Dubey S R,Chakraborty S,Roy S K,et al. Diffgrad: an optimization method for convolutional neural networks[J]. IEEE Transactions on Neural Networks and Learning Systems,2019,19(31):4500-4511.

[11]??? Zinkevich M. Online convex programming and generalized infinitesimal gradient ascent[A]. Tom F. The Twentieth International Conference on Machine Learning[C]. Menlo Park:Association for the Advancement of Artificial Intelligence Press,2003:928-936.

[12]??? Simonyan K,Zisserman A. Very deep convolutional networks for large-scale image recognition[A]. Bengio Y. The Third International Conference on Learning Representations[C]. London:Academic Press,2015:637-649.

猜你喜歡
分類
2021年本刊分類總目錄
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
星星的分類
我給資源分分類
垃圾分類,你準備好了嗎
學生天地(2019年32期)2019-08-25 08:55:22
分類討論求坐標
數據分析中的分類討論
按需分類
教你一招:數的分類
主站蜘蛛池模板: 久久一本日韩精品中文字幕屁孩| 国产特级毛片| 亚洲视频无码| 欧美日韩高清在线| 久久综合色天堂av| 国产色偷丝袜婷婷无码麻豆制服| 国产综合另类小说色区色噜噜 | 伊人色天堂| 九色视频一区| 尤物亚洲最大AV无码网站| 亚洲69视频| 中文字幕乱妇无码AV在线| 国产v欧美v日韩v综合精品| 亚洲婷婷六月| 亚洲青涩在线| 日韩欧美中文字幕一本| 国产乱视频网站| 午夜无码一区二区三区| 日本三区视频| 高清亚洲欧美在线看| 欧美色综合网站| 欧美另类图片视频无弹跳第一页| 免费无码AV片在线观看国产| 无码专区国产精品一区| 国产SUV精品一区二区| 久久综合九色综合97婷婷| 国产成年女人特黄特色毛片免| 99这里精品| 日本亚洲成高清一区二区三区| 2021国产精品自产拍在线| 日韩大乳视频中文字幕| 中文字幕色在线| 欧美成人精品一级在线观看| 小说 亚洲 无码 精品| 成人国产精品网站在线看| 波多野结衣国产精品| 怡红院美国分院一区二区| 特黄日韩免费一区二区三区| 国产一级毛片网站| 精品少妇人妻av无码久久| 欧美成人在线免费| 国产成人啪视频一区二区三区| 国产亚洲视频中文字幕视频| 欧美国产日韩在线播放| 黄色国产在线| 国产产在线精品亚洲aavv| 97在线视频免费观看| 久久99国产视频| 亚洲区一区| 国产激情无码一区二区免费| 亚洲视频免| 国产成人AV综合久久| 最新亚洲人成网站在线观看| 青青青国产视频| 三级国产在线观看| 日本影院一区| 在线观看av永久| 国产美女免费网站| 看看一级毛片| 国产成人亚洲综合a∨婷婷| 久久99国产乱子伦精品免| 久久窝窝国产精品午夜看片| 国产成人区在线观看视频| 国产在线视频导航| 日韩人妻无码制服丝袜视频| 亚洲欧美一区二区三区蜜芽| 国产亚洲精品97AA片在线播放| 秘书高跟黑色丝袜国产91在线| 欧美精品在线视频观看| 免费国产无遮挡又黄又爽| 久久一本日韩精品中文字幕屁孩| 国产网站免费观看| 72种姿势欧美久久久大黄蕉| 一级毛片基地| 亚洲国产成熟视频在线多多| 成人福利在线观看| 高h视频在线| 国产精品片在线观看手机版| 久久这里只有精品国产99| 国产乱人乱偷精品视频a人人澡| 欧美色99| 永久天堂网Av|