999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于GRU-LSTM 組合模型的云計算資源負(fù)載預(yù)測研究

2022-05-14 03:27:46賀小偉徐靖杰張博文
計算機工程 2022年5期
關(guān)鍵詞:模型

賀小偉,徐靖杰,王 賓,吳 昊,張博文

(1.西北大學(xué) 網(wǎng)絡(luò)和數(shù)據(jù)中心,西安 710127;2.西北大學(xué) 信息科學(xué)與技術(shù)學(xué)院,西安 710127)

0 概述

云計算[1]是基于虛擬化技術(shù)和網(wǎng)格計算而發(fā)展起來的一種新興計算模式,與網(wǎng)格計算相比,云計算的任務(wù)更具復(fù)雜性,在這種模式中,應(yīng)用、數(shù)據(jù)和IT資源以服務(wù)的形式經(jīng)過網(wǎng)絡(luò)提供給用戶使用,給用戶帶來諸多方便。近年來,越來越多的公司將應(yīng)用部署在云端,這使得云數(shù)據(jù)中心的功耗波動更加劇烈,從而導(dǎo)致云數(shù)據(jù)中心資源利用率不平衡問題[2]。在負(fù)載快速增加時,從分配主機資源到使用主機資源的過程會產(chǎn)生時間延遲,在負(fù)載變化后分配資源時服務(wù)水平協(xié)議(Service Level Agreement,SLA)將遭到破壞。

為了給用戶提供高性能的云服務(wù),在云分布式控制系統(tǒng)中進(jìn)行資源管理非常重要[3],它可以降低云數(shù)據(jù)中心能耗成本和二氧化碳排放量[4-5]。負(fù)載預(yù)測技術(shù)[6]是對云分布式控制系統(tǒng)進(jìn)行資源管理的關(guān)鍵技術(shù),其可以在不破壞SLA 和不影響數(shù)據(jù)中心運行的前提下,通過對云數(shù)據(jù)中心的歷史數(shù)據(jù)進(jìn)行分析,以掌握負(fù)載數(shù)據(jù)的變化規(guī)律并準(zhǔn)確預(yù)測下一時期的負(fù)載值,從而通過合理地分配云數(shù)據(jù)中心的資源來提高其資源利用率。

目前,針對時間序列的負(fù)載預(yù)測大多基于深度學(xué)習(xí)中的循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)來進(jìn)行建模,但是RNN 在預(yù)測時間序列時存在梯度消失和梯度爆炸的問題。本文針對負(fù)載預(yù)測模型中存在的預(yù)測精度低、預(yù)測時間長的問題,提出一種組合預(yù)測模型GRU-LSTM,該模型結(jié)合門控循環(huán)單元(Gate Recurrent Unit,GRU)預(yù)測時間短、長短期記憶(Long-Short Term Memory,LSTM)預(yù)測精度高的優(yōu)點,對云計算資源進(jìn)行高效預(yù)測,從而提高云數(shù)據(jù)中心的資源利用率。

1 相關(guān)工作

對云計算資源負(fù)載進(jìn)行預(yù)測是一個典型的時間序列預(yù)測問題。目前,針對時間序列的預(yù)測方法主要分為基于機器學(xué)習(xí)的方法和基于深度學(xué)習(xí)的方法兩類。

在基于機器學(xué)習(xí)的方法中,KHAIRALLA[7]提出一種混合模型,其將自回歸移動平均模型(Auto-Regression and Moving Average Model,ARIMA)與支持向量機(Support Vector Machine,SVM)進(jìn)行組合,然后對金融時間序列進(jìn)行預(yù)測,并與人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)和SVM 進(jìn)行對比。BI等[8]提出一種小波分解與ARIMA 的混合模型以對未來負(fù)荷進(jìn)行預(yù)測,該模型通過SavitzkyGolay 濾波平滑任務(wù)時間序列,并通過小波分解將其分解為多個分量,通過小波分解重構(gòu)它們的預(yù)測結(jié)果,以估計到達(dá)任務(wù)數(shù)。但是,該模型可以通過使用更好的數(shù)據(jù)平滑算法來進(jìn)一步提高其預(yù)測精度。LIU[9]利用支持向量回歸(Support Vector Regression,SVR)建立0-1 整數(shù)規(guī)劃模型,將工作負(fù)載分類問題轉(zhuǎn)化為任務(wù)分配問題,并提供在線解決方案。ZHΟNG[10]提出一種基于WSVM 的預(yù)測算法,其利用小波分解對輸入信號進(jìn)行分解然后使用SVM 完成預(yù)測,最后利用Google 提供的集群公開數(shù)據(jù)集進(jìn)行實驗驗證。GUPTA[11]提出一種基于分?jǐn)?shù)差分的方法來捕捉時間序列數(shù)據(jù)的長相關(guān)性,并在Google 提供的集群公開數(shù)據(jù)集上進(jìn)行實驗驗證,結(jié)果表明,與非分?jǐn)?shù)差分的方法相比,分?jǐn)?shù)差分的方法具有更好的預(yù)測結(jié)果。

在基于深度學(xué)習(xí)的方法中,ZHANG[12]引入一種深度學(xué)習(xí)模型,利用規(guī)范多元分解來預(yù)測云負(fù)荷,并使用深度學(xué)習(xí)模型來學(xué)習(xí)虛擬機中復(fù)雜負(fù)載數(shù)據(jù)的重要特征,最后應(yīng)用規(guī)范多元分解來壓縮模型參數(shù)以提高訓(xùn)練效率。目前,針對時間序列的預(yù)測大多基于RNN 來建模。文獻(xiàn)[13]利用RNN 對云計算資源負(fù)載進(jìn)行預(yù)測,并使用Google 提供的集群公開數(shù)據(jù)集進(jìn)行實驗來驗證該方法的準(zhǔn)確性,RNN 的循環(huán)自回歸結(jié)構(gòu)能對時間序列進(jìn)行很好地表示,但它在對時間序列進(jìn)行預(yù)測時存在梯度消失和梯度爆炸的問題。因此,由RNN 衍生出的LSTM 網(wǎng)絡(luò)被廣泛應(yīng)用于時間序列預(yù)測任務(wù)。SUDHAKAR[14]將LSTM與RNN 進(jìn)行組合,以對服務(wù)器未來的工作負(fù)載進(jìn)行預(yù)測,并與ARIMA 模型進(jìn)行比較,結(jié)果表明,LSTMRNN 模型的預(yù)測精度高于ARIMA,同時也驗證了組合預(yù)測模型的預(yù)測精度高于單一預(yù)測模型,但由于LSTM 與RNN 都含有較多參數(shù),因此預(yù)測時間較長。文獻(xiàn)[15]提出一種改進(jìn)的LSTM 預(yù)測模型GSΟLSTM,利用該模型對云主機負(fù)載進(jìn)行預(yù)測,并通過實驗驗證了利用螢火蟲智能優(yōu)化(Glowworm Swarm Οptimization,GSΟ)算法對LSTM 進(jìn)行優(yōu)化具有可行性。文獻(xiàn)[16]提出一種組合預(yù)測模型ARIMALSTM,以對云平臺資源進(jìn)行預(yù)測,并利用CRITIC 數(shù)據(jù)融合對誤差值進(jìn)行預(yù)測,實驗結(jié)果表明,該預(yù)測模型的預(yù)測精度優(yōu)于單一預(yù)測模型。CHEN[17]對LSTM 采用集成學(xué)習(xí)的思想,通過豐富模型的輸入維度來解決由于缺乏歷史數(shù)據(jù)而無法建模的問題,但是,由于模型的輸入維度增加,導(dǎo)致該方法訓(xùn)練時間較長。在使用LSTM 對時間序列進(jìn)行預(yù)測時,增加網(wǎng)絡(luò)層數(shù)也可以取得更好的預(yù)測結(jié)果。文獻(xiàn)[18-19]分別提出Refined LSTM 與Stacked LSTM預(yù)測模型(Refined LSTM、Stacked LSTM 均為多層網(wǎng)絡(luò)結(jié)構(gòu)),對電荷數(shù)據(jù)進(jìn)行預(yù)測后得出結(jié)論,Refined LSTM 與Stacked LSTM 預(yù)測精度都優(yōu)于LSTM。在對時間序列進(jìn)行預(yù)測時,雖然LSTM 在預(yù)測精度上優(yōu)于其他單一預(yù)測模型,但是LSTM 參數(shù)過多,導(dǎo)致預(yù)測時間較長。

作為LSTM 的變體,GRU 在對時間序列進(jìn)行預(yù)測時,由于減少了一個門而使得預(yù)測時間變短。GUΟ等[20]提出GRU 和自相關(guān)分析相結(jié)合的多步預(yù)測方法,仿真分析結(jié)果表明,所提GRU 預(yù)測模型在進(jìn)行負(fù)載預(yù)測時預(yù)測時間得到優(yōu)化。對于一些特定的時間序列問題,采用時間卷積網(wǎng)絡(luò)(Temporal Convolutional Network,TCN)進(jìn)行建模也可以取得很好的效果。文獻(xiàn)[21]利用TCN 對幾個真實世界的數(shù)據(jù)集進(jìn)行實驗,結(jié)果表明,TCN 對于點預(yù)測和概率預(yù)測具有較好的效果,但是對于長時間預(yù)測的效果較差。

現(xiàn)有的預(yù)測模型通常是單一預(yù)測模型,或者是一些基于集成學(xué)習(xí)的組合預(yù)測模型[22]。單一預(yù)測模型雖然在預(yù)測時間上優(yōu)于組合預(yù)測模型,但預(yù)測精度明顯低于組合預(yù)測模型。而現(xiàn)有的一些組合預(yù)測模型預(yù)測精度雖然高于單一預(yù)測模型,但是預(yù)測精度相對也較低且沒有考慮預(yù)測時間的問題。為提高云平臺負(fù)載的預(yù)測精度和預(yù)測效率,本文結(jié)合GRU與LSTM 各自的預(yù)測優(yōu)勢,提出一種基于GRU 與LSTM 的組合預(yù)測模型,以對云平臺資源負(fù)載進(jìn)行預(yù)測。

2 負(fù)載預(yù)測模型

2.1 問題描述

本文主要對云計算資源的負(fù)載情況進(jìn)行預(yù)測。假設(shè)云計算原始資源負(fù)載序列值為xt={x1,x2,…,xn},其中,xt為t時刻集群的負(fù)載情況。將CPU 利用率和內(nèi)存(mem)利用率的負(fù)載值進(jìn)行組合后作為新的輸入,原因是這2 個指標(biāo)可以最直接地體現(xiàn)集群在某個時刻的負(fù)載情況,也是使用隨機森林算法[23]進(jìn)行特征選擇后得分最高的2 個指標(biāo)。設(shè)置步長為k,從原始資源負(fù)載序列值xt中選取前k個時刻的數(shù)據(jù)作為負(fù)載預(yù)測模型的輸入向量z={zn-k,…,zn-2,zn-1},通過負(fù)載預(yù)測模型訓(xùn)練后得到k+1 時刻集群的負(fù)載情況。

云環(huán)境中工作負(fù)載存在一定的依賴關(guān)系,每個時刻的負(fù)載情況都和之前時刻的負(fù)載情況有著十分密切的聯(lián)系,當(dāng)歷史值越接近當(dāng)前時刻t的值,它們之間的關(guān)系就越密切。對于模型選擇而言,長距離的依賴信息可以提供趨勢信息,不能完全忽略掉,為了更好地利用過去的負(fù)載數(shù)據(jù),需要對歷史數(shù)據(jù)進(jìn)行有選擇地保留和丟棄。LSTM 中的遺忘門可以控制進(jìn)入當(dāng)前時刻的歷史信息量以及需要被舍棄的信息量。因此,本文模型選擇LSTM 以及與LSTM 具有相似網(wǎng)絡(luò)結(jié)構(gòu)的GRU。

2.2 LSTM

LSTM 作為一種改進(jìn)的RNN,其繼承了RNN 模型的優(yōu)點,并且利用獨特的門結(jié)構(gòu)有效解決了RNN中的梯度爆炸和梯度消失問題,因此,LSTM 可以有效處理長時間序列問題,并已經(jīng)成功應(yīng)用于語音識別、圖像描述、自然語言處理等領(lǐng)域。相較RNN 和GRU,LSTM 模型的擬合和預(yù)測精度總體較高,但是,由于LSTM 參數(shù)過多導(dǎo)致其訓(xùn)練過程耗時較長。

LSTM 由多個循環(huán)單元組成,通過更新神經(jīng)元狀態(tài)信息,使用輸入門、輸出門、遺忘門來控制歷史信息的權(quán)重從而存儲過去的信息。基于LSTM 的移動云主機t時刻負(fù)荷預(yù)測模型的單元結(jié)構(gòu)如圖1 所示。

圖1 LSTM 單元結(jié)構(gòu)Fig.1 Unit structure of LSTM

在圖1 中:Ct-1為前一時刻神經(jīng)元的狀態(tài);Yt-1為前一時刻神經(jīng)元的輸出;Zt為當(dāng)前時刻的輸入。

遺忘門決定上一時刻的單元狀態(tài)Ct-1有多少可以保留到當(dāng)前時刻Ct,遺忘門的輸入包括前一時刻的輸出Yt-1和當(dāng)前時刻的負(fù)載Zt,最后通過最左邊的激活函數(shù)sigmoid 得到ft,計算如式(1)所示:

其中:Wf是遺忘門的權(quán)重矩陣;bf表示偏差向量;σ表示激活函數(shù)sigmoid;ft表示最后一層神經(jīng)元被遺忘的概率,取值范圍為[0,1],0 表示完全丟棄,1 表示完全保留。

輸入門決定Zt中哪些新的輸入可以存儲在神經(jīng)元中,神經(jīng)元主要分為it和νt,其計算方法分別如式(3)和式(4)所示:

其中:Wi和Wc是輸入門的權(quán)重矩陣;bi和bc為偏差向量。it和νt表示當(dāng)前需要保留的負(fù)載信息的比例,其與前一時刻保留的神經(jīng)元狀態(tài)相加,生成更新后的神經(jīng)元狀態(tài)信息Ct,計算方法如式(6)所示:

輸出門控制神經(jīng)元狀態(tài)的輸出并將狀態(tài)轉(zhuǎn)移到下一個神經(jīng)元,輸出門οt的計算方法如式(7)所示:

其中:Wο為輸出門的權(quán)重矩陣;bο為偏差向量;Yt為當(dāng)前時刻神經(jīng)元的輸出。通過最后一層的計算得到最終的負(fù)載預(yù)測值,如式(8)所示:

2.3 GRU

GRU 作為LSTM 的一種變體,也可以有效地解決RNN 中的梯度爆炸和梯度消失問題。與LSTM相比,GRU 的結(jié)構(gòu)更為簡單,其將遺忘門和輸入門合并為一個更新門。由于GRU 減少了一個門,矩陣乘法變少,因此當(dāng)訓(xùn)練數(shù)據(jù)量很大時可以節(jié)省大量的時間,GRU 網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示。

圖2 GRU 網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 GRU network structure

在圖2 中:Zt為當(dāng)前時刻的輸入;Yt-1為上一時刻的輸出;Yt為當(dāng)前時刻的輸出。GRU 有2 個門:

1)第一個門為更新門νt,其決定有多少歷史信息可以繼續(xù)傳遞給未來,即更新門νt決定是否將隱藏狀態(tài)更新為新狀態(tài)。從功能上看,GRU 的更新門νt類似于LSTM 的輸出門,更新門νt的計算方法如式(9)所示:

其中:Wν為更新門的權(quán)重矩陣;bν為偏差向量。

2)第二個門為重置門rt,其主要功能是確定有多少歷史信息不能傳遞到下一個狀態(tài),類似于LSTM中遺忘門和輸入門的組合。重置門rt的計算方法如式(10)所示:

其中:Wr為重置門的權(quán)重矩陣;br為偏差向量。

計算出更新門νt和重置門rt后,GRU 將計算候選隱藏狀態(tài)ht。候選隱藏狀態(tài)ht計算方法如式(11)所示:

其中:Wh為對應(yīng)的權(quán)重參數(shù);bh為對應(yīng)的偏差參數(shù)。從式(11)可以看出:當(dāng)重置門rt的值接近0 時,重置門對應(yīng)的候選隱藏狀態(tài)值也為0,即丟棄上一時刻的隱藏狀態(tài);當(dāng)重置門rt的值接近1 時,表示保留上一時刻的隱藏狀態(tài)。因此,重置門的作用是有選擇地丟棄與預(yù)測無關(guān)的歷史信息。

最后,t時刻GRU 的輸出Yt的計算方法如式(12)所示:

2.4 組合預(yù)測模型

綜合考慮預(yù)測精度和預(yù)測時間2 個方面的因素,本文建立一種基于GRU 與LSTM 的組合預(yù)測模型,以對云計算資源負(fù)載進(jìn)行預(yù)測。組合預(yù)測模型網(wǎng)絡(luò)結(jié)構(gòu)如圖3 所示。

圖3 組合預(yù)測模型網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Network structure of combined forecasting model

本文組合預(yù)測模型的網(wǎng)絡(luò)結(jié)構(gòu)包括3 層:第一層網(wǎng)絡(luò)結(jié)構(gòu)采用GRU,由于GRU 的網(wǎng)絡(luò)結(jié)構(gòu)簡單,參數(shù)少,更易收斂,因此在訓(xùn)練數(shù)據(jù)時GRU 訓(xùn)練速度快,可以減少訓(xùn)練時間,但是,GRU 的預(yù)測精度低于LSTM;第二層和第三層網(wǎng)絡(luò)結(jié)構(gòu)均采用LSTM,LSTM 參數(shù)較多,預(yù)測精度更高,并且雙層LSTM 的預(yù)測精度優(yōu)于單層LSTM。

2.5 模型評價標(biāo)準(zhǔn)

本文采用平均絕對誤差(Mean Absolute Error,MAE)、平均絕對值百分比誤差(Mean Absolute Percentage Error,MAPE)、均方誤差(Mean Squared Error,MSE)、均方根誤差(Root Mean Square Error,RMSE)、決定系數(shù)(R2)作為模型的性能評估標(biāo)準(zhǔn)。預(yù)測時間主要以模型的訓(xùn)練時間作為評價標(biāo)準(zhǔn)。在對模型進(jìn)行泛化實驗時,采用可釋方差得分(explanied_variance_score,簡寫為S)對模型的擬合程度進(jìn)行評價。各指標(biāo)的計算方法如下:

其中:n為負(fù)載預(yù)測值個數(shù);yi為負(fù)載的實際值;為負(fù)載的預(yù)測值;為負(fù)載的平均值。

3 實驗結(jié)果與分析

3.1 數(shù)據(jù)來源與處理

為了驗證本文負(fù)載預(yù)測模型的預(yù)測性能,使用阿里云2018 年發(fā)布的集群公開數(shù)據(jù)集Cluster-tracev2018[24]進(jìn)行實 驗。Cluster-trace-v2018 包括大 約4 000 臺機器在8 天內(nèi)的資源使用情況,本文實驗使用其中1 臺機器在8 天內(nèi)的資源使用情況,共3 300 條數(shù)據(jù)記錄,選取前80%的數(shù)據(jù)作為訓(xùn)練集,后20%的數(shù)據(jù)作為測試集。本文對數(shù)據(jù)集進(jìn)行如下處理:

1)缺失值處理。利用均值填充法進(jìn)行缺失值處理。

2)標(biāo)準(zhǔn)化處理[25]。為了提高神經(jīng)網(wǎng)絡(luò)的收斂速度、迭代求解速度以及預(yù)測精度,采用式(19)(Min-Max 歸一化)對訓(xùn)練集的2 600 個數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理:

其中:X*t為歸一化處理后的值;Xt為原始數(shù)據(jù)在t時刻的值;Xmin為原始數(shù)據(jù)的最小值;Xmax為原始數(shù)據(jù)的最大值。

3)特征選擇。特征選擇可以從原始數(shù)據(jù)特征集中選出若干個具有代表性的特征子集,這不僅可以實現(xiàn)數(shù)據(jù)降維,還可以提升在該特征子集上所構(gòu)建的回歸模型的性能。隨機森林算法通過特征隨機置換前后誤差分析,計算每個特征的重要性得分,得分越高,特征越重要,與其他特證選擇算法相比,隨機森林算法不僅能體現(xiàn)特征間的相互作用,而且還具有準(zhǔn)確性高、魯棒性好等優(yōu)點[26]。因此,本文使用隨機森林算法進(jìn)行特征選擇,特征選擇結(jié)果如圖4 所示,橫坐標(biāo)為特征。

圖4 特征選擇結(jié)果Fig.4 Feature selection results

從圖4 可以看出,CPU 利用率和mem 利用率是除時間特征之外經(jīng)過特征選擇后得分最高的2 個特征,因此,本文實驗選擇CPU 利用率和mem 利用率的組合值作為云平臺資源的負(fù)載值。負(fù)載值的計算公式如下:

其中:W為組合后的原始負(fù)載值;W1和W2分別代表CPU 負(fù)載值和mem 負(fù)載值;L1和L2分別代表CPU 和mem 的權(quán)重參數(shù)。本文根據(jù)特征的得分指數(shù)比例,設(shè)置L1為0.6,L2為0.4。

3.2 實驗過程

本文實驗是一個單步預(yù)測過程,預(yù)測流程如圖5所示。

圖5 預(yù)測流程Fig.5 Procedure of prediction

在獲取數(shù)據(jù)后,首先對原始數(shù)據(jù)進(jìn)行缺失值和標(biāo)準(zhǔn)化處理,當(dāng)原始數(shù)據(jù)缺失率大于30%時,舍棄該條數(shù)據(jù),若缺失率小于等于30%,則使用均值填充法對缺失值進(jìn)行填充,并將填充后的數(shù)據(jù)通過歸一化方法進(jìn)行標(biāo)準(zhǔn)化處理,利用隨機森林算法對標(biāo)準(zhǔn)化后的數(shù)據(jù)進(jìn)行特征選擇,根據(jù)特征的重要程度將特征選擇后得到的特征數(shù)據(jù)加入權(quán)重參數(shù)進(jìn)行組合,將組合后的負(fù)載值輸入GRU-LSTM 組合預(yù)測模型進(jìn)行訓(xùn)練,設(shè)置步長為12(根據(jù)前12 個數(shù)據(jù)來預(yù)測第13 個數(shù)據(jù))。最后,使用5 個評價標(biāo)準(zhǔn)對模型性能進(jìn)行評價,同時輸出模型預(yù)測結(jié)果。預(yù)測模型參數(shù)設(shè)置如表1 所示。

表1 參數(shù)設(shè)置Table 1 Parameters setting

模型預(yù)測結(jié)果(64 個樣本)如圖6 所示,從圖6 可以看出,本文所提GRU-LSTM 組合預(yù)測模型的預(yù)測結(jié)果與原始序列的趨勢基本一致。從圖7 可以看出(640 個樣本),本文GRU-LSTM 模型經(jīng)過訓(xùn)練后得到的預(yù)測數(shù)據(jù)與真實數(shù)據(jù)的誤差大多集中在-5.0~5.0 之間,誤差較小,因此,該組合預(yù)測模型預(yù)測精度較高。

圖6 GRU-LSTM 模型的預(yù)測結(jié)果Fig.6 Prediction results of GRU-LSTM model

圖7 GRU-LSTM 預(yù)測誤差結(jié)果Fig.7 GRU-LSTM prediction error results

3.3 結(jié)果分析

將本文模型與傳統(tǒng)的單一負(fù)載預(yù)測模型ARIMA、GRU、LSTM 進(jìn)行對比,同時還與文獻(xiàn)[16]提出的ARIMA-LSTM 組合預(yù)測模型、文獻(xiàn)[18]提出的Refined LSTM 模型、文獻(xiàn)[19]提出的Stacked LSTM模型進(jìn)行實驗對比。各模型的負(fù)載預(yù)測結(jié)果如圖8所示(64 個樣本),評價指標(biāo)結(jié)果如表2 所示,最優(yōu)結(jié)果加粗表示。

圖8 各模型的負(fù)載預(yù)測結(jié)果Fig.8 Load prediction results of each model

表2 各模型的評價指標(biāo)結(jié)果Table 2 Evaluation index results of each model

從圖8 和表2 可以看出:相較傳統(tǒng)的單一預(yù)測模型ARIMA、LSTM 以及GRU,本文GRU-LSTM 模型的預(yù)測精度較高,同時也驗證了組合預(yù)測模型的預(yù)測精度要優(yōu)于單一預(yù)測模型;相較組合預(yù)測模型ARIMA-LSTM、Refined LSTM 和Stacked LSTM,本文模型的預(yù)測精度同樣較高。雖然2 層網(wǎng)絡(luò)結(jié)構(gòu)相比3 層網(wǎng)絡(luò)結(jié)構(gòu)減少了參數(shù),但是這在一定程度上削弱了模型的學(xué)習(xí)能力。本文所提GRU-LSTM 模型結(jié)合GRU 訓(xùn)練速度快、LSTM 預(yù)測性能好的優(yōu)點,在預(yù)測精度和預(yù)測時間上取得性能提升。

為了對模型的泛化能力進(jìn)行驗證,設(shè)置不同的步長重復(fù)進(jìn)行實驗,使用explanied_variance_score 作為評價標(biāo)準(zhǔn),結(jié)果如圖9 所示。

圖9 不同步長下的可釋方差得分結(jié)果Fig.9 explanied_variance_score results under different steps

通過圖9 可以看出,GRU-LSTM 組合預(yù)測模型的可釋方差得分介于0.510~0.535 之間,即該組合模型在不同的步長情況下均可以有效地對云計算資源負(fù)載值進(jìn)行預(yù)測,其具備一定的泛化能力。

4 結(jié)束語

針對目前負(fù)載預(yù)測模型預(yù)測精度低且預(yù)測時間長的問題,本文提出一種基于LSTM 與GRU 的組合預(yù)測模型GRU-LSTM,以對云計算資源負(fù)載情況進(jìn)行預(yù)測。在阿里云平臺發(fā)布的集群公開數(shù)據(jù)集上進(jìn)行實驗,結(jié)果表明,相較ARIMA、LSTM 等模型,該負(fù)載預(yù)測模型具有較高的預(yù)測精度以及較短的預(yù)測時間,同時具有一定的泛化能力,將該模型應(yīng)用到實際的云平臺中,可以解決目前資源利用率不平衡的問題。下一步考慮通過優(yōu)化算法尋找模型的最優(yōu)參數(shù),或?qū)?shù)據(jù)進(jìn)行降噪處理,以提升本文模型的預(yù)測精度。此外,探索多變量和長時間序列的內(nèi)在關(guān)聯(lián)性并解決深度神經(jīng)網(wǎng)絡(luò)對輸入變化不敏感的問題,也是今后的研究方向。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 国产精品偷伦视频免费观看国产| 亚洲天堂精品视频| 午夜视频在线观看免费网站 | 91亚洲国产视频| 高清视频一区| 91精品啪在线观看国产| 欧美一级专区免费大片| 日韩乱码免费一区二区三区| 国产精品分类视频分类一区| 国产色伊人| 强奷白丝美女在线观看| 国产亚洲精品自在线| 亚洲天堂视频在线观看| av天堂最新版在线| 国产精品丝袜在线| 国产在线第二页| 亚洲人成网址| av性天堂网| 亚洲成人网在线观看| 午夜人性色福利无码视频在线观看| 四虎在线高清无码| 狠狠色香婷婷久久亚洲精品| 亚洲一区波多野结衣二区三区| 91伊人国产| 亚洲码一区二区三区| 久久久久无码国产精品不卡| 伊人成人在线| 97在线观看视频免费| 亚洲一区二区约美女探花| 欧美中文字幕在线二区| 久久久精品久久久久三级| 凹凸国产熟女精品视频| 欧美福利在线| 亚洲三级色| 东京热av无码电影一区二区| 丝袜美女被出水视频一区| 亚洲永久视频| 欧美国产菊爆免费观看 | 国产极品美女在线| 97超爽成人免费视频在线播放| 亚洲美女一区| 精品剧情v国产在线观看| 欧美成一级| 国产精鲁鲁网在线视频| 强乱中文字幕在线播放不卡| h视频在线播放| 日本爱爱精品一区二区| 欧美激情视频在线观看一区| 欧美日韩成人在线观看| 日本精品视频一区二区| 亚洲天堂网站在线| 青青青伊人色综合久久| 萌白酱国产一区二区| 又大又硬又爽免费视频| 日本在线国产| www.youjizz.com久久| 国产精品视频免费网站| 日本尹人综合香蕉在线观看 | 日本午夜精品一本在线观看 | 久久亚洲国产一区二区| 国产香蕉在线视频| 91在线视频福利| 国产综合日韩另类一区二区| 国产又粗又爽视频| 啦啦啦网站在线观看a毛片| 日韩欧美网址| 91久草视频| 久久精品国产一区二区小说| 国产手机在线ΑⅤ片无码观看| 国产SUV精品一区二区| 日本三级黄在线观看| 在线观看av永久| 日韩黄色精品| 国产成人综合亚洲欧美在| 国产99在线观看| 中日韩欧亚无码视频| 亚洲bt欧美bt精品| 91成人精品视频| 91精品视频在线播放| 99久久国产综合精品2020| 国产成人福利在线| 日本尹人综合香蕉在线观看|