999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)方法的電力負(fù)荷預(yù)測系統(tǒng)

2022-11-07 08:29:22柴廣志
科技創(chuàng)新與應(yīng)用 2022年31期
關(guān)鍵詞:模型

柴廣志,趙 永

(東北大學(xué),沈陽 110000)

電力負(fù)荷預(yù)測是基于綠色發(fā)展的理念所提出的一種技術(shù),其在電力系統(tǒng)穩(wěn)定經(jīng)濟(jì)運(yùn)行和合理調(diào)度計劃方面起著不可或缺的作用[1]。我國在“十四五”規(guī)劃中明確提出了“碳達(dá)峰”“碳中和”的總體目標(biāo)和促進(jìn)經(jīng)濟(jì)發(fā)展方式向綠色轉(zhuǎn)變,促進(jìn)資源總量管理與科學(xué)配置高質(zhì)量發(fā)展,全面提高資源效率的基本要求,這給電力負(fù)荷系統(tǒng)準(zhǔn)確預(yù)測的重要性提升到了一個新的臺階。

1 電力負(fù)荷預(yù)測國內(nèi)外發(fā)展現(xiàn)狀

目前國內(nèi)外學(xué)者針對電力負(fù)荷預(yù)測的研究可歸為3大類。

(1)基于統(tǒng)計方法的電力負(fù)荷預(yù)測方法,主要包括多元線性回歸分析[2]、主成分分析法等。但此類方法局限性較大,僅適合應(yīng)用于線性特征明顯比較平穩(wěn)的負(fù)荷數(shù)據(jù),但這與實(shí)際的負(fù)荷數(shù)據(jù)特征相反,因此此類方法預(yù)測精度較低,并不適合應(yīng)用于電力負(fù)荷預(yù)測。

(2)基于機(jī)器學(xué)習(xí)的電力負(fù)荷預(yù)測方法,主要包括梯度提升樹[3]、人工神經(jīng)網(wǎng)絡(luò)模型(Artificial Neural Network,ANN)[4]和人工專家系統(tǒng)(Artificial Expert Systems,AES)[5]等。此類方法與前一種方法相比,已經(jīng)可以對具有非線性和復(fù)雜性特征的負(fù)荷數(shù)據(jù)進(jìn)行處理,取得了不錯的預(yù)測精度,在一些競賽中曾大放異彩,但預(yù)測精度仍有進(jìn)步的空間。

(3)基于深度學(xué)習(xí)的電力負(fù)荷預(yù)測方法,主要包括深度置信網(wǎng)絡(luò)[6]、卷積神經(jīng)網(wǎng)絡(luò)[7]和深度卷積神經(jīng)網(wǎng)絡(luò)等。深度學(xué)習(xí)技術(shù)將電力負(fù)荷預(yù)測精度再次提高,但上述幾種模型并不具備處理負(fù)荷數(shù)據(jù)時序性的能力。后來有學(xué)者使用循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)對時間序列進(jìn)行處理[8],這個方法雖然能夠處理時序數(shù)據(jù),但其缺點(diǎn)是很難捕捉到長期的依賴關(guān)系,在處理長時間序列時容易發(fā)生梯度爆炸或梯度消失問題[9],因此需要使用其他的網(wǎng)絡(luò)模型來解決這一問題。

本文采取長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)來解決RNN梯度消失或爆炸問題,該方法的梯度傳播有很多條通道,最主要的一條是當(dāng)前細(xì)胞的信息狀態(tài)更新這一過程,該過程不會經(jīng)過Sigmoid函數(shù)處理,只有相乘與相加的計算方式,與當(dāng)前細(xì)胞信息狀態(tài)更新相關(guān)的權(quán)重值的更新不會因?yàn)樯窠?jīng)元鏈過長導(dǎo)致梯度消失,因此LSTM基本不會發(fā)生梯度消失或者梯度爆炸,在基于歷史負(fù)荷數(shù)據(jù)的長時間序列預(yù)測中表現(xiàn)較好,準(zhǔn)確率更高。

2 模型介紹

2.1 LSTM結(jié)構(gòu)單元介紹

門控機(jī)制負(fù)責(zé)在連接到記憶單元神經(jīng)網(wǎng)絡(luò)其他部分的邊緣設(shè)置權(quán)重,在梯度減小時選擇性地記憶反饋誤差函數(shù)的誤差參數(shù);記憶單元用來記錄當(dāng)前時刻狀態(tài),控制信息的傳遞[9];輸入門決定要保存和更新哪些信息,判斷當(dāng)前時刻網(wǎng)絡(luò)的輸入數(shù)據(jù)有多少要保存到當(dāng)前細(xì)胞狀態(tài);遺忘門負(fù)責(zé)判斷前一時刻的信息有哪些需要保存哪些需要遺棄;輸出門決定當(dāng)前神經(jīng)元細(xì)胞輸出的信息。LSTM單元結(jié)構(gòu)如圖1所示。

圖1 LSTM單元結(jié)構(gòu)

式中:σ(·)為Sigmoid激活函數(shù);xt為t時刻的輸入值;ht-1為t-1時刻LSTM的輸出值;Wxi為輸入層到輸入門的權(quán)重向量;Wxf為輸入層到遺忘門的權(quán)重向量;Wxo為輸入層到輸出門的權(quán)重向量;Whi為隱藏層到輸入門的權(quán)重向量;Whf為隱藏層到遺忘門的權(quán)重向量;Who為隱藏層到輸出門的權(quán)重向量;bi為輸入門偏置項(xiàng)、bf為遺忘門偏置項(xiàng)、bo為輸出門偏置項(xiàng)。

式中:Wxc為輸入層到細(xì)胞狀態(tài)的權(quán)重向量;Whc為隱藏層到細(xì)胞狀態(tài)的權(quán)重向量;bc為細(xì)胞狀態(tài)的偏置項(xiàng)。

隱藏層的當(dāng)前輸出計算公式為

2.2 基本思路

第一步:輸入數(shù)據(jù)集并對數(shù)據(jù)集做出預(yù)處理。

第二步:特征工程,定義功能函數(shù)用于構(gòu)造特征數(shù)據(jù)集和標(biāo)簽集,并且切分出X_train,X_test,Y_train,Y_test,然后創(chuàng)建批數(shù)據(jù)并設(shè)置序列長度。

第三步:構(gòu)建模型,設(shè)置LSTM神經(jīng)元節(jié)點(diǎn)個數(shù)與全連接層層數(shù)。

第四步,進(jìn)行模型編譯、訓(xùn)練和驗(yàn)證。

第五步:模型測試。

2.3 模型結(jié)構(gòu)

由圖2和圖3可知:

圖2 網(wǎng)絡(luò)模型

圖3 模型結(jié)構(gòu)

第一層為輸入層,將預(yù)處理過的數(shù)據(jù)輸入。

第二層為隱藏層,設(shè)置神經(jīng)元節(jié)點(diǎn)數(shù)為16個,對時序序列進(jìn)行處理。

第三層為全連接輸出層,設(shè)置為1層,將LSTM的輸出向量進(jìn)行維度變換。

2.4 模型訓(xùn)練過程

LSTM預(yù)測模型的訓(xùn)練過程分為3步:第一步進(jìn)行數(shù)據(jù)預(yù)處理,第二步進(jìn)行模型的訓(xùn)練,第三步進(jìn)行模型評價。

2.4.1 數(shù)據(jù)預(yù)處理

第一步對數(shù)據(jù)進(jìn)行向量化處理。由于神經(jīng)網(wǎng)絡(luò)訓(xùn)練需要大量數(shù)據(jù),為了減少訓(xùn)練時間,不能直接導(dǎo)入原始數(shù)據(jù)進(jìn)行訓(xùn)練,在訓(xùn)練之前需要將原始數(shù)據(jù)進(jìn)行向量化處理,以此用矩陣運(yùn)算替代循環(huán)運(yùn)算,達(dá)到減少訓(xùn)練時間的目的。

第二步對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理。神經(jīng)網(wǎng)絡(luò)采用時序反向傳播算法進(jìn)行訓(xùn)練,如果不對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理,原始數(shù)據(jù)中數(shù)值大和數(shù)值小的數(shù)據(jù)會對訓(xùn)練造成不利影響,難以找到最優(yōu)解[10]。因此,可以通過最小-最大歸一化方法將向量中的所有元素歸一化到區(qū)間[0,1],有利于快速準(zhǔn)確地尋找到最優(yōu)解,歸一化算法如式(5),即

式中:x為原始樣本數(shù)據(jù);Xmin為樣本數(shù)據(jù)最小值;Xmax為樣本數(shù)據(jù)最大值;x′為歸一化之后的新樣本數(shù)據(jù)。

并且用keras.callbacks.ModelCheckpointh函數(shù)在每一個epoch訓(xùn)練后根據(jù)參數(shù)保存一個效果最好的模型,讓權(quán)重達(dá)到最佳。模型的編譯采用adam優(yōu)化器和mae、mape及rmse 3種損失函數(shù),歸一化后數(shù)據(jù)分布情況如圖4所示。

圖4 歸一化后數(shù)據(jù)分布情況

本文使用的數(shù)據(jù)集是2 a的電力負(fù)荷數(shù)據(jù),間隔15 min記錄1次,1 d共96組。

2.4.2 模型訓(xùn)練

采用時序反向傳播算法對LSTM模型進(jìn)行訓(xùn)練。訓(xùn)練的目的是調(diào)整模型參數(shù)提高模型性能,從而提高模型預(yù)測準(zhǔn)確性。每次訓(xùn)練會根據(jù)損失函數(shù)反映出的誤差大小來對模型參數(shù)進(jìn)行調(diào)整,挑選出性能最優(yōu)的模型。訓(xùn)練過程如圖5所示[11]。

圖5 模型訓(xùn)練流程

2.4.3 模型評估

在一個訓(xùn)練回合內(nèi)需要先將數(shù)據(jù)集加載入模型開始訓(xùn)練再根據(jù)最后的梯度結(jié)果對模型參數(shù)作出修改。在訓(xùn)練中要選擇恰當(dāng)?shù)幕睾蠑?shù)來規(guī)避模型擬合不佳的不利影響。所以,在每個訓(xùn)練回合完畢后應(yīng)及時對該模型作出評估,讓回合數(shù)和模型性能達(dá)到最優(yōu)。具體步驟如圖6所示[11]。

圖6 最優(yōu)訓(xùn)練回合數(shù)確定流程

3 LSTM模型測試

由圖7可得出模型訓(xùn)練過程中隨著迭代次數(shù)的增多,train loss(訓(xùn)練集上的損失,是模型在訓(xùn)練集的擬合能力的體現(xiàn))與val loss(驗(yàn)證集上的損失,是模型在未見過的數(shù)據(jù)上的擬合能力的體現(xiàn))在減少,到第20個epoch減少速度放緩,趨于平穩(wěn)。因?yàn)閠rain loss與val loss都較小且val loss比train loss稍大,因此說明此模型的擬合效果較好。

圖7 LSTM損失函數(shù)曲線圖

由圖8和圖9可以得出,在測試集中,模型的預(yù)測數(shù)據(jù)曲線與測試集數(shù)據(jù)曲線擬合程度高,代表著預(yù)測精度高,模型的預(yù)測性能好。

圖8 模型驗(yàn)證結(jié)果

圖9 測試集前100個點(diǎn)的真值與預(yù)測值

本文分別使用平均絕對百分比誤差(Mean Absolute Percentage Error,MAPE),平均絕對誤差(Mean Absolute Error,MAE),均方根誤差(Root Mean Squared Error,RMSE)3種誤差值作為指標(biāo)對模型的預(yù)測效果進(jìn)行評價,MAPE可以反映出模型預(yù)測準(zhǔn)確性,其值越大,誤差越大。MAE可以反映出預(yù)測值誤差的實(shí)際情況,其值越大,誤差越大。RMSE可以反映出真實(shí)值與預(yù)測值的誤差,其值越大,誤差越大。

MAPE,MAE,RMSE計算公式如下

式中:yi為測試數(shù)據(jù)的真實(shí)值;為預(yù)測結(jié)果數(shù)據(jù)。

因此由表1可知,LSTM與KNN、SVM相比預(yù)測性能較好。

表1 不同算法性能預(yù)測對比

4 結(jié)束語

電力負(fù)荷預(yù)測的研究內(nèi)容主要是在電力系統(tǒng)所在的地區(qū)壞境、經(jīng)濟(jì)條件和氣候條件等基礎(chǔ)上來分析研究電力負(fù)荷歷史數(shù)據(jù),充分發(fā)揮出大數(shù)據(jù)的優(yōu)勢,在復(fù)雜的條件下能夠進(jìn)行高精度電力負(fù)荷預(yù)測。

電力負(fù)荷預(yù)測已成為電力系統(tǒng)制訂合理調(diào)度計劃的依據(jù)與安全平穩(wěn)經(jīng)濟(jì)運(yùn)行的基礎(chǔ),預(yù)測準(zhǔn)確度的提高對電源管理、城市規(guī)劃及其社會效益(節(jié)能減排)均有著重大意義。

本文將現(xiàn)在火熱的深度學(xué)習(xí)技術(shù)以節(jié)能減排的目的進(jìn)行電力負(fù)荷預(yù)測,并且經(jīng)過對比選出適合的長短期神經(jīng)網(wǎng)絡(luò)LSTM,本文LSTM模型具有預(yù)測精度高、迭代速度快和調(diào)整的參數(shù)少等優(yōu)勢,能夠較好地解決電力負(fù)荷預(yù)測問題[12],并且在LSTM的網(wǎng)絡(luò)模型中進(jìn)行優(yōu)化,達(dá)到了較好的電力負(fù)荷預(yù)測效果,為電力負(fù)荷預(yù)測提供了一種新的思路。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點(diǎn)
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 国产最新无码专区在线| 亚洲美女视频一区| 92午夜福利影院一区二区三区| 国产激情无码一区二区免费| 狠狠色噜噜狠狠狠狠色综合久| 色综合天天娱乐综合网| 福利国产微拍广场一区视频在线| 欧美性猛交一区二区三区| 狠狠色丁香婷婷| 伊人久久大香线蕉影院| 色哟哟精品无码网站在线播放视频| 伊人五月丁香综合AⅤ| 夜夜操国产| 97久久人人超碰国产精品| 2021精品国产自在现线看| 亚洲精选无码久久久| 精品无码一区二区在线观看| 国产在线视频欧美亚综合| 无码中字出轨中文人妻中文中| 欧美视频在线第一页| 国产在线观看成人91| 国产精品污污在线观看网站| 97精品国产高清久久久久蜜芽| 国产精品亚洲欧美日韩久久| 国产特级毛片aaaaaaa高清| 日韩无码真实干出血视频| 欧美精品导航| 日韩专区欧美| 91美女视频在线| 青青草国产一区二区三区| 国产最爽的乱婬视频国语对白| 天天综合亚洲| 国产99精品视频| 亚洲一道AV无码午夜福利| 伊人AV天堂| 亚洲第一色网站| 亚洲人成日本在线观看| 亚洲欧美日本国产专区一区| 国产综合无码一区二区色蜜蜜| 五月综合色婷婷| 亚洲欧美日韩成人高清在线一区| 曰AV在线无码| a亚洲视频| 先锋资源久久| 在线va视频| 女人18毛片久久| 国产又黄又硬又粗| 亚洲欧美天堂网| 国产91无毒不卡在线观看| 91精品啪在线观看国产91九色| 精品国产成人三级在线观看| 热久久综合这里只有精品电影| 2021最新国产精品网站| 波多野结衣久久高清免费| 91伊人国产| 亚洲第一视频免费在线| 日韩精品免费一线在线观看| 国产精品视频猛进猛出| 2019年国产精品自拍不卡| 国产日韩av在线播放| 国产精品自拍合集| 韩国福利一区| 国产一区二区三区在线观看视频 | 毛片免费在线视频| 欧美成人a∨视频免费观看 | 白浆免费视频国产精品视频 | 无码一区二区波多野结衣播放搜索| 亚洲成AV人手机在线观看网站| 午夜视频在线观看区二区| 97视频免费看| 欧美激情福利| 国产成人无码播放| 不卡视频国产| 天堂成人av| 久久久久88色偷偷| 欧美精品1区| 成人综合网址| 日韩二区三区无| 久久精品国产精品一区二区| 亚洲黄网在线| 亚洲三级影院| 国产精品福利一区二区久久|