陳亮, 佟曉童, 李繪妍, 張晶, 鄭鵬
(1.國家電網(wǎng)遼寧電力有限公司, 遼寧 沈陽 110004;2.國家電網(wǎng)遼寧電力有限公司撫順供電公司, 遼寧 撫順 113008)
深度融合定量物理映射技術、歷史運維數(shù)據(jù)深度分析技術,較長周期內(nèi)的穩(wěn)定預測改革走向技術等關于電網(wǎng)人事制度智慧改革支撐技術,對支撐技術進行不停地探索以完成疊加累積效應,盡早完成對企業(yè)績效工資分配靜態(tài)瓶頸[1]的突破,構(gòu)建電力企業(yè)績效工資分配與效益營收耦合對數(shù)據(jù)的全面收集、追蹤至全過程、完成全方位的共享、全景方面的主動預警系統(tǒng),全方面實現(xiàn)電力企業(yè)效益營收、崗績分離下的職工貢獻量化、績效工資分配與效益營收的物理映射、財政績效工資審計等完整生命周期內(nèi)的靜態(tài)高效同享互存,提出了一種基于歷史運維大數(shù)據(jù)挖掘的電力企業(yè)績效工資分配感知模型。基于國家電網(wǎng)歷史運維大數(shù)據(jù),構(gòu)建績效工資分配與效益營收的物理映射,給出全息運維數(shù)據(jù)與績效工資分配的定量耦合關系[2],引入機器學習算法,構(gòu)建較長周期內(nèi)的績效工資分配感知穩(wěn)定預測系統(tǒng),該系統(tǒng)以Agent作為架構(gòu)基礎,執(zhí)行動作(Action)的同時會對當前和收益相關的數(shù)據(jù)與將來可能會發(fā)生的狀況反饋給當前的環(huán)境,由系統(tǒng)對當前的情況進行戰(zhàn)略模擬,形成具備潛在規(guī)律挖掘、定量映射生成、改革走向精準預測、效益營收預警等功能的績效工資分配全局協(xié)同精準化預測架構(gòu)[3]。Python 3.5.2內(nèi)核作為基礎,Gym 0.9.2圖形化開發(fā)插件GUI作為輔助,以此開發(fā)出一個電力企業(yè)績效工資分配感知原型系統(tǒng),它具備了能在一個固定周期內(nèi),通用電力企業(yè)績效工資分配感知全流程效能,這就可以滿足各電力企業(yè)由于文化差異而導致的績效工資分配精確感知需求,非常具有推廣價值。
借助國家電網(wǎng)公司共享數(shù)據(jù)平臺,形成電力企業(yè)歷史運維大數(shù)據(jù)池,引入Lasso類帶正則項的線性模型構(gòu)建績效工資分配與效益營收的物理映射,通過對數(shù)據(jù)進行事先分析整理,在處理的過程中對各電力企業(yè)最初始的到當前的歷史數(shù)據(jù)進行不同程度的處理,以此對需要的數(shù)據(jù)特征完成選擇并進行深度聚類分析,給出全息運維數(shù)據(jù)與績效工資分配的定量耦合關系[4],從函數(shù)擬合角度精確描述映射數(shù)據(jù)生成機制。借助模型在訓練集上的訓練誤差與在測試集上的測試誤差的變化趨勢最優(yōu)化提高模型的擬合適應性,如圖1所示。

圖1 績效工資分配與效益營收的物理映射模型邏輯示意圖
通過對回歸系數(shù)進行差異性的壓縮,產(chǎn)生估計偏移,增加模型的穩(wěn)定性,設定未來可擴展電力企業(yè)效益營收為模型空間,設定電力企業(yè)可預見到的效益營收為受限模型空間,構(gòu)建真實值、觀察值、總體最好估計、當前最好估計、壓縮估計之間的相對位置關系,用最優(yōu)單模型Xgboost進行半監(jiān)督最優(yōu)評價[5],隨機組合并重復多次,獲取績效工資分配與效益營收之間的穩(wěn)定物理映射。
國家電網(wǎng)SG-EA架構(gòu)管控標準作為設計的指導標準,對國家電網(wǎng)公司的當前現(xiàn)有的信息進行充分的利用,如圖2所示。

圖2 績效工資分配與效益營收的物理映射硬件部署示意圖
設計了績效工資分配與效益營收的物理映射硬件部署邏輯圖,初步構(gòu)建歷史運維數(shù)據(jù)采集、差異性效益營收數(shù)據(jù)分離、目標運維數(shù)據(jù)池生成、績效工資分配與效益營收物理映射建立等一體化硬件支持體系[6]。鑒于國家電網(wǎng)遼寧省電力公司以SG-UAP3.0開發(fā)平臺作為基礎,進行開發(fā),以二級部署方式來完成對微應用的附屬功能的開發(fā),國家電網(wǎng)作為開發(fā)依托,以此實現(xiàn)對電力企業(yè)績效工資的全局協(xié)調(diào)和精準化管理,同時具備績效工資分配與效益營收動態(tài)建模、定量耦合關系實時修正、較長周期內(nèi)的改革走向穩(wěn)定預測等全方位績效工資分配感知等支撐功能[7]。將績效工資分配與效益營收的物理映射硬件部署劃分為幾個部分,主要包括外網(wǎng)的微應用、移動終端和PC端外網(wǎng)、內(nèi)網(wǎng)的微應用等,其中的外網(wǎng)微應用是不需要DMZ分區(qū)作為基礎的認證服務器的,隔離裝置配置信息是初始數(shù)據(jù)源的接口配置,內(nèi)網(wǎng)的微應用仍然需要國家電網(wǎng)作為依托進行統(tǒng)一認證,服務器對其進行合法性校驗,如果登錄成功,將會主動觸發(fā)存在于內(nèi)網(wǎng)中的服務器隊列消息傳送系統(tǒng),調(diào)用數(shù)據(jù)庫總線請求ERP系統(tǒng)完成對數(shù)據(jù)的保存或釋放,對各電力企業(yè)的運維大數(shù)據(jù)進行多方面的分析,做到實時反饋績效工資分配與效益營收的物理映射信息給內(nèi)網(wǎng)Web端,為數(shù)據(jù)池動態(tài)更新提供驅(qū)動。
基于給出的績效工資分配與效益營收的物理映射關系,引入機器學習算法,構(gòu)建較長周期內(nèi)的績效工資分配感知穩(wěn)定預測機制,形成具備潛在規(guī)律挖掘、定量映射生成、改革走向精準預測、效益營收預警等功能的績效工資分配全局協(xié)同精準化預測架構(gòu)。通過對數(shù)據(jù)的事先處理,在處理的過程中對各電力企業(yè)最初始到當前的營業(yè)數(shù)據(jù)進行不同程度的分析和處理,完成數(shù)據(jù)的特征選擇,對電力企業(yè)績效和電力營收進行預見并同時完成詳細的分類,同時系統(tǒng)還可以完成深度的學習,實現(xiàn)系統(tǒng)的升級;在數(shù)據(jù)進行事先處理的子過程當中,對處理過的數(shù)據(jù)進行進一步的強化學習[8],在深度卷積神經(jīng)網(wǎng)絡的過程中把Q學習機制導入,進一步提升系統(tǒng)的學習能力,該系統(tǒng)以單層Q網(wǎng)絡模型作為基礎,以異通道輸入信息的方式來實現(xiàn)和環(huán)境的交互,同時完成動作——獎勵值隔離,以融入雙重Q網(wǎng)絡模型的方式來提升系統(tǒng)對動作數(shù)據(jù)的感知、預見和決策;對子過程進行的深度強化學習進行測試,充分利用單層Q網(wǎng)絡和雙層Q網(wǎng)絡的優(yōu)點,提升系統(tǒng)的學習能力和對數(shù)據(jù)的感知進而構(gòu)建具有自適應性的電力企業(yè)績效工資分配感知模型。
利用深度卷積神經(jīng)網(wǎng)絡與全連接神經(jīng)網(wǎng)絡建立較長周期內(nèi)的績效工資分配感知穩(wěn)定預測機制,選取績效工資分配與效益營收的物理映射作為原始訓練數(shù)據(jù),一般都是用Q函數(shù)來表現(xiàn),這能夠讓在當前復雜網(wǎng)絡模型端到端感知到更多東西,并表現(xiàn)出一種較好的狀態(tài)。我們還是要先從企業(yè)效益營收運行規(guī)律開始著手,了解實際的運行發(fā)展軌跡之后再成為一項關鍵性決策因素。通過利用智能體在與環(huán)境交互過程中產(chǎn)生的隱形變量來做出最終決策,這也是帶動下一個動作自然發(fā)生的初始動機。特別是在一個高密度價值數(shù)據(jù)持續(xù)輸入狀態(tài)之下,才能夠讓特征提取變得更加簡單,并確保后續(xù)的多維迭代卷積計算才會更加順利進行下去,此時的電力市場監(jiān)測工作才能落實到位。當智能體機制順利引入,深度強化學習建模則應該參照以下方式。
當Q值已經(jīng)接近于零,面對于此種情況,則必須要積極運用探索/利用(exploration/exploitation)機制來執(zhí)行后續(xù)操作,這其實就是大眾口中的epsilon貪婪策略,當某一隨機數(shù)額被確定為π,在Q(s,a)表征狀態(tài)之下,s下執(zhí)行動作a時的Q值函數(shù),α表示學習率;R(s,a)表示表征狀態(tài)s下執(zhí)行動作a時所獲取的即時獎勵,所有的字母都有實際的劃分,特別是在當下的迭代周期之下,Q-table中的一個值[9]也會更新迭代,由此獲得更加完整的Q-table(其中π為policy),如式(1)。
Qπ(s,a)=Es′[r(s,a)+γEa′~π[Qπ(s′,a′)]]
(1)
利用式(1)不斷迭代,則Q(s,a)函數(shù)一般可以利用Q-learning算法來進行估算,這也會帶動Bellman方程來促進Q(state,action)的迭代。Q-table當中的每一個數(shù)值表征都會在當下狀態(tài)s下采用動作a來獲得折現(xiàn)和,最終得出最優(yōu)的一種策略。
當處于這一種情況,下式始終都是由Q-target代替,這也是Bellman方程和epsilon貪婪策略之下所應該獲得的獎勵,目標也會帶動Q值與Q-target更加接近t。根據(jù)Q-learning原理可以知道,其適用范圍是較為局限的[10],一般情況下很難突破。這時候引入DeepQ-Networks (DQN)才能夠完成建模,具體情況如下。
面對企業(yè)績效工資分配感知這一問題,還應該要先了解Q-Learning,只有這樣才會讓Loss Function的Q-target值和Q-eval值之間的差值最小化,則目標函數(shù)整體可以通過隨機梯度下降方法進行優(yōu)化,如式(2)。
?θiLi(θi)=Es,a~ρ(·);s′~ε[(γ+γmaxa′Q(s′,a′;θi-1)-
Q(s,a;θi))?θiQ(s,a;θi)]
(2)
經(jīng)驗池的功能其實比較專一,就是要讓初始訓練數(shù)據(jù)的相關性以及非靜態(tài)分布問題全部都解決完畢。每一個agent與環(huán)境交互得到的轉(zhuǎn)移樣本(st,at,rt,st+1)都是需要進行恰當化處置的,并存儲在回放記憶單元內(nèi),只要是需要訓練,就可以隨機選擇一些,Q函數(shù)代表了在確定性策略μ之下所選擇的獎勵期望值,最終所涉及的Qu為式(3)。
Qμ(st,at)=E[r(st,at)+γQμ(st+1,μ(st+1))]
(3)
對績效工資分配感知模型進行適應性優(yōu)化,在主感知函數(shù)中引入雙重Q網(wǎng)絡機制,才能夠用另外一個網(wǎng)絡(Target.net)逐步產(chǎn)生Q-target值,除此之外,Q(s,a;θi)表示當下網(wǎng)絡Eval.net的實際輸出,這也能夠權(quán)衡出當下狀態(tài)動作所對應的值函數(shù);Q(s,a;θ-i) 表示Target.net的輸出,當已經(jīng)將其帶入進去之后,Q-target值的公式才能夠得出最終的目標Q值[11]。特別是在Loss Function之下,eval.net的參數(shù)也會進入更新狀態(tài),Main.net的參數(shù)也會與Target.net網(wǎng)絡連接到一起,則雙重DQN的損失函數(shù)等價表示,如式(4)、式(5)。
L(θ)=Es,a,r,s′[(Q*(s,a|θ)-y)2]
(4)

(5)
當雙重Q網(wǎng)絡機制已經(jīng)充分融入進去之后,Q網(wǎng)絡中的參數(shù)也會被直接定義為θQ,Qμ(s,μ(s))代表的是使用μ策略在s狀態(tài)來獲得最佳的回報期望值,這一般都需要用積分來求,采取策略μ可以判斷出實際情況的好壞,如式(6)。

(6)
根據(jù)優(yōu)化模型的消息處理機制,構(gòu)建基于機器學習的電力企業(yè)績效工資分配感知模型多維集成應用,才能夠讓整個系統(tǒng)全業(yè)務的統(tǒng)一數(shù)據(jù)被匯集到一起,特別是在了解了實際的開放式服務總線后,這需要借助現(xiàn)役ERP系統(tǒng)統(tǒng)一數(shù)據(jù)訪問機制來確保訪問能夠?qū)崿F(xiàn)共享,如圖3所示。

圖3 電力企業(yè)績效工資分配感知模型多維集成應用邏輯示意圖
從圖3可以看出,還專門設計了面向電力企業(yè)績效工資分配感知模型集成應用的開放式數(shù)據(jù)共享接口架構(gòu),來讓業(yè)務數(shù)據(jù)庫信息全部都共享出去,開放式服務總線、融合數(shù)據(jù)共享接口的消息中間件就會與優(yōu)化模型業(yè)務協(xié)同和數(shù)據(jù)共享機制的電力企業(yè)績效工資分配感知系統(tǒng)多位微應用服務進行數(shù)據(jù)交互,實現(xiàn)內(nèi)部數(shù)據(jù)的共享交互,通過基于機器學習的電力企業(yè)績效工資分配感知模型多維集成應用,利用Web內(nèi)網(wǎng)服務器集群能夠?qū)⑺袛?shù)據(jù)匯集到一起。
按照國家電網(wǎng)公司軟件立項開發(fā)標準,對優(yōu)化模型開展典型應用場景下的性能仿真(技術成熟度三級),在PyCharm內(nèi)核集成開發(fā)環(huán)境下,根據(jù)Python 3.7.4內(nèi)核,還需要直接引入Numpy擴展程序庫,針對于已解碼數(shù)據(jù)包來完成格式歸類,從而真正生成.CSV格式文件,利用Merge函數(shù)來對合并數(shù)據(jù)表是一種非常正確的現(xiàn)象,這能夠最大程度的將交集處理工作完成,并推進后續(xù)匹配合并的達成;Append函數(shù)還必須要對數(shù)據(jù)集進行重塑處理,將時間序列明確下來。在Levels進程之下,還能夠建立有益信息推斷鑰匙機制,確保分組標記工作順利下去;利用Group_by和Pivote_table函數(shù)可以更好地完成后續(xù)的冗余度校驗,根據(jù)Pyecharts類庫來給出一種可視化的電力企業(yè)績效工資分配與效益營收物理映射場景。基于Python 3.7.4內(nèi)核,在PyCharm集成開發(fā)環(huán)境下,選取經(jīng)過清洗處理的映射數(shù)據(jù)為驗證載體數(shù)據(jù),利用國家電網(wǎng)遼寧省電力有限公司某供電公司為基礎原始數(shù)據(jù)采集環(huán)境,主要選擇了2017年06月—2019年08月某供電公司績效工資分配感知數(shù)據(jù)來作為樣本進行分析,特別是面對于優(yōu)化機制作用下的績效工資分配感知穩(wěn)定預測模型性能、較長周期內(nèi)的績效工資分配感知穩(wěn)定預測機制進行了仿真驗證,仿真結(jié)果如圖4、圖5所示。
基于圖4、圖5可知,對較長周期內(nèi)的績效工資分配感知穩(wěn)定預測模型進行適應性優(yōu)化后可以大幅度減小模型的預測誤差,更加清晰地展示衡量預測值與真實值之間的平均損失大小,對提高模型的全局泛化能力具有積極作用,根據(jù)適度調(diào)整新預測值中新數(shù)據(jù)以及原預測值所占的比例系數(shù)能夠更好地完成后續(xù)的處理工作,其表現(xiàn)出明顯的自適應性,特別是在如今的應用電力企業(yè)之下,調(diào)整差異也成為一種較為良好的方式,這也是較長周期內(nèi)的績效工資分配感知穩(wěn)定預測。

圖4 優(yōu)化機制作用下的績效工資分配感知穩(wěn)定預測模型性能仿真示意圖

圖5 較長周期內(nèi)的績效工資分配感知穩(wěn)定預測機制仿真效能圖
如果是采取微應用擴展的這種方式,能夠更好地完成國家電網(wǎng)遼寧省電力有限公司現(xiàn)役的ERP系統(tǒng)的適應性改造,電力企業(yè)全息歷史運維數(shù)據(jù)便捷獲取與融合也會更加緊密,效益營收的物理映射自動生成、全息運維數(shù)據(jù)與績效工資分配的定量耦合關系實時反饋等軟件處理進程,將單獨的內(nèi)存資源共享出去,并完成內(nèi)網(wǎng)的交互工作[12],確保數(shù)據(jù)全景能夠完全共享出去。挑選國家電網(wǎng)遼寧省電力有限公司某供電公司為原型系統(tǒng)應用載體,特別是在Python 3.5.2內(nèi)核之下,最好的方式就是通過運用平臺Tensorflow 1.2.1和Gym 0.9.2圖形化開發(fā)插件GUI來構(gòu)建一個通用績效工資分配感知系統(tǒng),軟件采用多線程模式,遵循可移植、模塊化的設計原則,利用Anacoda搭建專用的TensorFlow訓練環(huán)境,通過利用鼠標觸發(fā)事件調(diào)用方式能夠完成供主線程的分時調(diào)用,這在大程度上也算是節(jié)約了一定的內(nèi)存資源。軟件主要是朝著實用性、工程化方面在發(fā)展,并給出一系列動態(tài)提醒,原型系統(tǒng)調(diào)用優(yōu)化感知模型實時工作可視圖(中間損失函數(shù))如圖6所示。

圖6 原型系統(tǒng)調(diào)用優(yōu)化感知模型實時工作可視圖(中間損失函數(shù))
作為一個合格的國家電網(wǎng)遼寧省電力有限公司,在完成了53項ERP系統(tǒng)功能點適應性改造工作之后,整個過程也會更加明確,這也能夠在電力企業(yè)績效工資分配感知原型系統(tǒng)之上展開融合工作,從而評判出實際的效能,特別是選取目前遼寧省電力公司現(xiàn)役使用的某人事薪酬核算系統(tǒng)為對照系統(tǒng),選取某供電公司一個效益營收核算周期產(chǎn)生的歷史運維數(shù)據(jù)為原始數(shù)據(jù),從運維數(shù)據(jù)挖掘有效率、績效工資分配與效益營收的物理映射生成實時性、較長周期內(nèi)的績效工資分配感知穩(wěn)定預測擬合率等方面進行定量分析,圍繞指標權(quán)重全局最優(yōu)度量、因素加權(quán)主變量均衡修正、績效工資分配感知穩(wěn)定預測等層面的處理效率來完成后續(xù)的定性分析,如表1所示。




表1 原型系統(tǒng)工程化應用效能對比表
根據(jù)表1來進行分析,并由定性和定量這兩個層面來做出深度思索,原型系統(tǒng)具備績效工資分配與效益營收動態(tài)建模、定量耦合關系實時修正、較長周期內(nèi)的改革走向穩(wěn)定預測等全方位績效工資分配感知體系效能,在指標權(quán)重全局最優(yōu)度量、因素加權(quán)主變量均衡修正、績效工資分配感知穩(wěn)定預測等層面具有明顯優(yōu)勢。
特別是面對于本質(zhì)非線性的、存在耦合的多維因素約束,此時的電力企業(yè)績效工資也會更加明確,就此也會提出關于歷史運維大數(shù)據(jù)挖掘的電力企業(yè)績效工資分配感知模型。引入Lasso類帶正則項的線性模型構(gòu)建績效工資分配與效益營收的物理映射,給出全息運維數(shù)據(jù)與績效工資分配的定量耦合關系,引入機器學習中的智能體機制,構(gòu)建較長周期內(nèi)的績效工資分配感知穩(wěn)定預測機制,形成具備潛在規(guī)律挖掘、定量映射生成、改革走向精準預測、效益營收預警等功能的績效工資分配全局協(xié)同精準化的一份明確的預測架構(gòu)。特別是在了解到谷歌的Tensorflow 1.2.1和OpenAI的Gym 0.9.2環(huán)境之后,后續(xù)的發(fā)展也會更加順暢,面對這種情況,則應該要對這二者的圖形化示意進行仿真處理,這也是當下的一種普遍做法,采用顯著差異顏色在仿真圖當中來明確實際對比曲線,并就此做出說明。該篇論文中所提到的模型其實是能夠很好地完成多維波動非線性電力企業(yè)績效工資分配感知模型的建立,特別值得一提的是,其還會在穩(wěn)定性、感知自主性等諸多方面表現(xiàn)出更為明確的優(yōu)勢,為了推進下一步的發(fā)展,則應該要構(gòu)建起一個應用績效工資分配感知模型,僅憑一個開發(fā)插件GUI就能夠出臺一個明確的分配感知系統(tǒng),在每一個流程都明確下來的情況下,這就能夠最大程度的把電力公司差異化的績效工資分配感知需求予以滿足。