999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于云計算的電力系統(tǒng)計算分析平臺構建

2022-09-02 09:09:58蘇寅生周挺輝鄭外生趙利剛甄鴻越黃冠標
南方電網(wǎng)技術 2022年7期
關鍵詞:用戶分析服務

蘇寅生,周挺輝,鄭外生,趙利剛,甄鴻越,黃冠標

(1. 中國南方電網(wǎng)電力調(diào)度控制中心,廣州510663;2. 直流輸電技術國家重點實驗室(南方電網(wǎng)科學研究院),廣州510663;3. 中國南方電網(wǎng)有限責任公司,廣州510663)

0 引言

電力系統(tǒng)建模與仿真分析是支持大電網(wǎng)安全穩(wěn)定運行的重要技術基礎,南方電網(wǎng)在多年的規(guī)劃運行中應用多種計算分析工具,開展了穩(wěn)態(tài)分析、動態(tài)分析、暫態(tài)分析等多類型的仿真計算。但隨著大量分布式新能源的接入以及系統(tǒng)建模的精細化[1]、控制系統(tǒng)的復雜化[2]、系統(tǒng)規(guī)模的不斷擴大[3],仿真效率將急劇降低,當前單人單機的仿真模式已經(jīng)無法滿足日益增長的仿真需求。

在國內(nèi),國家電網(wǎng)公司首先于2015年構建新一代特高壓交直流電網(wǎng)仿真平臺,核心仿真分析平臺為部署于中國電科院的超算平臺。超算平臺承載著超級并行計算和仿真計算核心程序,并以網(wǎng)絡方式對外提供計算服務,另外通過協(xié)同計算平臺提供異地計算能力,滿足大批量故障任務并行批處理[4 - 5]。

相對而言,南方電網(wǎng)公司在基于云計算共享的電力系統(tǒng)計算分析平臺方面起步較晚,仍主要采用傳統(tǒng)的工作模式,未能充分利用先進的高性能計算和智能化處理技術。另一方面,南方電網(wǎng)總調(diào)為解決傳統(tǒng)集中式架構中的諸多問題,因地制宜地提出了兼顧性能與安全性的分布式解決方案,實現(xiàn)了從集中式架構轉(zhuǎn)變?yōu)榉植际郊軜嫷霓D(zhuǎn)變,以數(shù)字化、智能化代替了傳統(tǒng)的“煙囪”設計。依托阿里私有云構建了電力行業(yè)第一個完全基于互聯(lián)網(wǎng)新技術的調(diào)度自動化系統(tǒng)基礎平臺[6]。

基于上述挑戰(zhàn)和機遇,本文以南方電網(wǎng)總調(diào)分布式底層平臺為依托,提出了基于現(xiàn)代互聯(lián)網(wǎng)新技術的電力系統(tǒng)計算分析平臺。異于傳統(tǒng)超算平臺自研管理及調(diào)度系統(tǒng)管理刀片機的做法,本文以當前互聯(lián)網(wǎng)領先的Kubernetes集群管理系統(tǒng)及Docker容器化部署技術為基礎,對基于云計算共享的電力系統(tǒng)計算分析平臺進行探索,提出了可實時動態(tài)擴展的集群系統(tǒng)架構,構建了高效、可靠、綠色的共享計算平臺和協(xié)同工作平臺,并與傳統(tǒng)的計算結果進行比對,驗證該平臺的準確性、可靠性及效率。

1 計算分析平臺的需求分析

在電力系統(tǒng)計算分析方面,南方電網(wǎng)各級調(diào)度、規(guī)劃部門傳統(tǒng)的計算模式在數(shù)據(jù)準備、執(zhí)行仿真、結果處理等各階段均需大量人工操作,而且耗時較長,電網(wǎng)仿真分析的并行化和自動化程度較低,與現(xiàn)代計算機發(fā)展脫節(jié)。此外,在大電網(wǎng)的大量計算分析中涉及的電網(wǎng)運行方式眾多,但目前僅主要關注電網(wǎng)的穩(wěn)定性結論,對于大量的有價值的計算過程信息并沒有進行有效地存儲和分析,可能對后續(xù)分析工作造成不利影響。此外,隨著新型電力系統(tǒng)的發(fā)展,未來將有較多的新能源進行接入,新能源的隨機性、波動性、間歇性使得發(fā)電計劃的不確定性大幅增加,傳統(tǒng)的典型工況(豐大、豐小、枯大、枯小)難以覆蓋新能源電力系統(tǒng)的運行狀態(tài)。未來將會構建海量的運行方式進行仿真計算,即便進行了典型運行方式的辯識,動輒還需要數(shù)十上百個運行方式的計算。在未來找到合理的安全邊界解析方法大量縮減運行方式數(shù)量前,為保障系統(tǒng)的安全穩(wěn)定性,對大量運行方式的計算是較為可靠的方法之一。面對比當前增加十多倍工作量的計算,傳統(tǒng)的單機或單機多核計算在效率上已經(jīng)捉襟見肘。另一方面,國家電網(wǎng)的超算中心仿真平臺的研發(fā)已經(jīng)證明了,開發(fā)一套集中管理式的電力系統(tǒng)計算分析平臺經(jīng)濟社會價值意義重大,可為提升電網(wǎng)分析水平提供強有力支撐。

為支撐電網(wǎng)的安全穩(wěn)定運行,實行數(shù)字電網(wǎng)推動構建新型電力系統(tǒng)[7],本文所開發(fā)的平臺應具備如下功能。

1)承載電力系統(tǒng)主要分析功能的核心程序,包括但不限于潮流、機電暫態(tài)、短路計算、交直流相互影響分析等[8]。上述程序以網(wǎng)絡的形式對外提供服務,可滿足用戶大批量故障任務的并行批處理。另一方面可實現(xiàn)復雜單一故障的并行計算,例如電力系統(tǒng)安全穩(wěn)定導則(2019年版)[9]新增的機電-電磁暫態(tài)混合仿真需求,為電網(wǎng)運行分析提供高效、精確的仿真能力。

2)具備滿足各級規(guī)劃、調(diào)度人員開展異地聯(lián)合計算分析的功能,包括但不限于計算編輯、計算設置、單任務計算、批處理任務提交、結果分析等。實現(xiàn)不同層級用戶的并發(fā)、協(xié)同使用需求,最終實現(xiàn)網(wǎng)、省、地計算業(yè)務的底層資源共享和一體化管理。

3)具備價值信息的存儲與回溯能力。對于大量有價值的計算過程與結果信息,一方面通過友好界面為初始用戶提供決策信息,另一方面通過集中式的儲存,為日后發(fā)展人工智能學習、大數(shù)據(jù)挖掘提供充分的歷史信息。

2 關鍵技術與技術難點

計算分析平臺構建關鍵點有3個:高效、可靠以及綠色。高效即計算速度要快,能在盡量短的時間內(nèi)完成用戶的計算;可靠即系統(tǒng)的安全性高,在平臺部分故障的情況下依然不中斷服務;綠色即節(jié)能,盡量減少資源的占用和閑置浪費。

基于現(xiàn)代計算機的發(fā)展,高效以及可靠完全可以依靠堆砌硬件予以實現(xiàn),通過聯(lián)合部署眾多的多核計算機、服務器等,近年來涌現(xiàn)了多種技術方案[10 - 13],提供數(shù)百核乃至數(shù)萬核進行并行計算。然而電力系統(tǒng)的仿真計算閑時忙時特征尤其明顯,在年度方式、迎峰度夏期間,計算需求將明顯倍增,平時十倍、數(shù)十倍的計算需求將沖擊計算平臺。為了應付在這期間的高并發(fā)需求,需要底層硬件平臺需提供足夠的算力,不得不部署大量的底層計算機。但峰值過后,大量的閑置計算機又造成了資源的浪費,不符合綠色的特點。同時,如何對眾多的計算節(jié)點進行有效地管理,提供不間斷的運行服務,也是重點之一。

為實現(xiàn)上述的關鍵點,既能夠高可靠性地滿足用戶的使用需求,同時又不造成資源的浪費,是計算分析平臺的技術難點。為此,本文從技術選型、系統(tǒng)設計等方法進行了綜合考慮。通過對現(xiàn)代的計算機技術的綜合比較,結合互聯(lián)網(wǎng)開發(fā)的前沿技術,提出了基于云平臺的可實時動態(tài)擴展的集群系統(tǒng)架構。該架構實現(xiàn)了從傳統(tǒng)單體應用向微服務化的轉(zhuǎn)變,將數(shù)據(jù)管理、計算服務、統(tǒng)計服務、歸檔服務進行了解耦與隔離。去中心化的設計帶來了更高的可用性和彈性、松耦合也便于各個服務的獨立升級維護,并阻止了可能的系統(tǒng)故障蔓延。該部分在第3節(jié)進行了探索。通過彈性擴展的系統(tǒng)設計共享調(diào)度云數(shù)萬核心的資源池,從硬件、軟件等多層次實現(xiàn)了資源的共享,為用戶提供了高性能計算服務的同時,最大限度地減少了資源的占用,實現(xiàn)對硬件的綠色使用。

3 計算分析平臺技術路線

3.1 基礎硬件平臺選型

自1983年中國首臺超算銀河一號研制成功后,國內(nèi)超算已有近40年的發(fā)展歷史,并成為了國家科技發(fā)展水平和綜合國力的標志之一。而在2006年亞馬遜云服務Amazon Web Services (AWS)對外公開使用,2010年阿里云正式對外運營,云服務不過才10余年的歷史;但云服務的飛速發(fā)展,甚至讓傳統(tǒng)超算也形成了“云超算”的發(fā)展趨勢,表1展示了二者的對比情況[14]。

表1 傳統(tǒng)超算與現(xiàn)代云服務的對比Tab.1 Comparison between traditional supercomputing and modern cloud services

基于上述的特點對比,為滿足電力系統(tǒng)計算分析平臺的共享性、爆發(fā)性需求,本文采用了云服務的技術路線,以南方電網(wǎng)總調(diào)的調(diào)度云平臺為依托而建設。該平臺是南方電網(wǎng)總調(diào)聯(lián)合阿里企業(yè)云建設的分布式解決方案。截至目前為止,SCADA 系統(tǒng)、電力現(xiàn)貨交易系統(tǒng)、電網(wǎng)負荷預測等一系列核心應用系統(tǒng)均已完成了云平臺的改造和部署,解決了傳統(tǒng)系統(tǒng)負載集中、應用受單個服務器性能限制的問題,大大降低了原有應用的響應時間、提升了應用的運行效率。

3.2 Kubernetes集群管理系統(tǒng)

為保障本文所述平臺的高效及可靠性,核心系統(tǒng)采用了工業(yè)級的Kubernetes(簡稱K8s)集群管理系統(tǒng)及Docker容器化部署技術,提高平臺的可用性及靈活擴展特性[15 - 17]。Docker是一個應用容器引擎,讓開發(fā)者可以應用以及依賴包到一個可移植的容器中,在一臺機器上瞬間創(chuàng)建幾十個相同的或不同的應用,且相互之間使用沙箱機制進行隔離,不會出現(xiàn)相互干擾。而K8s是開源的容器集群管理系統(tǒng),可以實現(xiàn)docker容器集群的自動化部署、自動擴縮容、維護等功能[18]。如圖1所示,通過一系列的組件提供了容器編排、調(diào)度的服務,為容器化的應用提供部署運行、資源調(diào)度、服務發(fā)現(xiàn)和動態(tài)伸縮等功能,提高了大規(guī)模容器集群管理的便捷性,為當前基于容器技術的分布式架構領先方案。

圖1 K8s集群組件示意圖Fig.1 Component diagram of K8s cluster

Kubernetes在當前互聯(lián)網(wǎng)領域得到了廣泛的應用。京東早在2016年年底上線了京東新一代容器引擎平臺JDOS2.0,成功從Openstack切換到JDOS2.0的Kubernetes技術棧[19]。2018年,阿里巴巴將核心控制系統(tǒng)Sigma 重新設計并遷移成兼容 K8s API,至2019年多數(shù)應用都在K8s上運行,并成功應對了2019年的“雙11”購物節(jié)[20]。該管理系統(tǒng)已在事實上成為了現(xiàn)代互聯(lián)網(wǎng)系統(tǒng)管理大規(guī)模并發(fā)的主流解決方案。

3.3 平臺架構說明

確定了以上的核心技術選型后,本文計算分析平臺服務器端調(diào)用了總調(diào)調(diào)度云(阿里私有企業(yè)云)的對象存儲(object storage service,OSS)組件、鍵值數(shù)據(jù)庫組件(remote dictionary server, Redis)、消息中間件(rocket message queue, RocketMQ)、企業(yè)級分布式應用服務(enterprise distributed application service,EDAS)、K8s集群管理系統(tǒng);用戶采用客戶端或瀏覽器進行訪問,客戶端沿用南網(wǎng)科研院自主研發(fā)的計算分析軟件(dynamic simulation program,DSP)戶端并進行了適當?shù)母脑欤瑸g覽器版本則與客戶端系統(tǒng)架構采用共同的后臺服務。本文以客戶端為例,整體方案如圖2所示。

平臺架構以K8s集群為核心,運行主要的調(diào)配及處理、計算服務;阿里云RocketMQ作為消息中間件,作為各個服務間的傳遞觸發(fā)載體與緩沖;對象存儲OSS作為數(shù)據(jù)的存儲空間;數(shù)據(jù)庫Redis作為高速緩存以及任務隊列。企業(yè)級分布式應用服務EDAS與負載均衡(server load balancer,SLB)相互配合,為用戶提供高可靠性的網(wǎng)絡服務。

圖2 系統(tǒng)架構示意圖Fig.2 System architecture diagram

以電力系統(tǒng)最常規(guī)的機電暫態(tài)仿真批處理為例,說明上述平臺的運作流程。用戶提交數(shù)據(jù)后(可為用戶主動提交的任務,或由其他系統(tǒng)推送),產(chǎn)生了以下的動作。

1)網(wǎng)絡請求通過SLB負載均衡及EDAS后,通過反向代理獲得其中可用的其中一個Tomcat服務器;服務器收到請求后,將數(shù)據(jù)存入OSS存儲區(qū),并向消息中間件RocketMQ的“待計算”隊列生成消息,向高速緩存Redis標記該任務為“未完成”。

2)運行于K8s的“調(diào)配服務”訂閱了RocketMQ的“待計算”隊列,一旦隊列非空,則消費收到的消息:一方面分析計算任務請求,將具體的計算任務(例如100個機電暫態(tài)仿真子任務)形成隊列存入Redis高速緩存;隨后啟動“計算服務”,下達指令給集群中的各個Worker計算節(jié)點,讓其啟動服務;同時對計算服務進行監(jiān)控,根據(jù)不同的狀態(tài)執(zhí)行不同的操作。

(1)待計算隊列已空、且無任務計算失敗,則認為計算已成功完成,停止“調(diào)配服務”,并向RocketMQ的“待處理”隊列生產(chǎn)消息;

(2)待計算隊列已空、但有任務計算失敗,則認為任務計算已不正常完成;重新計算失敗的任務,若重試N次(例如2次)仍無法成功,則停止“調(diào)配服務”,并向RocketMQ的“待處理”隊列生成消息。

3)運行于K8s的“計算服務”,受到“調(diào)配服務”控制。啟動時將在各個計算節(jié)點同時啟動多個計算應用(Pod),根據(jù)“調(diào)配服務”的指令從本地(若有)或服務器下載計算核心引擎鏡像,從OSS下載計算數(shù)據(jù),每個Pod從Redis高速緩存中取當前任務的子任務(例如,其中一個故障的機電暫態(tài)仿真)進行計算,成功執(zhí)行后數(shù)據(jù)存回OSS。

4)運行于K8s的“處理服務”訂閱了RocketMQ的“待處理”隊列,觸發(fā)后從OSS下載數(shù)據(jù),對各個獨立的子任務結果進行統(tǒng)計,形成匯總表;隨后向高速緩存Redis修改該任務為“已完成”。

5)用戶定時或手動詢問某個任務是否完成,若已完成則通過Tomcat返回匯總表和/或結果數(shù)據(jù)。用戶通過客戶端或者瀏覽器對結果進行查看。

4 可靠性設計

計算分析平臺的核心思想是云共享,將支撐總調(diào)、中調(diào)及地調(diào)各層面的計算分析需求等,滿足各級調(diào)度人員異地聯(lián)合高效開展各類日常運行方式計算工作,對可靠性提出了極高的要求。雖然當前計算機技術已經(jīng)對可靠性進行了極大的保障,但實際中仍存在節(jié)點失效不可用的情況。比如,由于安全漏洞、硬件故障或者設備斷電、計劃維護等問題,導致某些承載機重啟或下線。平臺需保證在上述意外情況下,降低不良影響,保證高可靠性。為此,平臺設計了多層防護措施。

4.1 高可靠組件

平臺全部采用阿里云成熟的工業(yè)級產(chǎn)品,包括但不限于儲存、集群、數(shù)據(jù)庫、消息中間件等。上述組件由阿里云、云原生計算基金(cloud native computing foundation, CNCF)、Apache軟件基金會等廠家和開源基金會進行維護和升級,從底層上確保平臺組件的高可靠性。

4.2 冗余設計

平臺的核心程序均運行于K8s集群上,K8s集群是本平臺的核心部分。為保障其可用性,K8s集群采用了3.Master+N.Worker(3主機N從機)設計,如圖3所示[21]。

主服務器Master采用了3臺服務器集群的形式,只要有任意一臺服務器正常使用,平臺即可正常地提供控制服務。計算節(jié)點采用N個Worker的形式,即使其中部分的服務器不可用,僅造成算力的下降,僅在平臺極高負載率的情況下對計算效率有輕微的影響,不會影響平臺的正常使用,且隨時可以通過增加Worker的形式以恢復甚至增強平臺的算力。

圖3 K8s高可用性集群Fig.3 K8s high availability cluster

對用戶的接口服務器采用了SLB負載均衡和EADS企業(yè)級分布式應用服務,多層負載均衡服務可以保障平臺應對高用戶并發(fā)時的處理能力。從架構上支持多個集群的冗余和Tomcat應用的多實例,只要在整個平臺中有其中任意一個Tomcat服務正常,即可提供有效的網(wǎng)絡服務。同時,多個Tomcat實例也有效地降低了多用戶高并發(fā)時的壓力。

Redis數(shù)據(jù)庫采用了主從設計,主服務器不可用時,從服務器自動切換為主服務器,不間斷地提供服務。

通過上述的保證措施,實現(xiàn)了任意組件的其中一個節(jié)點(“N-1”)乃至更多節(jié)點(“N-2”)情況下,平臺仍能在用戶無感知的情況下平穩(wěn)運行。

4.3 容錯及自愈特性

通過冗余設計,本平臺可以有效應對某個組件部分崩潰的問題。但為以防萬一組件發(fā)生全面崩潰,或設計中引入了未知的BUG,在設計中采取了多種措施以避免任務計算失敗、故障持續(xù)。

1)看門狗策略:調(diào)配服務設立超時機制,單個計算任務設置了超時時間,提供重啟策略及限制重啟次數(shù)。在努力對用戶的任務進行計算的同時,也考慮了用戶數(shù)據(jù)有誤造成計算失敗的問題,對各個任務實現(xiàn)了隔離,避免了故障的蔓延。

2)自動驅(qū)逐及恢復策略:基于K8s集群策略,限制了單一應用的CPU、內(nèi)存等占用的上限。一旦應用發(fā)生異常造成資源消耗過大,管理系統(tǒng)將驅(qū)逐異常應用并進行重構,以恢復應用的正常運行。

3)組件崩潰的備份重構策略:各個組件間提供備份重構的方案。例如,若K8s集群整體發(fā)生了崩潰,在集群重新上線或存在備用集群時,調(diào)配服務可從高速緩存Redis和消息中間件RocketMQ重啟未計算的任務、部分計算任務中未完成的子任務;若RocketMQ或Redis不可用,待平臺組件恢復正常后或存在備用集群時,可從OSS存儲中恢復RocketMQ和Redis緩存。

平臺的最終保障為OSS存儲,即相當于計算機的硬盤。當OSS存儲損壞時,本系統(tǒng)才發(fā)生不可逆轉(zhuǎn)的數(shù)據(jù)損失。根據(jù)平臺設計,OSS存儲可以開啟本地的冗余以及異地備份,基本難以發(fā)生全面崩潰的情況。根據(jù)阿里云的官方數(shù)據(jù),數(shù)據(jù)安全可靠性為99.999 999 999%(11個9)。

用戶成功提交了計算任務后,平臺將通過上述多項措施保證任務的正常執(zhí)行。

5 高效、協(xié)同設計

計算分析平臺的最終目標是供網(wǎng)、省、地三級調(diào)度系統(tǒng)人員進行使用,平時狀態(tài)下一般用于日常的方式計算安排等,同時在線用戶數(shù)較少;但在迎峰度夏、年度方式等場景下,將在短時間內(nèi)產(chǎn)生爆發(fā)性的計算需求。為應對大規(guī)模使用時的高并發(fā)高負載,同時避免堆疊硬件資源造成的閑時資源浪費,平臺設計了多種效率提升和共享方案。

5.1 可彈性擴展的硬件資源

核心計算K8s集群采用了圖3的3.Master+ N.Worker設計,其中每個Worker均由南網(wǎng)調(diào)度云平臺的硬件資源池模擬,可以提供8~64核甚至更多的虛擬CPU核資源。集群的硬件資源并不獨享,而是共享調(diào)度云數(shù)萬節(jié)點的海量計算資源。在有需要的情況下,可將單個Worker的資源擴展至64核以上;或是將Worker的數(shù)目擴展至二三十臺及以上,最終實現(xiàn)超過數(shù)千核心的計算平臺。在平臺負載壓力不大的情況下,可及時釋放硬件資源。該設計可充分利用資源池的優(yōu)勢,既保證了忙時的效率,又減少了閑時資源的浪費。

5.2 共享的軟件資源池

核心計算K8s集群可實現(xiàn)與其他應用系統(tǒng)的共享。多個應用間通過命名空間實現(xiàn)資源隔離,具體的資源使用可由管理員進行單獨控制或者由集群自行管控,實現(xiàn)基于云計算的共享特性。

5.3 用戶間的負載均衡

平臺設計了平衡用戶間任務的調(diào)配服務,避免單個用戶不合理地搶占資源、由于計算任務的堆積對其他用戶的請求產(chǎn)生延遲響應。例如,僅有1個用戶使用時,其將可以動用所有的計算核心;但當在線用戶數(shù)M大于1時,其可動用的核心將調(diào)減為所有核心的1/M個,同時將每個用戶的同時運行任務數(shù)調(diào)整為1。

該調(diào)整是動態(tài)實現(xiàn)的,執(zhí)行中若出現(xiàn)超過占用超過1/M的核心時,平臺提供多種策略予以調(diào)整:1)立刻終止超過1/M的計算子任務,資源調(diào)配給其他用戶。被終止的子任務將在該用戶的其他子任務執(zhí)行完成后重啟。2)不立刻終止,等待計算中的子任務執(zhí)行完成后釋放。

上述的策略可以保障用戶間較為“均勻”地使用了集群的計算核心,但為了避免過多用戶同時運行時,所有人的等待時間過長,又設計了單用戶的最低占用核心數(shù),限制同時運行的任務數(shù),實行任務強行排隊,以避免單個用戶等待時間過長。

上述的效率提升方案在本平臺中綜合利用,在可預見的計算任務爆發(fā)前,由管理人員手動地增加硬件資源,調(diào)整Woker的核心及數(shù)量,以實現(xiàn)平臺的擴容,該調(diào)整在幾分鐘內(nèi)即可實現(xiàn);在資源池有熱備用機器的情況下,甚至在10 s以內(nèi)即可實現(xiàn)調(diào)整。對于用戶間的負載調(diào)整,將由平臺自動實時地實現(xiàn),無需管理人員的介入。

6 案例測試

本平臺已于2021年5月份在測試環(huán)境中上線部署,并采用了南方電網(wǎng)月度數(shù)據(jù)對平臺進行了測試。在測試階段,采用了3.Master+10.Worker的硬件資源,單個Worker提供16核心的計算能力,總計160核心。

6.1 正確性測試

本文所指的正確性是指采用本平臺計算與常規(guī)單機計算的差別,而非核心計算引擎本身計算正確與否。經(jīng)過潮流、機電暫態(tài)仿真、短路電流計算等場景的測試,基于平臺計算及常規(guī)的單機計算完全一致,曲線完全重合,如圖4所示。

圖4 常規(guī)計算與集群計算結果對比Fig.4 Comparison between conventional calculation and cluster calculation

6.2 可靠性測試

1)集群崩潰測試

在仿真過程中,手動關閉所有K8s集群Master服務器,再重新啟動。測試中,包括“容錯服務”、“調(diào)配服務”等正常地重新啟動,并將未執(zhí)行或未執(zhí)行完成的任務重新進行計算。

2)RocketMQ消息丟失測試

在仿真過程中,通過偽造的客戶端直接消費了“待計算”隊列中的消息,以造成正常的調(diào)配服務無法正常獲取消息。測試結果為,定時掃描的“容錯服務”發(fā)現(xiàn)在OSS中該任務超時未完成,且不在“待計算”、“待處理”隊伍中,即對該任務生產(chǎn)“待計算”消息;后續(xù)按照正常的流程執(zhí)行完畢。

6.3 效率測試

采用南方電網(wǎng)2021年6月份的月度方式數(shù)據(jù),對其主網(wǎng)層的320個N-1故障進行仿真。常規(guī)的單核計算下,需要耗時超過145 min;在本平臺中,通過配置更改并行數(shù)為1~160個,其計算耗時及加速比如圖5及表2所示。其中加速比定義為串行執(zhí)行時間除以并行執(zhí)行時間。

圖5 集群并行效果測試Fig.5 Cluster parallel effect test

表2 并行效率測試Tab.2 Parallel efficiency test

加速比隨著核心數(shù)及并行度的提升,基本呈現(xiàn)出線性的提升。在提供160核心的情況下,僅需要68 s左右就完成了傳統(tǒng)情況下2.5 h的計算任務,加速比高達128。考慮到任務調(diào)度的延時,該數(shù)值已接近理論最優(yōu)值。

上述結果說明了計算平臺具有極其優(yōu)越的仿真效率,可以有效地提升新型電力系統(tǒng)大規(guī)模新能源接入后的仿真速度,將某個方式多個故障的仿真耗時縮短至單個故障的仿真耗時,實現(xiàn)傳統(tǒng)離線仿真工具的在線部署,實現(xiàn)從科研工具向生產(chǎn)工具的轉(zhuǎn)變。

6.4 結果展示

計算結果在OSS存儲中進行了歸檔,可長期存放用于未來的大數(shù)據(jù)挖掘、人工智能學習素材等。其可以通過豐富的形式予以展示,例如微軟PowerBI或者阿里云QuickBI等,以及在線查看的報表、地理接線圖等。為對接傳統(tǒng)業(yè)務,針對當前大批量使用的機電暫態(tài)批量掃描,提供了客戶端形式、瀏覽器形式的展示界面,如圖6所示。二者共用后端服務,可適應不同的場合。

圖6 展示界面示意圖Fig.6 User interface diagram

7 結語

為了解決新型電力系統(tǒng)大量新能源接入后的仿真效率問題,本文提出了基于云計算共享的電力系統(tǒng)計算分析平臺建設方案,并對該方案的技術選型、架構設計進行了詳細的闡述。平臺以當前互聯(lián)網(wǎng)領先的Kubernetes集群管理系統(tǒng)及Docker容器化部署技術為基礎,計算分析平臺進行探索,提出了可實時動態(tài)擴展的集群系統(tǒng)架構,構建了高效、可靠、綠色的共享計算平臺。測試效果表明,在底層硬件資源足夠的前提下,效率提升已接近理論最優(yōu)值上限,可將單個甚至多個方式多個故障的仿真耗時縮短至單個故障的仿真耗時,為新型電力系統(tǒng)海量運行方式的計算仿真提供了強力的工具支撐。

基于本文所建設的平臺,可為大電網(wǎng)仿真提供海量任務的快速并行計算分析和遠程云計算服務,滿足總調(diào)、中調(diào)及地調(diào)各層面以及其他應用系統(tǒng)的計算分析需求。同時,在線計算為閉環(huán)的數(shù)據(jù)管控、共享的數(shù)據(jù)管理提供了基礎分析工具,為其他應用系統(tǒng)提供了可靠、高效的計算服務。基于云計算共享的電力系統(tǒng)計算分析平臺與另行建設的共享數(shù)據(jù)管理平臺,將在互聯(lián)網(wǎng)新技術的協(xié)助下,全面提升對電網(wǎng)的把握能力,保障新型電力系統(tǒng)的安全可靠運行。

猜你喜歡
用戶分析服務
隱蔽失效適航要求符合性驗證分析
服務在身邊 健康每一天
服務在身邊 健康每一天
服務在身邊 健康每一天
電力系統(tǒng)不平衡分析
電子制作(2018年18期)2018-11-14 01:48:24
招行30年:從“滿意服務”到“感動服務”
商周刊(2017年9期)2017-08-22 02:57:56
關注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
電力系統(tǒng)及其自動化發(fā)展趨勢分析
關注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
關注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
主站蜘蛛池模板: 92午夜福利影院一区二区三区| 欧美成人看片一区二区三区 | 综合社区亚洲熟妇p| 在线观看国产精品一区| 精品无码人妻一区二区| 97国产成人无码精品久久久| 中文字幕不卡免费高清视频| 久久香蕉国产线看精品| 国产精品视频观看裸模| 精品人妻一区二区三区蜜桃AⅤ| 国产香蕉在线视频| 91精品国产自产在线观看| 日韩精品专区免费无码aⅴ | 福利视频久久| 美女国产在线| 欧洲高清无码在线| 高h视频在线| 亚洲中文无码av永久伊人| 国产成人精品在线1区| 国产丝袜无码一区二区视频| 久久精品人人做人人综合试看| 欧美日韩精品一区二区视频| 色综合天天娱乐综合网| 永久免费av网站可以直接看的| 国产午夜无码片在线观看网站| 久久不卡精品| 国产精品免费p区| 久爱午夜精品免费视频| 亚洲精品欧美重口| 欧美视频在线第一页| 婷婷在线网站| 国产va在线观看免费| 在线播放国产一区| 伊人成人在线| 国产中文在线亚洲精品官网| 亚洲第一福利视频导航| www.99精品视频在线播放| 亚洲国产中文在线二区三区免| 欧美精品高清| 风韵丰满熟妇啪啪区老熟熟女| 2021国产精品自产拍在线观看| 亚洲欧美一区二区三区图片| 九色视频线上播放| 亚洲综合第一区| 国产91高跟丝袜| 国产成人亚洲精品无码电影| 国产91透明丝袜美腿在线| 92午夜福利影院一区二区三区| 亚洲精品午夜天堂网页| 精品自窥自偷在线看| 国产成人av一区二区三区| 国产超碰在线观看| 国产91av在线| 欧美视频二区| 国产精品成人免费视频99| 国产麻豆精品手机在线观看| 久996视频精品免费观看| 91无码视频在线观看| 色135综合网| 成人福利在线视频| 91视频免费观看网站| 国产在线小视频| 香蕉eeww99国产在线观看| 狠狠色综合网| 国产高颜值露脸在线观看| 欧美日韩一区二区在线免费观看| 久久国产精品麻豆系列| 国产高清不卡视频| 国产尤物视频在线| 国产精品亚洲αv天堂无码| 国产一区二区福利| 最近最新中文字幕在线第一页| 少妇高潮惨叫久久久久久| 欧美不卡视频一区发布| 欧美成人A视频| 欧美不卡视频一区发布| 久久综合色天堂av| 国产91av在线| 久久中文字幕av不卡一区二区| 丁香五月激情图片| 国产天天射| 亚洲日韩在线满18点击进入|