孟慶東,張 嵩,李本新,李 雪,李國慶
(現代電力系統仿真控制與綠色電能新技術教育部重點實驗室(東北電力大學),吉林 132012)
區域互聯電網規模的不斷擴大、電力負荷不斷增長,導致電力系統電壓穩定問題日益嚴重,因此,研究電力系統電壓穩定性具有重要的理論和工程價值[1]。
功率與電壓的關系PV(power-voltage)曲線是描述電力系統靜態電壓穩定性的實用方法,其可以反映一個區域負荷水平的變化所引起的電力系統運行點向電壓崩潰點的靠近程度;連續潮流CPF(continuation power flow)是求解PV 曲線的主要方法[2];預測和校正是求解CPF 的主要步驟。傳統CPF在校正時需要采用牛拉法反復求解潮流方程,計算量大,嚴重影響了PV曲線的追蹤效率。因此,文獻[3]將快速解耦潮流FDPF(fast decoupled power flow)算法引入到CPF校正步潮流方程求解中,提出了快速解耦連續潮流CFDPF(continuation fast de?coupled power flow)算法;文獻[4]提出了功率損耗參數化策略,并推導出基于該參數化策略的快速解耦形式的校正階段潮流方程的修正方程組;文獻[5]提出了PV 節點無功參數化策略,并推導出基于該參數化策略的CFDPF 算法。上述研究說明,將FDPF算法應用在CPF校正階段的潮流方程求解中,具有較高的可行性。
在CFDPF的計算過程中,校正階段潮流方程修正方程組的求解計算量較大[6]。因此,提高大型稀疏線性方程組的求解效率對于提高CFDPF 算法的計算速度具有重要意義。Krylov子空間迭代法是一種廣為應用的迭代求解法,其特點是每次迭代時重復進行大型稀疏矩陣與向量的乘法運算[7],適合在CPU-GPU異構平臺上進行并行計算,其中穩定雙共軛梯度BICGSTAB(bi-conjugate gradient stabilized method)迭代法可以處理系數矩陣為非對稱正定的問題,應用較為廣泛[8]。目前,基于CPU-GPU 混合架構并行加速的BICGSTAB 迭代法已經應用在電力系統潮流計算[9]、N-1 故障校核[10]、暫態仿真[11]、最優潮流求解[12]和直接法負荷裕度的計算[13]等方面,但在CPF計算中尚不多見。
為提升CPF 計算速度,本文提出一種基于CPU-GPU 混合架構加速的改進快速解耦連續潮流ICFDPF(improved continuation fast decoupled power flow)的并行計算方法。為保證在某些電阻與電抗比值較大的系統中算法仍能可靠收斂,本文首先采用“XB 模式[14]”下的FDPF 算法求解校正步潮流方程,并由系統的阻抗參數和功率增長方向直接形成潮流方程修正方程組的系數矩陣,提高校正階段潮流方程的求解速度;然后,將潮流方程的修正方程組進行預處理,并采用基于CPU-GPU 混合架構加速的BICGSTAB 進行求解,進一步提高ICFDPF 的計算速度;最后,通過多個不同規模的測試系統對本文所提算法進行分析、驗證。
CPF是從系統基態運行點開始,通過逐漸增大負荷因子λ來模擬系統負荷增加的情況,進而獲得系統在不同負荷水平下的運行狀態,直到得到系統所能承受的最大負荷水平,即系統的負荷裕度,其數學模型為













圖1 IEEE-118 節點系統矩陣B′c 非零元素分布Fig.1 Distribution of non-zero elements in B′c of IEEE 118-bus system

綜上所述,本節根據ICFDPF算法校正步修正方程組式(2)和式(3)系數矩陣的性質選擇合適的預處理器對其進行預處理:電壓相角修正方程組式(2)采用SPAI 預處理,電壓幅值修正方程組式(3)采用不完全LU分解與Chebyshev相結合的兩階段預處理。
為驗證本文所提算法可準確、快速地獲取系統的PV 曲線,本節測試所用計算平臺為Dell 塔式服務器,CPU為Inter Xeon E5-2620×2,主頻2.10 GHz,內存32 GB;GPU為NVIDIA Tesla P100,擁有3 584個單精度、1 792 個雙精度核心,單、雙精度浮點性能為5.3Teraflops、10.6Teraflops,同時還搭配了4096-bit 16GB HBM2 高帶寬顯存,堆疊式顯存容量為540 GB/s,支持CUDA 9.0標準。
傳統CPF算法使用弧長參數化策略;CFDPF算法為文獻[5]中所提算法;CPU-ICFDPF、GPU-ICFD?PF 算法分別為本文所提ICFDPF 算法的串行和基于CPU-GPU 混合架構加速的并行計算方法。預測法為割線預測法,GPU-ICFDPF 算法校正步潮流方程修正方程組式(2)和式(3)采用BICGSTAB 迭代法進行求解。
為驗證本文算法的準確性,本節以傳統的CPF算法為基準,從不同算法所得PV 曲線以及所求負荷裕度的誤差兩方面對CPU-ICFDPF、GPU-ICFDPF算法的準確性進行驗證。
為驗證本文算法的通用性,分別以IEEE-118系統和Case11624系統的PV曲線為例進行分析、驗證。圖2 和圖3 分別為IEEE-118 系統節點60 和Case11624 系統節點3717 的PV 曲線,由圖2 和圖3可以看出,CPU-ICFDPF、GPU-ICFDPF算法的PV曲線與CPF算法的PV曲線近似重合、誤差較小,這表明CPU-ICFDPF、GPU-ICFDPF算法在計算過程中都能收斂到所需精度,所得PV曲線是準確、有效的。

圖2 IEEE-118 系統節點60 的PV 曲線Fig.2 PV curve of bus 60 in IEEE 118-bus system

圖3 Case11624 系統3717 節點PV 曲線Fig.3 PV curve of bus 3717 in the Case11624 system
在不同功率增長方向下,以CPF、CPU-ICFDPF和GPU-ICFDPF算法計算的負荷裕度和以傳統CPF算法為基準計算CPU-ICFDPF、GPU-ICFDPF 所得的負荷裕度的誤差如表1所示。由表1數據分析可知,CPU-ICFDPF、GPU-ICFDPF 算法所求負荷裕度的誤差都小于1%,其中,兩者最大誤差都出現在IEEE-300系統,分別約為0.79%和0.77%,這一誤差主要是由于CPF 算法和CFDPF 算法采用不同的參數化策略造成的,迭代法的截斷誤差和舍入誤差對求解結果也有影響。

表1 有功無功同比例增長下CPU-ICFDPF 和GPUICFDPF 負荷裕度計算誤差Tab.1 Load margin calculation errors of CPU-ICFDPF and GPU-ICFDPF with the same increases in active and reactive power
上述結果表明,本文算法與傳統CPF算法求得的PV曲線近似重合,誤差較小,所求負荷裕度滿足精度要求,驗證了本文算法的準確性和有效性。


表2 形成矩陣和所需時間Tab.2 Computational time of forming and s

表2 形成矩陣和所需時間Tab.2 Computational time of forming and s
系統IEEE-118 IEEE-300 Case1354pegase Case2383wp Case2869pegase Case3012wp Case5738 Case7092 Case9241pegase Case10790 Case11624 Case13173 Case13802 CFDPF ICFDPF B′c B″c B′c B″c s 0.00 0.00 0.00 0.00 0.00 0.00 0.01 0.01 0.01 0.02 0.02 0.02 0.02 0.01 0.04 0.27 0.97 1.33 5.67 3.63 5.55 57.79 14.51 103.79 22.37 127.06 0.00 0.00 0.00 0.00 0.01 0.00 0.01 0.01 0.02 0.01 0.02 0.01 0.01 0.00 0.00 0.00 0.00 0.01 0.01 0.01 0.01 0.02 0.02 0.02 0.02 0.02
上述分析表明,ICFDPF 算法能夠快速的形成校正步修正方程組的系數矩陣,且隨著系統規模增大,計算效率優勢更加明顯。
本節首先對CPF、CFDPF、CPU-ICFDPF和GPUICFDPF 算法的總計算耗時進行對比,然后分別以CPF 算法和CPU-ICFDPF 算法為基準,計算GPUICFDPF加速比以驗證GPU-ICFDPF的高效性。
CPF、CFDPF、CPU-ICFDPF 和GPU-ICFDPF 算法的計算耗時對比如圖4 所示。由圖4 可知,在所有測試系統中,CPU-ICFDPF 算法求解效率均高于CPF 算法;當系統規模大于Case2383wp 系統時,GPU-ICFDPF 算法求解效率高于CPF 算法。在所有測試系統中,CPU-ICFDPF 算法效率均高于CFDPF 算法;此外,當系統規模大于等于Case3012wp 系統時,GPU-ICFDPF 算法求解速度高于CFDPF算法。

圖4 不同算法的運行時間Fig.4 Computational time of different algorithms
以傳統CPF為基準,在不同測試系統下計算的GPU-ICFDPF 校正步和算法整體的加速比對比如表3 所示。由表3 數據可知,從校正步的求解過程看,當系統規模小于等于Case1354pegase 系統時,GPU-ICFDPF 算法校正步的計算速度低于CPF 算法,不能發揮其并行加速的作用;當系統規模大于等于Case2383wp 系統時,GPU-ICFDPF 算法校正步計算速度高于CPF 算法,例如Case13802 系統的加速比可達9.54。從算法整體上看,當系統規模小于等于Case1354pegase 系統時,GPU-ICFDPF 算法的計算速度低于CPF 算法,不能實現并行加速的目的;當系統規模大于等于Case2383wp系統時,GPUICFDPF 算法的計算速度高于CPF 算法,例如Case13802系統加速比可達4.29。

表3 以CPF 為基準GPU-ICFDPF 的加速比對比Tab.3 Comparison of speedup of GPU-ICFDPF based on CPF
上述分析表明,在大規模和超大規模系統的連續潮流求解過程中,GPU-ICFDPF 算法的計算速度要高于CPF算法,且系統規模越大,優勢越明顯。
以CPU-ICFDPF 算法的計算時間為基準,在不同測試系統下計算GPU-ICFDPF 算法求解校正步潮流方程修正方程組和算法整體的加速比如表4所示。由表4數據分析可知,在求解大規模系統校正步修正方程組時GPU-ICFDPF 算法計算效率高于CPU-ICFDPF 算法,例如求解方程組式(3)時,Case10790 系統加速比可達4.43。從ICFDPF 算法的整體來看,當系統規模小于等于Case3012wp 系統時,GPU-ICFDPF 算法的計算速度低于CPUICFDPF算法;當系統規模大于或等于Cas5738wp系統時,除Case9241pegase 系統外,GPU-ICFDPF 算法的計算效率均高于CPU-ICFDPF 算法,例如Case13802系統加速比可達1.42。

表4 以CPU-ICFDPF 為基準GPU-ICFDPF 的加速比對比Tab.4 Comparison of speedup of GPU-ICFDPF based on CPU-ICFDPF
綜上所述,與CPF算法和CPU-ICFDPF相比,在大規模和超大規模系統PV 曲線求解過程中,GPUICFDPF 算法具有明顯的速度優勢,且系統規模越大,優勢越明顯。
本文提出了一種基于快速解耦的電力系統連續潮流并行計算方法,通過IEEE-118、Case1354、Case9241、Case13802 等多個不同規模的測試系統進行分析和驗證,得出如下結論:
(1)相對于傳統CPF 算法,本文所提GPUICFDPF 算法求得的負荷裕度誤差均在0.5%以下,驗證了本文算法的準確性;

(3)所提SPAI 預處理和不完全LU 分解與Che?byshev結合的預處理方式可有效改善系數矩陣特征值分布,極大減少了BICGSTAB迭代法的迭代次數;
(4)與CPF算法和CPU-ICFDPF算法相比,本文所提GPU-ICFDPF算法的最大加速比分別可達4.29和1.42,大幅提高了大規?;ヂ撾娏ο到yPV 曲線的獲取速度。