王洪鎖,張銳鋒,賈春香
[摘 要] PUE是Power Usage Effectiveness的簡寫,是評價數據中心能源效率的指標,是數據中心消耗的所有能源與IT負載使用的能源之比,是DCIE(data center infrastructure efficiency )的反比。PUE = 數據中心總設備能耗/IT設備能耗,PUE是一個比值,基準是2,越接近1表明能效水平越高。PUE(Power Usage Effectiveness,電源使用效率)值已經成為國際上比較通行的數據中心電力使用效率的衡量指標。PUE值越接近于1,還表示一個數據中心的綠色化程度越高。因此,在數據中心機房設計和規劃前期,要充分考慮PUE要素,并作為數據中心節能的重要評價指標。后期,在數據中心運營過程中,能夠做到更加節能、環保,以期投資收益比的最大化。
[關鍵詞] 綠色數據中心; 能耗; PUE; DCiE
doi : 10 . 3969 / j . issn . 1673 - 0194 . 2014 . 02. 058
[中圖分類號] TP391 [文獻標識碼] A [文章編號] 1673 - 0194(2014)02- 0111- 03
1 前 言
1.1 數據中心能耗結構
據美國環境保護署的報告,典型的數據中心能耗分布為:數據中心的網絡設備(服務器,網絡通信與交換,存儲器等)的能耗占數據中心總能耗的50%~52%;機房空調系統占數據中心總能耗的38%~40%;供電及輔助照明等系統的能耗占數據中心總能耗的8%~10%[1]。
1.2 PUE和DCiE能效模型
2007年2月,綠色網格組織(Green Grid)制定了數據中心的能效比指標,分別叫PUE和DCiE。 PUE即能量使用效率,是Power Usage Effectiveness的簡寫,是評價數據中心能源效率的一個指標,PUE:數據中心總設備能耗/IT設備能耗,PUE是一個比率,基準是2,越接近1表明數據中心能效水平越高。DCiE即數據中心基礎設施效率,是Data Center Infrastructure Effectiveness的簡寫。其值是PUE的倒數。DCiE=IT設備能耗/數據中心總設備能耗 × 100%[2]。
數據中心典型的PUE 和DCiE曲線如圖2。
數據中心總能耗 = 制冷用電負荷 + 供配電能耗 + IT 設備能耗,Total Facility Power = Cooling Load + Power Equipment Loss + IT Equipment Load, 所以PUE 指標分解為:
CLF 就代表在每W IT負載上消耗的制冷用電量,而 PLF 就代表在每W IT負載上供電系統的損耗,1.0則永遠不會變,因為這是 IT 負載和自己的比率。這樣,就可通過一些子指標來定量表征數據中心能效模型[3]。
2 數據中心節能技術研究
基于上述PUE 模型,將從以下3方面進行研究: ① IT 設備節能研究; ② 供電系統的節能研究; ③ 制冷系統節能研究。
2.1 IT設備綠色節能技術研究
數據中心IT設備是能耗大戶。以服務器為例,服務器最大的能耗來自芯片,單顆Intel至強處理器的功耗為80~95 W,有的達130 W。基于X86服務器環境中,Windows和Linux服務器利用率一般低于CPU資源的15%;很多UNIX服務器只利用了15%~25%;這意味著服務器有75%~90%的時間在消耗電源和冷卻資源,卻不完成任何工作。
針對服務器能耗及利用率低下的問題,廠商不僅在自身產品節能優化上下功夫,同時,兼顧新技術的推廣應用。
2.1.1 自身產品節能技術屢有突破
(1) 芯片方面,即采用多核的X86芯片技術提升處理能力,從而降低芯片數量的增加。因此,在短短幾年時間里,我們見證了處理器從2核、4核、6核、8核,直至12核的飛速發展。
(2) 電源方面,服務器廠商采用高效電源。如戴爾采用智能節能技術,可在性能增加的同時降低能耗。
(3) 風扇方面,IBM引入高效率的雙段式對轉風扇,比傳統的風扇設計節能40%。
(4) 在硬盤方面,機架服務器更多采用的是HDD2.5英寸小硬盤,相比3.5寸大硬盤,有近一半電能的節省。不僅如此,固態硬盤開始在服務器中亮相,與普通HDD硬盤相比,在能耗上,固態硬盤的能耗比HDD硬盤低4/5。
2.1.2 新技術的推廣應用
虛擬化技術使多個服務器上的工作負載合并到單個服務器上,使服務器利用率提高到50%~70%,并且潛在地以削減的成本在X86和UNIX服務器上完成4~6倍的工作。服務器整機生產廠商紛紛推出各種“綠色”產品與以往服務器相比,當前的服務器無論在性能、計算能力上都可“以一當十”,而能耗在不斷降低。
除服務器外,還有網絡設備、存儲設備等,都有相應的虛擬化等新技術支持。
2.2 供電系統的節能研究
一項針對CIO的調查顯示,UPS系統實際運行的負載情況都是在30%左右,目前數據中心面臨著低效率運行的問題。圖4為傳統UPS在不同負載百分比情況下的效率示意圖。
針對UPS電源系統運行現狀,高可靠性、可用性及高適應性能力,保護環境及節能降耗等多維度考慮。在UPS系統設計規劃時應從以下3方面予以考慮:
(1) 提高UPS的效率:提高UPS效率有兩個方向。一個方向是提高UPS的最佳負載下的轉換效率,一個是提高UPS在低負載下的轉換效率。前者,業界的主流供應商正在努力把轉換效率由88%提高到92%,未來要提高到96%。后者是一種隱形效率。
(2) UPS虛擬運行技術:這是一種配合虛擬運算的UPS運行管理技術。采用UPS虛擬運行技術,在低負載下,UPS組供電系統只保持少數UPS給負載供電,將其余UPS與服務器同步休眠,以此減少低負載下的UPS組的能耗。
(3) 改變服務器的供電方式:在數據中心以直流供電系統取代交流供電系統已有多年的探索。業界流傳的教條是直流比交流節能。其理論根據是直流電源比UPS的電能轉換環節少,因此節能。
2.3 制冷系統的節能研究
機房空調制冷系統對安全穩定運行起著不可或缺的作用,且空調能效因子(CLF)是PUE值中權重最大的因子,因此空調系統的節能就是降低PUE值最重要的方向。空調系統節能方面有7個方向可以研究[4]:
(1) 發展高能效機房空調:目前國內已經有了家用空調的能效標準,由低到高設定了5級能效標準,1代表能耗最低,5代表能耗最高。機房空調行業目前尚沒有相應的節能等級標準,但國家相關部門已經開始著手制定,預計近年內將會進行頒布。
(2) 機房空調虛擬運行技術:服務器的虛擬運算有一項技術就是在運算低谷期將運算業務集中到少數服務器上進行運算而將其余服務器進行休眠來降低能耗。但這種節能方式需要機房空調的虛擬化運行配合才能讓數據中心整體節能。
(3) 機房冷熱氣流隔離技術:該技術是通過保證空調的出、回風不混合,使機組的蒸發溫度提高,從而提高了整個機組的能效。
(4) 高熱密度解決空調方案:是一種通過將終端靠近IT設備熱源的空調設計技術,由于其采用了提高回風溫度、100%顯熱、低能耗風扇和縮短送風距離等技術來大大降低了空調的運行能耗。主要是用于服務器機架熱密度超過5 kW/機柜的數據中心。
(5) 機架式空調技術:是一種將服務器機柜與機房空氣實行完全隔離,實行機柜里制冷的一種空調設計技術。該技術最大限度地提高了冷熱交換效率,大大地縮短了空調送風距離,從而最大限度地降低了PUE空調能效因子系數。
(6) 多冷媒利用技術:這是一種能采用自然冷媒攝取室外低溫,從而降低空調能耗的技術方案,統稱Free Cooling。自然冷媒包括風和水以及制冷劑等,最常用于室外低溫的利用的方案是直接新風方式。
(7) 可再生能源空調:太陽能空調是未來主要的可再生能源發展方向。這是一種零碳排量的空調技術,它的應用速度取決于光伏材料效率提高和成本降低的速度。
3 某數據中心節能分析應用實例
某數據中心機房共3層。1樓能源中心機房,2~3樓為IT設備機房,樓頂為空調冷卻系統。IT設備采用不間斷電源系統供電,其中交流不間斷電源共有8臺UPS,直流不間斷電源并機;共有2臺通信電源;經測算結果:IT設備能耗為:881.68 kW;機房制冷系統能耗為:591.14 kW;UPS/通信電源供配電及照明、門禁、消防等輔助系統能耗為196.96 kW。由PUE模型分解公式:
總能耗 = IT設備能耗 + 空調制冷系統能耗 + 供配電及其他輔助系統能耗 = 881.68 + 591.14 + 196.96 = 1 669.78(kW);
PUE = ■ = ■ = 1.89;
DCiE = ■ = ■ = 52.9%;
空調能耗因子(CLF) = 0.66;供配電等其他能耗因子(PLF) = 0.22;
綜上,該機房PUE值為1.9,相對于國內同行業,屬于節能型機房。類比于國際先進機房(PUE值區間為1.6~1.8;空調能效因子(CLF)在0.45左右;供配電系統的能效因子(PLF)在0.11左右。)因此,各方面能耗有進一步提升的潛力。
4 結 論
PUE/DCiE指標模型為數據中心節能提供了基本方法和考核指標。數據中心節能必須建立PUE值檢測和改善的長效機制,采用PDCA質量管理循環機制進行客觀評價,使數據中心節能降耗走上良性循環之路。
主要參考文獻
[1] 鐘景華,朱利偉,等. 新一代綠色數據中心的規劃與設計[M]. 北京:電子工業出版社,2011.
[2] GB/T 50378-2006,綠色建筑評價標準[S]. 2006.
[3] 鐘景華,朱利偉,曹播. 綠色數據中心節能設計與建設初探[J]. 智能建筑與城市信息,2009(10):21-30.
[4] GB 50174-2008,電子信息系統機房設計標準[S]. 2006.