何露

摘要:從風起云涌的云計算、到撲面而來的大數據,再到無處不在的移動互聯網應用,傳統IDC數據中心需即時處理的業務量及數據量正以指數級速度增長。如何應對新時代需求,為保障原有機房建設投資,充分發揮現有資源利用率,對傳統lDC數據中心進行改造已成為亟待解決的問題。本文就根據IT設備特性及lDC機房配套特點,對傳統IDC數據中心基礎設施改造關鍵點,包括機房電源、空調及承重等行闡述及分析。
關鍵詞:X86服務器;磁盤陣列;UPS;HVDC
以往國內三大電信運營商為保障業務系統的穩定性及高效業務處理能力,使用Unix服務器比重較高,導致建設、使用成本一直保持在高位(包括:采購成本、設備能耗、維護成本及機房配套建設,等),且Unix服務器的RISC架構非標準化,導致集中管理困難,不同品牌設備之間無法實現共享,水平擴展能力有限的弊端日益凸顯。
1 IT 硬件設備比對及選型
隨著X86服務器的處理性能及可靠性不斷提升,X86服務器替代Unix服務器的時代已經來臨。目前單臺X86服務器可達150萬~200萬tpmc的處理能力,完全可與中、低端Unix服務器媲美,且可靠性升已至99.72%,再輔以云計算、集群技術,可靠性甚至超過小型機;此外,X86服務器的軟件支持環境和兼容性相比架構較為封閉的小型機更具優勢。因此目前處理能力小于120萬tpmc的中低端小型機已逐漸被X86服務器直接替代,而高端小型機目前主要部署重要業務數據庫,如計費、客戶信息管理,等,也可逐漸通過X86服務器集群代替。
1.1 IT建設設備介紹
本文主要就目前某電信運營商集采模型配置下,對IBM、HP、DELL及華為幾種主流品牌X86服務器進行比對,并歸納出不用檔次下設備特性。
通常傳統lDC機房,單機架輸入電流通常為10~16A。可承載功耗為2~3KW,可承載設備數量有限,架內空間浪費嚴重。但如若單機架功耗在7KW以上,雖然能提高架內空間利用率,但為保障設備工作溫度,需要部署分體式精確送風空調,將勢必大幅增加機房改造難度及投資。因此為控制成本,提高機房利用率的平衡下,目前單機架實際功耗通常控制在4.5~7KW。在以下各類型X86服務器的對比,采用部署于5KW單機架模型環境中進行對比分析。
低檔X86服務器(1U高)配置模型為,CPU:2路6核;內存:64G;硬盤配置8塊。參考CPU為Intel Xeon E5-2620,單臺最大處理能力為101.5萬tpmc,同檔次設備單臺最大功耗分布于430~490W之間;
中檔X86服務器(2U高)配置模型為,CPU:2路8核;內存:128G;硬盤配置16塊。參考CPU為Intel Xeon E5-2690,單臺最大處理能力為180萬tpmc,同檔次設備單臺最大功耗分布于488~691W之間;
高檔X86服務器(4U高)配置模型為,CPU:4路10核;內存:256G;硬盤配置10塊;高度4U。參考CPU為Intel Xeon E7-8870,單臺最大處理能力為319萬tpmc,同檔次設備單臺最大功耗分布于1100-1400W之間;
刀片服務器(僅配置半高刀片,單片配置CPU:2顆Intel E5-2690;內存:64G;硬盤:2塊)。如若單框配滿16塊刀片,則最大處理能力2880萬tpmc/臺,同檔次設備單臺最大功耗分布于5500~7440W之間;刀片服務器(僅配置全高刀片,單片配置CPU:4顆Intel E7-8870;內存:128G;硬盤:2塊)。如若單框配滿8塊刀片,則最大處理能力2550萬tpmc/臺,同檔次設備單臺最大功耗分布于5500~6820W之間。
根據以上分析。在5KW機架內各檔次X86服務器的設備數量、處理能力、內存容量、存儲容量及I/O處理能力橫向對比如下:
由圖1可見,刀片服務器,不論配置半高還是全高刀片,由于單臺設備滿配功耗較大,因此實際相對其他類型服務器在存儲容量及I/O處理能力均最低。導致架內空間使用率不高;4U高PC服務器,由于其高配置使得單機架內的內存容量最高,但其單機架內的業務處理能力、硬盤存儲容量及I/O處理能力表現卻不盡理想。而1U及2U高服務器在內存、存儲能力、I/O處理能力均優于其他機型,且2U服務器存儲容量最大,因此1U及2U服務器在業務承載能力、機房能耗控制及機房空間利用率方面表現最優。因此,也是lDC數據機房中X86設備的主要選型。
目前,運營商已逐步將現有業務由Unix服務器向X86服務器遷移,并通過云資源池的方式降低建設成本、實現硬件資源的靈活配置及擴展,最終助力其提高IT資源自動化管理和部署水平,提高企業IT系統的市場響應能力。
1.2 磁盤陣列
本文選取了國內電信運營商采用的主流磁盤陣列進行分析,分別是EMC的VMAX-4、HP P9500以及Fujitsi ETERNUS DX8700 S2,其存儲容量在2PB以上,但除HP P9500單機架功耗為7.1KW,其他兩型號的磁盤陣列,功耗均在5.5KW以內。明顯可看出。相比以往大型磁盤陣列,單機架盤陣已不再對動力系統造成巨大負擔,但單機架功耗均在500kg以上,且各品牌磁盤陣列擴容安裝需求各異,因此應注重在安裝部署前核算安裝機房樓板承重能力并預留相應擴容空間。
2 新增IT設備對機房配套的相應估算
2.1 動力系統
2.1.1 UPS系統容量核算
傳統電信運營商IDC數據中心多采用UPS(1+1)并機供電系統。隨著單機架功耗的增高,現有動力系統可承載能力的準確核算及相應改造措施,愈發重要。當動力系統需要新增大量負載時,需對UPS動力系統進行估算,并且為避免電流擾動,應盡量保證UPS系統三相負載平衡。
本文以UPS 1+1并機為例,僅推演A相容量估算為例,其他相荷載可依次類推。
A相最大安全承載電流:
A相可用電流:
A相可用電源容量:
新增負載后A相冗余電流:
UPS可用電源容量:
UPS冗余電源容量:
注:(1)S為UPS視在功率、及分別為UPS1及UPS2各已承載的電流容量;(2)為UPS功率因素。通常,動力系統設備(UPS,頭柜等)功率因素PF≥0.88(具體需與局方電源專業負責人確認);設備(服務器、存儲、網絡設備)功率因素PF≥0.9(具體需與設備廠家確認);(3)在核算時,乘以80%是為整個UPS系統預留20%的安全冗余容量。
當及均大干零,且新增荷載后的UPS系統基本保持三相平衡,則說明可新增該相應負荷。若存在三相不平衡的情況,需主動調整新增荷載及現有荷載的分布。如果或單項冗余電流小于零,則無法新增相應荷載。此時需考慮新建一套動力系統以滿足新增需求。
2.1.2 HVDC系統容量估算
由于高壓直流系統(HVDC)相對傳統UPS系統,在系統可靠性、系統能耗利用率、擴容能力、可維護性等方面更盛勝一籌,因此近年來在IDC數據中心供電系統中HVDC成為新寵。
其容量估算方案如下(以新增為例):
新增負載電流:
其電池供電電流:
供電電池組容量;
新增總電流:
需要HVDC整流模塊量
注:(1)電池組2V一組,因此每套電池組為2組*120只/組;(2)在中,K為電池保險系數,取1.25;T為電池后備時間,取1小時;η為電池放電系數,取O 55;α為電池溫濕度系數(當1小時≤放電率≤10小時,取O 88)。電池環境溫度,取15℃;(3)需要HVDC整流模塊量N≤10,根據依據實際配置N+1塊,若當N>10,則根據實際配置N+2塊,以作冗余保護。
當高壓直流頭柜的可用電流()大于零時,可滿足新增需求。
2.2 暖通系統
即使動力系統滿足新增功耗的需求,但大量的新增設備在運行中也帶來了大量熱量,導致機房溫度大幅提升,嚴重影響大量精密設備的工作環境,給業務系統帶來巨大隱患。因此除對了對動力系統進行評估外,也需對暖通系統進行評估。
本文僅針對已有IDC機房進行評估,因此不討論新建機房的制冷量估算。
假設現有空調N+1臺,單臺標稱顯冷量為,該設備已運行3年以上,則其估算方法如下:
實際有效顯冷量:
環境熱負荷:
剩余空調顯冷量:
注:(1)由于設備已運行3年以上,實際有效顯冷量需考慮20%的折舊率;(2)環境熱負荷為機房內人員及照明熱負荷,通常取015~018;(3)為現有設備及新增設備實際運行功耗之和當>O時。現有空調系統能夠滿足新增需求。
此外,目前IDC機房也多采用封閉冷通道的方式,提升設備制冷效果。設備機架采用“面對面,背靠背”的布置方式,將冷熱通道分開;架內設備空隙需用隔板封閉,防止冷熱氣流交叉;根據單機架功耗核算冷池寬帶:(1)冷池寬度=單塊透風地板寬度*2*單機架功耗KW/單塊透風地板制冷量;(2)單塊透風地板制冷量==0.6m*0.6m(地板尺寸)*50%(風口開孔率)*2m/s(風口風速)/3600s(1小時)÷空調1KW制冷量=1296m3/h÷270m3/h=4.8KW
2.3 其他確認關鍵點
由于磁盤陣列單機架滿配通常在500kg以上,在新增前需對機房樓板承重能力進行核算。對于承重要求較高的設備,應優先選擇規劃在機房橫梁或立柱附近,并在設備下方部署散力架。如若設備機房在2樓以上。應確認是否有載貨電梯,且核定其載重量應≥2噸以上,電梯轎廂尺寸≥1.5m(寬)*2.6m(深)*2.7m(高),以保證新增大型磁盤陣列的入駐安裝。
3 結語
盡管IT設備已逐步向節能環保化發展,但未來IT設備單機架功耗、重量仍將逐步提高。為了充分提高機房資源利用率,未來IDC數據機房動力系統將更多采用HVDC系統并逐步替代UPS系統,封閉冷通道將被普遍運用,機房承重及其相關配套將更加備受重視。因此我們在進行IDC機房改造時應對機房的動力系統、暖通系統及承重等方面進行準確評估,對保障信息系統建設的可行性及建設進度具有重要意義。