岳天亮, 朱 兵, 苗益川, 呂 麗
(貴州大學(xué)電氣工程學(xué)院, 貴陽 550025)
數(shù)據(jù)中心不僅是實(shí)現(xiàn)多種數(shù)字化技術(shù)的重要基石,更是推動(dòng)國家經(jīng)濟(jì)轉(zhuǎn)型升級(jí)的重要?jiǎng)恿Α?伴隨全球數(shù)據(jù)中心產(chǎn)業(yè)的快速發(fā)展,中國數(shù)據(jù)中心產(chǎn)業(yè)發(fā)展也在不斷提升,同時(shí)數(shù)據(jù)中心能源和運(yùn)營損耗也日漸增加。 2019 年,中國云計(jì)算整體市場規(guī)模達(dá)1 334億元,增速38.6%[1];2019 年中國大數(shù)據(jù)產(chǎn)業(yè)規(guī)模為5 397 億元,預(yù)計(jì)到2022 年大數(shù)據(jù)產(chǎn)業(yè)規(guī)模將突破萬億,未來將成為世界第一數(shù)據(jù)資源大國和全球數(shù)據(jù)中心[2];2018 年數(shù)據(jù)中心總用電量為1 608.89 億千瓦時(shí),預(yù)計(jì)到2023 年數(shù)據(jù)中心總用電量將增長到2 667.92 億千瓦時(shí)時(shí),數(shù)據(jù)中心的電費(fèi)占數(shù)據(jù)中心運(yùn)維總成本60%以上[3]。
數(shù)據(jù)中心由4 大部分組成:電源設(shè)備、冷卻設(shè)備、IT 設(shè)備和其他輔助組件。 IT 設(shè)備和冷卻設(shè)備是兩個(gè)主要組成部分,約占數(shù)據(jù)中心總能耗的90%[4]。 典型數(shù)據(jù)中心的熱流和能流圖如圖1 所示,服務(wù)器消耗電力并向熱環(huán)境散熱,決定了制冷系統(tǒng)的制冷負(fù)荷,進(jìn)而影響制冷設(shè)備的用電量。 而改變冷卻系統(tǒng)運(yùn)行參數(shù)會(huì)影響服務(wù)器的進(jìn)氣溫度和氣流,影響服務(wù)器的能耗。 因此,服務(wù)器是數(shù)據(jù)中心熱流和能流的基本單元,IT 設(shè)備和冷卻設(shè)備因熱環(huán)境耦合。 由于設(shè)備效率的不斷提高,IT 設(shè)備和制冷設(shè)備的節(jié)能將獲得最大化,能源轉(zhuǎn)換潛力體現(xiàn)在能源和熱管理上。 數(shù)據(jù)中心執(zhí)行這兩個(gè)管理功能的必要條件是準(zhǔn)確的服務(wù)器功耗模型。 功耗模型有助于識(shí)別優(yōu)化機(jī)會(huì)和預(yù)測決策的后果,并益于更有效的管理/控制,可最大程度地節(jié)約能源。 此外,服務(wù)器功耗模型在數(shù)據(jù)中心冷卻系統(tǒng)設(shè)計(jì)和電力趨勢預(yù)測中發(fā)揮著重要作用。

圖1 典型數(shù)據(jù)中心的熱流和能流圖Fig. 1 Heat and energy flow diagram of a typical data center
服務(wù)器是在網(wǎng)絡(luò)環(huán)境中提供計(jì)算能力并運(yùn)行軟件應(yīng)用程序的特定IT 設(shè)備。 服務(wù)器主要構(gòu)件有:CPU、內(nèi)存、芯片組、I/O 設(shè)備、存儲(chǔ)器、外圍設(shè)備、穩(wěn)壓器、電源和冷卻系統(tǒng)。
根據(jù)服務(wù)器的配置和結(jié)構(gòu),分為機(jī)架式、刀片式和塔式。 機(jī)架式服務(wù)器在數(shù)據(jù)中心應(yīng)用最為廣泛,安裝在標(biāo)準(zhǔn)的19 英寸機(jī)柜內(nèi),有1U(1U =1.75 英寸)、2U、4U 等規(guī)格;刀片服務(wù)器擁有可插入標(biāo)準(zhǔn)機(jī)架機(jī)箱的“刀片”單元,每個(gè)“刀片”均有一塊帶有處理器、內(nèi)存和I/O 設(shè)備的板;塔式服務(wù)器外形與結(jié)構(gòu)和普通電腦主機(jī)類似。 根據(jù)應(yīng)用場景,服務(wù)器可以分為數(shù)據(jù)庫、文件、郵件、打印、網(wǎng)絡(luò)、游戲和應(yīng)用等服務(wù)器。
基于工作負(fù)載,可將服務(wù)器分為科學(xué)研究、數(shù)據(jù)分析、業(yè)務(wù)處理、云數(shù)據(jù)、可視化和音頻、通信和存儲(chǔ)7 大類[5]。 各類服務(wù)器的工作負(fù)載類型見表1,各工作負(fù)載類型下的IT 設(shè)備硬件利用率見表2。

表1 服務(wù)器常見工作負(fù)載類型Tab. 1 Common types of server workloads

表2 常見工作負(fù)載類型下IT 硬件的利用率Tab. 2 Utilization of IT hardware for common workload types
常見工作負(fù)載機(jī)架功耗趨勢如圖2 所示,可知科學(xué)研究、數(shù)據(jù)分析工作負(fù)載機(jī)架功耗增長較快,這兩種負(fù)載對服務(wù)器CPU 的利用率高,且隨著CPU多核、超頻、超線程的發(fā)展,機(jī)架功耗增加較快。 通信及存儲(chǔ)工作負(fù)載對服務(wù)器硬盤和I/O 利用率高,而硬盤和I/O 的功耗增長緩慢,所以機(jī)架功耗增長緩慢。 不同類型的工作負(fù)載,其功耗趨勢不同,對服務(wù)器各硬件的利用程度不同,故可根據(jù)服務(wù)器工作負(fù)載的類型預(yù)測服務(wù)器的功耗。

圖2 常見工作負(fù)載機(jī)架功耗趨勢Fig. 2 Common workload rack power trend
建立服務(wù)器功耗模型的目的:
(1)估計(jì)電源管理的潛力;
(2)預(yù)測服務(wù)器或數(shù)據(jù)中心的能耗;
(3)平衡數(shù)據(jù)中心的需求:即降低能耗和提供高可靠性。 現(xiàn)有功耗模型涵蓋了物理機(jī)和虛擬機(jī),可分為相加模型、動(dòng)態(tài)模型和其他模型。
服務(wù)器的功耗組成及占比如圖3 所示,其中CPU 在服務(wù)器功耗中的占比最大,其次是外圍設(shè)備、電源、內(nèi)存、主板、硬盤/存儲(chǔ)以及冷卻風(fēng)扇。 可將各部分功耗直接相加來建立服務(wù)器功耗模型,如式(1)所示。

圖3 服務(wù)器功耗構(gòu)成Fig. 3 Server power consumption composition
其中,PCPU、Pmemory、Pdisk和PI/O分別代表CPU、內(nèi)存、存儲(chǔ)和I/O 設(shè)備功耗。
各元件均有其自身的功耗模型,不同服務(wù)器的配置不同,其主要耗能元件及其占比會(huì)略有不同,如圖4 所示。

圖4 不同服務(wù)器配置下各組件的功耗占比Fig. 4 Power consumption ratio of components in different server configurations
相加模型將數(shù)據(jù)中心服務(wù)器在運(yùn)行過程中產(chǎn)生的功耗總量表示為各子系統(tǒng)的能耗總和。 一些學(xué)者認(rèn)為CPU、內(nèi)存、硬盤、網(wǎng)絡(luò)和風(fēng)扇是服務(wù)器功耗模型的主要組成部分[6-7],其它元件的功耗與CPU 和內(nèi)存相比較小,或與CPU 功耗關(guān)聯(lián)性較好,即CPU和內(nèi)存是主要組成部分;所以服務(wù)器功耗模型是CPU、內(nèi)存和其他設(shè)備的函數(shù)[8]
服務(wù)器并不總是處于活動(dòng)狀態(tài),因此服務(wù)器功耗分為:
(1)靜態(tài)功耗(Pbase),即空閑功耗,包括CPU、內(nèi)存、I/O 等部件在空閑狀態(tài)下的功耗,取固定值;
(2)動(dòng)態(tài)功耗(Pactive),即服務(wù)器功耗取決于工作負(fù)載,服務(wù)器功耗與服務(wù)器運(yùn)行狀態(tài)下的負(fù)載處理量、CPU 利用率、任務(wù)處理時(shí)間和類型等變量相關(guān)。
相加模型表示為靜態(tài)功耗和動(dòng)態(tài)功耗之和[9-10],如式(2)所示。
其中,PΔ是修正系數(shù)(固定值或表達(dá)式)。
將Pbase視為常數(shù),并將Pactive表示為函數(shù)(線性函數(shù)、冪函數(shù)、高次多項(xiàng)式等)。 動(dòng)態(tài)模型可分為回歸模型、冪函數(shù)模型和多項(xiàng)式模型。
從發(fā)熱和散熱角度出發(fā),服務(wù)器包括IT 組件和散熱組件,服務(wù)器功耗模型轉(zhuǎn)換為IT 組件和散熱組件總和[11-12]。
2.2.1 回歸模型
服務(wù)器功耗回歸模型考慮了服務(wù)器的功能單元的功耗和性能計(jì)數(shù)器之間的相關(guān)性,捕獲了固定或空閑功耗以及隨著服務(wù)器功能單元活動(dòng)的變化而變化的動(dòng)態(tài)功耗。 因此,基于回歸的服務(wù)器功耗模型也被稱為“冪律模型”。 由于回歸模型的簡單和可解釋,研究中大多采用回歸模型,但服務(wù)器工作負(fù)載的波動(dòng)頻繁,這些模型不適合跟蹤云計(jì)算中的服務(wù)器功耗[13]。 Fan 等[14]分析了回歸模型的精度,認(rèn)為回歸模型可以很好地預(yù)測動(dòng)態(tài)功耗,誤差低于5%。然而,非線性模型的誤差在1%左右,具體取決于應(yīng)用對象。 本文將回歸模型分為:簡單回歸模型、多元回歸模型和非線性回歸模型。
2.2.1.1 簡單回歸模型
功耗和捕捉CPU 活動(dòng)性能計(jì)數(shù)器之間的相關(guān)性于2000 年首次提出。 基于此,F(xiàn)an 等[14]認(rèn)為服務(wù)器的整體功耗位于空閑功耗與峰值功耗區(qū)間內(nèi)時(shí),其值與CPU 利用率成一元線性關(guān)系,服務(wù)器功耗Pserver如式(3)所示,且該模型得到了實(shí)驗(yàn)驗(yàn)證。 考慮進(jìn)風(fēng)溫度對服務(wù)器功耗的影響,Wang[15]等人用進(jìn)風(fēng)溫度的二階多項(xiàng)式對功耗模型進(jìn)行了修正。
其中,Pidle為服務(wù)器的靜態(tài)功耗(W);Pactive為服務(wù)器的峰值功耗(W);u 為服務(wù)器利用率。
Kavanagh 等[16]提出一個(gè)類似基于云系統(tǒng)與虛擬機(jī)的模型,針對不同應(yīng)用場景使用不同的自變量,能源用戶總功耗Px,如式(4)所示:
其中,Hidle和Hactive分別為主機(jī)測量的靜態(tài)功耗與動(dòng)態(tài)功耗;為指定的能源用戶的CPU利用率;與分別為主機(jī)上能源用戶的計(jì)數(shù)和指定主機(jī)上能源用戶集成員的CPU 利用率。
Rezaei-Mayahi 等[17]采用簡單回歸模型,考慮CPU 溫度和進(jìn)氣溫度的差異,研究環(huán)境溫度對功耗的負(fù)面影響,假設(shè)CPU 溫度與服務(wù)器利用率呈線性相關(guān),并分析了入口溫度與功率增量之間的關(guān)系,并反映在公式(2)的增量中。
2.2.1.2 多元回歸模型
公式(2)和公式(3)所示簡單回歸模型基于CPU 利用率,而處理角度不同,簡單回歸模型能夠?qū)PU 密集型工作負(fù)載產(chǎn)生的能耗進(jìn)行合理的預(yù)測,但面對I/O 和內(nèi)存密集型應(yīng)用程序引起的功耗力不從心。 一些研究在服務(wù)器能耗回歸模型中考慮兩個(gè)及以上影響因素作為自變量,對多元回歸模型進(jìn)行研究。
Alan 等[18]提出CPU 利用率、內(nèi)存讀取速度、磁盤和網(wǎng)絡(luò)利用率函數(shù)的功耗模型,其擬合結(jié)果證明誤差不超過6%,服務(wù)器的功耗Pserver(W) 如式(5)所示:
其中,ucpu、umem、udisk、unet分別為CPU、內(nèi)存、磁盤以及網(wǎng)絡(luò)的利用率。
Lent[19]假設(shè)CPU、磁盤和I/O 端口等子系統(tǒng)在各自的利用率方面呈現(xiàn)線性功耗。 Witkowski 等[20]則將CPU 溫度添加到功耗模型中。
(3)非線性模型
Fan 等[14]提出了一個(gè)包括校準(zhǔn)參數(shù)r的非線性模型,該參數(shù)使平方誤差最小,如式(6)所示:
其中,r是需要通過實(shí)驗(yàn)獲得的平方誤差最小的校準(zhǔn)參數(shù),且r取決于服務(wù)器類型;Pmax為服務(wù)器的峰值功耗;Pu為服務(wù)器功耗。
在預(yù)測服務(wù)器功耗方面,式(6)中的模型比回歸模型執(zhí)行得更好。
2.2.2 冪函數(shù)模型
冪函數(shù)模型基于服務(wù)器動(dòng)態(tài)電壓頻率縮放(Dynamic Voltage Frequency Scaling,DVFS)技術(shù),考慮CPU 運(yùn)行頻率(f)、工作電壓(V)對服務(wù)器能耗影響而建立的模型。 借助DVFS 技術(shù),根據(jù)處理的工作負(fù)載強(qiáng)度對CPU 工作電壓和工作頻率靈活調(diào)節(jié)。 對于某些型號(hào),CPU 是能耗模型的主要部分,在頻率f下工作,動(dòng)態(tài)功耗與V2×f 成比例,當(dāng)電壓降低時(shí),頻率也降低。 所有其他組件(CPU 除外)的功耗是獨(dú)立的,因此,服務(wù)器的功耗可以表示為與工作頻率的立方關(guān)系[21]。 此外,在云計(jì)算中,考慮能源成本和性能之間的權(quán)衡,將服務(wù)器利用率和服務(wù)率視為模型的主要組成部分。 然而,一些研究將服務(wù)器利用率作為表征功率模型的變量,且服務(wù)器功耗與CPU 利用率之間存在冪函數(shù)關(guān)系[22]。
2.2.3 多項(xiàng)式模型
針對一元線性回歸模型和冪函數(shù)模型在預(yù)測非CPU 密集型工作負(fù)載的服務(wù)器功耗時(shí)的不準(zhǔn)確性問題,Zhang 等[23]使用高次多項(xiàng)式模型來擬合服務(wù)器功耗,發(fā)現(xiàn)三次多項(xiàng)式具有最佳擬合度。 Lin 等人[24]提出了服務(wù)器能耗與服務(wù)器利用率二階多項(xiàng)式之間的數(shù)學(xué)模型。
相加模型、動(dòng)態(tài)模型是廣泛使用的功耗模型,其他模型也得到了發(fā)展。 BAI 等[25]使用服務(wù)器利用率和芯片溫度的乘積來表示功耗。 有學(xué)者還提出了考慮多核CPU、活動(dòng)虛擬機(jī)數(shù)量、服務(wù)器相關(guān)變量以及CPU 利用率或CPU 平均溫度與進(jìn)風(fēng)溫度的功耗模型[26-27]。
數(shù)據(jù)中心IT 設(shè)備功耗與服務(wù)器處理的工作負(fù)載密切相關(guān)。 負(fù)載處理量增加,服務(wù)器功耗增加,散熱量上升,制冷系統(tǒng)出力增加,數(shù)據(jù)中心整體能耗增加。 量化地研究工作負(fù)載靈活調(diào)度潛力為數(shù)據(jù)中心帶來用電調(diào)節(jié)空間,有助于實(shí)現(xiàn)數(shù)據(jù)中心電力負(fù)荷的精準(zhǔn)調(diào)控,關(guān)鍵環(huán)節(jié)建立工作負(fù)載處理過程與服務(wù)器能耗之間的映射模型,映射模型主要考慮了工作負(fù)載的到達(dá)時(shí)間、處理速率和數(shù)量等影響因素[28-29]。
近年來,云計(jì)算技術(shù)為優(yōu)化和控制數(shù)據(jù)中心的能耗提供了新的方法手段,不少學(xué)者對“云數(shù)據(jù)中心”能耗進(jìn)行研究。 許多學(xué)者利用計(jì)算機(jī)領(lǐng)域傳統(tǒng)的負(fù)載均衡和調(diào)度、資源分配等基礎(chǔ)或改進(jìn)算法,嵌入各類能耗模型,并結(jié)合相關(guān)云計(jì)算平臺(tái)調(diào)度系統(tǒng)對算法效果進(jìn)行評(píng)估[30-31]。 此外,機(jī)器學(xué)習(xí)方法廣泛用于云數(shù)據(jù)中心的功耗模型[32]。
現(xiàn)有功耗模型中主要變量統(tǒng)計(jì)結(jié)果如圖5 所示。 可知模型建立考慮最多的因素是CPU,其次是服務(wù)器、溫度、內(nèi)存和負(fù)載,網(wǎng)絡(luò)和時(shí)鐘頻率關(guān)注較少。 一些研究已經(jīng)驗(yàn)證了模型的準(zhǔn)確性。 據(jù)統(tǒng)計(jì),相加模型、動(dòng)態(tài)模型的誤差分別小于9%和11%;對于相加模型,大多數(shù)研究的誤差小于5%,最壞情況下的錯(cuò)誤率為10%;對于動(dòng)態(tài)模型,簡單回歸模型、多元回歸模型、冪函數(shù)和多項(xiàng)式等模型的誤差一般分別小于4.6%、7%、6%和4%[33]。 Zhang 等[23]比較了線性、二次和三次模型,線性模型的平均誤差大部分在8%以下,平均誤差為2.74%;二次模型平均誤差2.04%;三次多項(xiàng)式平均誤差都在3%以下,大多數(shù)平均誤差低于1.5%;發(fā)現(xiàn)三次模型可以很好地?cái)M合測量數(shù)據(jù)。 Lin 等[24]分析了6 種功耗模型之間的誤差, 得出多項(xiàng)式模型的平均誤差最小(1.615%),其次是冪函數(shù)模型(2.794%)和二次模型(2.974%);系數(shù)固定時(shí),線性和冪函數(shù)模型的誤差分別增加到5.918%和8.222%;僅對線性、冪函數(shù)和多項(xiàng)式三者比較發(fā)現(xiàn),線性模型最大和最小誤差分別為1.41%和0.07%,冪函數(shù)模型(最大1.29%、最小0.04%),多項(xiàng)式模型(最大1.29%、最小0.05%),這表明3 種模型都能準(zhǔn)確的反映服務(wù)器性能特征。 因此,多項(xiàng)式模型最適合服務(wù)器的功耗。

圖5 服務(wù)器功耗模型主要變量統(tǒng)計(jì)結(jié)果Fig. 5 Statistical results of major variables in the server power model
隨著信息通信技術(shù)的發(fā)展,IT 設(shè)備的功率密度和能耗不斷增加,促使冷卻需求和冷卻系統(tǒng)能耗不斷提高。 因此,數(shù)據(jù)中心熱管理和能源管理需要進(jìn)一步加強(qiáng),服務(wù)器作為能流和熱流的基本單元,將功耗模型應(yīng)用于能量預(yù)測和管理,以減少服務(wù)器和冷卻系統(tǒng)能耗。
2.5.1 數(shù)據(jù)中心(服務(wù)器)能源管理
數(shù)據(jù)中心各部件的功耗模型用于預(yù)測各負(fù)載段功耗,優(yōu)化數(shù)據(jù)中心整體能耗。 利用數(shù)據(jù)中心負(fù)載部分的功耗模型,應(yīng)用不同的功耗優(yōu)化方法,以確保數(shù)據(jù)中心的能源效率和成本效益[34]。 為了減少服務(wù)器能耗,研究人員通過考慮最佳熱環(huán)境,提出基于服務(wù)器電源模型的節(jié)能控制策略。 Berezovskaya等[35]提出了一個(gè)用于任意數(shù)據(jù)中心建模的模塊化工具箱,并用該工具箱搭建SICS ICE 數(shù)據(jù)中心模塊1 的模型,對比了模塊1 中所有SEE 冷卻器在兩種策略下的能耗發(fā)現(xiàn),當(dāng)前策略消耗2.5 kWh,而新策略消耗0.785 7 kWh,節(jié)省1.717 7 kWh,12 h 節(jié)能率為68.6%;Zapater 等[36]分析了計(jì)算能力、溫度、泄漏和冷卻功率之間的關(guān)系,并提出了一種冷卻管理策略,通過設(shè)置運(yùn)行期間的最佳風(fēng)扇速度來最小化服務(wù)器能耗。 整個(gè)集群在泄漏和風(fēng)扇功率方面的節(jié)能將隨著環(huán)境溫度的升高而增加,在32 ℃時(shí)最大可節(jié)省10.3%。
服務(wù)器功耗模型可在操作期間指導(dǎo)服務(wù)器電源開/關(guān)、工作負(fù)載分配和虛擬化。 服務(wù)器的“空閑”在實(shí)踐中意味:
(1)服務(wù)器必須對新工作的請求立即做出反應(yīng);
(2)服務(wù)器允許短暫暫停;
(3)服務(wù)器有足夠的時(shí)間喚醒[37]。
虛擬化技術(shù)允許共享服務(wù)器、存儲(chǔ)和網(wǎng)絡(luò)設(shè)備,以提高資源利用率[38];在虛擬化中,應(yīng)用程序能很容易地從一個(gè)物理服務(wù)器遷移到另一個(gè)。 管理人員將工作負(fù)載分配到指定服務(wù)器,其他服務(wù)器通過任務(wù)需求來關(guān)閉電源或進(jìn)入睡眠模式。 Noguchi 和Nishi[39]比較了服務(wù)器容量和傳入請求總和容量,以確定是否啟動(dòng)服務(wù)器;Li 等[40]為了改進(jìn)傳統(tǒng)的性能-能源模型,最大限度地減少云數(shù)據(jù)中心的能源消耗,提出了一種節(jié)能和QoS 感知(EEQoS)的虛擬資源整合模型,并將EEQoS 模型與粒子群優(yōu)化算法相結(jié)合,通過設(shè)置每個(gè)QoS 值功耗為目標(biāo)函數(shù)來整合數(shù)據(jù)中心的虛擬資源,與傳統(tǒng)模型相比,該模型平均減少了27.2%響應(yīng)時(shí)間、31.4%成本和40.5%SLA 違例率,并平均提高了13.5%吞吐量和增加了不到3.8%能耗;Arshad[41]等提出一個(gè)基于虛擬機(jī)功耗模型整合概念的能效啟發(fā)式新算法,使用虛擬機(jī)整合來最小化云中高能耗,在虛擬機(jī)遷移、遷移導(dǎo)致的性能下降、服務(wù)水平協(xié)議違規(guī)和執(zhí)行時(shí)間方面與最先進(jìn)的技術(shù)相比有了顯著改進(jìn)。 對數(shù)據(jù)中心(服務(wù)器)的電源/能量管理進(jìn)行了一些嘗試,但隨著節(jié)能要求的不斷提高,基于功耗模型的精細(xì)化控制/管理技術(shù)成為未來研究的重要方向。
2.5.2 冷卻系統(tǒng)負(fù)荷計(jì)算
制冷供需匹配是制冷系統(tǒng)節(jié)能的關(guān)鍵。 在制冷系統(tǒng)設(shè)計(jì)中,制冷量取決于數(shù)據(jù)中心機(jī)房的制冷需求,并通過各種參數(shù)來計(jì)算總冷卻負(fù)荷,其中IT 設(shè)備散熱是主要部分,設(shè)計(jì)人員經(jīng)常將IT 設(shè)備的銘牌功率作為其散熱量。 根據(jù)SPEC 公司提供的數(shù)據(jù),服務(wù)器平均充分利用功率僅占銘牌功率的50%,且服務(wù)器并非始終以峰值功率運(yùn)行,數(shù)據(jù)中心的熱負(fù)荷被顯著高估,冷卻設(shè)備被設(shè)計(jì)為超大尺寸,電力系統(tǒng)冗余過多。 Cheung 等[42]使用簡單回歸模型對數(shù)據(jù)中心功耗建模,并利用2007 年至2017 年間各個(gè)制造商提交給SPECpower2008 數(shù)據(jù)庫的491 個(gè)數(shù)據(jù)點(diǎn),通過線性回歸估計(jì)服務(wù)器的最大和空閑功耗,同時(shí)將模型與一個(gè)常用的建筑模擬程序進(jìn)行聯(lián)合模擬,以亞熱帶地區(qū)一個(gè)典型的地下室設(shè)有數(shù)據(jù)中心的大型辦公室為對象進(jìn)行能耗模擬,結(jié)果表明該模型能夠合理估算服務(wù)器、網(wǎng)絡(luò)和配電負(fù)荷,顯示了數(shù)據(jù)中心的運(yùn)行狀態(tài)對其運(yùn)行效率的影響,包括冷卻系統(tǒng)的效率。
此外,服務(wù)器功耗模型還用于冷卻控制或氣流管理,以實(shí)現(xiàn)節(jié)能。 Turk 等[43]提出了冷卻控制策略,通過設(shè)置每個(gè)機(jī)架的入口溫度和氣流,以基于動(dòng)態(tài)模型以及組合冷卻和工作負(fù)載管理來最小化數(shù)據(jù)中心的功率,該策略在冬季節(jié)電1.2%,夏季節(jié)電14.4%;Noguchi 和Nishi[44]提出一種主動(dòng)控制器快門,防止當(dāng)服務(wù)器溫度低于40 ℃時(shí)冷空氣通過空閑或關(guān)閉的服務(wù)器泄漏;Ham[11]等應(yīng)用模型,考慮熱特性以模擬每小時(shí)的冷卻能耗,發(fā)現(xiàn)當(dāng)送風(fēng)溫度高于19℃時(shí),風(fēng)扇能耗增加,冷卻能耗也增加;Athavale[45]等開發(fā)了基于遺傳算法的靜態(tài)和動(dòng)態(tài)框架,用于優(yōu)化數(shù)據(jù)中心消耗的冷卻能量,在IT 負(fù)載分布粒度的3 個(gè)級(jí)別(機(jī)房、機(jī)架和行)中,機(jī)架級(jí)分布消耗的冷卻功率最小,7.5 h 的動(dòng)態(tài)優(yōu)化測試案例表明,冷卻能耗降低了21%~50%。
2.5.3 討論
功耗模型的應(yīng)用中,準(zhǔn)確和簡單是主要要求,但兩者不兼容,對功耗模型的應(yīng)用有負(fù)面作用。 若模型要求準(zhǔn)確性,則需要盡可能多的考慮影響服務(wù)器功耗的因素,但只考慮服務(wù)器主要部件(如CPU 和內(nèi)存)的功耗,模型的準(zhǔn)確度較差。 例如,使用服務(wù)器的簡單回歸功耗模型來獲得IT 負(fù)載的功耗,用于進(jìn)一步評(píng)估數(shù)據(jù)中心內(nèi)部電源調(diào)節(jié)系統(tǒng)(IPCS)中的可靠性。 Zhang 等[23]使用服務(wù)器功耗的復(fù)雜高階回歸模型,通過在云界面中調(diào)度任務(wù)來提高服務(wù)器的電源效率,除了簡單之外,還專注于模型的準(zhǔn)確性,在使用現(xiàn)有模型預(yù)測或評(píng)估服務(wù)器或數(shù)據(jù)中心的功耗/能耗時(shí),考察適用性并驗(yàn)證準(zhǔn)確性。
服務(wù)器功耗模型在數(shù)據(jù)中心熱管理和能源管理中起著至關(guān)重要的作用。 本文回顧了服務(wù)器的分類和負(fù)載類型,并對現(xiàn)有的服務(wù)器功耗模型進(jìn)行了總結(jié)和分類。 此外,作者研究了這些模型的應(yīng)用場景,經(jīng)分析得出以下結(jié)論:
(1)數(shù)據(jù)中心常用的是機(jī)架式服務(wù)器,不同的服務(wù)器組件配置和工作負(fù)載意味著工作重心的差異,會(huì)導(dǎo)致不一樣的能耗變化。 現(xiàn)有模型的應(yīng)用和新模型的開發(fā),需要考慮這些變化和服務(wù)器的工作負(fù)載。
(2)現(xiàn)有的功耗模型可分為相加模型、動(dòng)態(tài)模型和其他模型;而動(dòng)態(tài)模型可進(jìn)一步分為回歸模型、冪函數(shù)模型和多項(xiàng)式模型。 CPU 是功耗模型中考慮最多的變量,其次是服務(wù)器、溫度、內(nèi)存和工作負(fù)載。 但這些模型都是針對固定環(huán)境下的服務(wù)器,大部分都適用于單核系統(tǒng)。 考慮到簡單性、便利性和準(zhǔn)確性,無論是在服務(wù)器、系統(tǒng)還是房間級(jí)別,線性回歸和多項(xiàng)式模型都是最佳選擇,誤差分別小于7%和4%。 此外,建立模型需考慮節(jié)能技術(shù)和進(jìn)氣溫度,并應(yīng)使用分段函數(shù)。
(3)建立功耗模型是為了估計(jì)能源管理的潛力,預(yù)測服務(wù)器或數(shù)據(jù)中心的功耗,平衡能源消耗和可靠性。 這些模型已經(jīng)在IT 領(lǐng)域和制冷領(lǐng)域的一些方案中得到應(yīng)用,但還需要更多的努力。 服務(wù)器功耗模型可進(jìn)行準(zhǔn)確的冷卻負(fù)荷計(jì)算并避免過多的冗余,但基于模型的能源和熱感知管理可實(shí)現(xiàn)最佳的整體節(jié)能效果。