999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于隨機模型的云平臺資源調度策略設計

2014-07-08 08:31:54趙少卡李立耀徐聰楊家海
計算機工程與應用 2014年17期
關鍵詞:資源策略服務

趙少卡,李立耀,徐聰,楊家海

1.福建師范大學福清分校數學與計算機科學系,福建福清 350300

2.清華大學網絡科學與網絡空間研究院,北京 100084

基于隨機模型的云平臺資源調度策略設計

趙少卡1,2,李立耀1,徐聰2,楊家海2

1.福建師范大學福清分校數學與計算機科學系,福建福清 350300

2.清華大學網絡科學與網絡空間研究院,北京 100084

針對云計算資源管理的實際需求,提出一種基于隨機模型的云平臺調度策略,設計合理高效的資源調度算法,解決傳統代數模型請求丟失率高以及其他隨機模型負載均衡指標性能較差的問題,從而在服務性能和執行效率的基礎上保證服務器的資源負載,使云平臺處于相對穩定的狀態。在實驗環境中的驗證結果表明,該調度策略能夠優化虛擬資源的使用效率和服務響應時間,同時能夠達到較好的負載均衡并降低運營成本。

云計算;資源調度;負載均衡;隨機模型

1 引言

伴隨著分布式計算特別是網格技術的發展,產生了云計算這一新型的服務計算模型。云計算體系架構中,基礎設施即服務(Infrastructure as a Service,IaaS)以服務的方式為用戶提供包括處理、存儲、網絡和其他基本的計算資源的使用,用戶可以在其申請到的虛擬資源中部署或運行應用程序,而不需要了解計算資源提供過程的細節。隨著數據中心規模的日益增大,云平臺中服務器的數目不斷增加,同時虛擬化環境也日趨復雜,這種情形下如果不能夠提升IaaS平面的管理能力,使其能夠充分全面地調度數據中心的各項資源,則很大程度上會降低整個數據中心的工作性能。因此,虛擬資源的調度問題成為IaaS平臺中的一個主要問題,設計并實現一套較為完善的資源調度策略具有十分重要的理論和現實意義。

2 云平臺調度的研究現狀

資源調度是將資源從提供方分配給用戶的過程。云數據中心的資源調度技術是云計算應用的核心,是云計算得以大規模應用和提高系統性能、兼顧節能減排的關鍵技術。現有的IaaS調度策略主要分為兩種,一種是基于代數模型[1-4],主要是以最優化服務性能為目標的M in-m in調度策略、suffrage調度策略,以優化系統性能指標為目標的Best-Fit、First-Fit調度策略,以及其他一些以優化經濟收益為目標的調度策略。這些調度策略主要以提高云計算系統的總體吞吐率為核心的優化目標,如最優化請求的響應時間、請求處理效率等服務質量指標,以及服務器負載狀況、資源利用率等系統性能指標。總體來看,目前大部分云計算平臺使用的都是基于代數模型的調度策略,這些策略雖然能夠滿足當前的調度達到最優值,但是缺乏對于階段性調度結果的總體評估,并經常導致請求的丟失以及系統整體吞吐率的下降。

另一種是基于隨機模型的調度機制[5-7],希望在保證系統及服務性能的同時降低請求的丟失率,但目前的隨機調度機制雖然彌補了代數模型的諸多不足,但針對云計算平臺調度特點來說,依然存在缺陷,例如,在優化系統及服務性能指標時忽略了服務器負載均衡方面的指標。因此,一種基于隨機模型更為完善的調度機制亟待提出。

3 模型設計

本算法模型基于隨機模型的云平臺資源負載均衡調度策略,主要分為兩部分:服務請求的隊列排序和服務器優化選擇。用戶發送申請虛擬機請求到達云隊列,隊列將根據用戶請求的優先級進行排序,將第一個請求發送至服務器進行分配,云端根據負載均衡算法,挑選出最合適的服務器接受這一待處理的請求(如圖1所示)。其中,第一部分主要是對資源請求的調度,在優化服務指標性能的Best-Fit算法思想基礎上引入隨機模型,使用基于優先級別的隊列,減少輕量級服務請求被丟棄的概率以及請求積壓的數量,提高系統的吞吐率;第二部分是對目標主機的選擇,在綜合考慮服務器負載情況以及資源請求的積壓狀況的情況下,選擇相應時間最快同時負載情況相對較小的目標主機進行虛擬資源的分配,使得調度策略在優化服務性能指標的同時,在服務器負載均衡方面效果更佳。

3.1 模型的評價指標

(1)服務請求丟失率(R0(t))

在一時間單元t內有NA(t)個服務請求到達,其中如果有N0(t)個請求由于隊列溢出而被丟棄,則定義該時間單元內服務請求的丟失率為:

(2)服務請求積壓狀況(L(t))

圖1 算法模型示意圖

服務請求的積壓狀況記錄了在某一時刻尚未被處理的請求的數目,請求積壓情況越嚴重,則該時刻服務響應的效率就會下降。具體地,定義t時刻某項服務m被積壓的請求數目為Lm(t),該時刻的請求積壓量由前一時刻的請求積壓量,t時刻內到達的新的請求數目Am(t)以及t時刻內處理掉的請求的數目Hm(t)共同決定,具體關系為:

對于云系統整體的資源調度隊列,t時刻所有任務積壓量的總和L(t)則表示為:

為了減小請求的丟失情況同時提高系統的響應時間,增大吞吐率,合理的調度策略應當使系統處于穩定狀態時,請求積壓量維持在一個有限值,即盡可能地滿足:

(3)平均請求處理時間(tm)

服務的平均請求處理時間反映了云計算系統處于穩定狀態時平均的工作效率。平均請求處理時間的長短不僅與穩態時系統的請求積壓量有關,而且與請求到達的速率相關。具體來說,假設某項IaaS服務m的請求到達服從強度為λm的泊松分布,那么云平臺達到穩定狀態時,該服務請求的平均處理時間tm為:

(4)云服務器負載均衡狀況(σDC)

在某一時刻t時,設一個由N臺服務器組成的云計算IaaS平臺中,第i臺服務器的資源利用率為P(t),那么在這一時刻整個IaaS平臺的平均負載狀況AvgDC可以被定義為:

同時,用σDC來定義云服務器的負載均衡狀況,σDC的值越小則服務器的負載越均衡:

在具體的IaaS資源調度場景中,初始開始調度時服務請求的積累量相對較小,服務丟失率較低,平均響應時間也很快。隨著不同種類服務調用請求的增加,有限的IaaS資源不能同時滿足所有的請求需求,會導致請求的不斷積壓,L(t)的值不斷增大,同時請求的平均處理時間tm逐漸增加;當某一時刻,積壓的請求量大于系統設定的等待隊列的上限時會造成服務請求的丟失,出現R0>0的情況;最終,隨著調度過程的不斷繼續,云計算系統最終會處于一個相對穩定的狀況,系統的各項性能評價指標會相對穩定在一個固定的值上,本調度策略主要對系統處于穩態時各項性能指標進行綜合的優化與分析。

在云計算IaaS平臺處于穩定狀態時,如果R0>0,但服務積壓量L(t)的值很小,說明該調度策略將很多對虛擬資源需求量較大的重量級任務積壓在了隊列當中,雖然響應時間能夠保證相對較小,但吞吐率并不大,不是理想的調度策略,需要改變每次優先選取的任務,增大資源的分配粒度;如果服務積壓量L(t)的值一直處于最大值,則任務一直處于大量積壓狀態,這種情況會造成任務請求的大量丟失,也不是理想的調度策略,需要對被積壓的服務特征進行分析,采用優先排隊的策略,減小等待隊列的長度;如果服務積壓量L(t)、服務丟失率R0以及響應時間tm的值都比較理想,但是負載均衡參數σDC的值較大,說明該方法對于任務的排序方式是合理的,但服務器的選擇方面不能保證負載均衡的情況,需要優化服務器選擇的方式。

3.2 模型的詳細設計

3.2.1 服務請求的隊列排序

模型的第一步就是要進行服務請求的隊列排序,目的是在保證吞吐率的前提下,使等待隊列的長度維持在一個固定的上限之內,避免出現無限等待的情況。和其他的調度方式類似,本調度策略中也使用等待隊列對暫時無法處理的服務請求進行排隊,當其他任務釋放之后,云平臺具備了足夠的資源,會從隊列之中選擇合適的任務進行處理。目前通用的調度算法之所以階段性調度結果并不理想,是因為大部分的調度策略都是單目標優化的代數過程,一方面這些策略僅考慮了瞬時調度的最優情況而忽略了階段性整體調度的情況,導致了大量請求的積壓以及無限等待的情況出現;另一方面,這些策略的優化目標一直是固定的,而實際調度過程的不同階段往往需要根據實際需求不斷調整調度策略的優化目標,如當平臺資源剩余較多時應以最大化吞吐率為優化目標,盡量多地將剩余資源分配出去,而當請求積壓嚴重時,應以最大限度減小積壓狀況,提高服務響應時間為優化目標,此時往往需要調度一些輕量級的服務,目前的調度算法由于忽略了這些因素導致結果調度并不理想。本調度算法將根據調度過程的不同階段不斷調整優化目標,使整體的階段性調度結果達到一個相對理想的狀態。

首先,在云計算平臺資源富裕的情況下,調度策略以優化每次調度的吞吐率為首要目標,此時的調度策略與Best-Fit算法相似,每次選取資源需求最大的請求進行處理。假設t時刻服務m(比如某種特定種類的虛擬機模板)對某種硬件資源k(如:CPU、內存等)的需求量為Dmk,服務器i對該資源的占有總量為Cik,同時該時刻服務器中已經分配了Nmi(t)個服務m資源,則三者應當滿足的約束條件為(M為總的服務種類數目):

此時的調度策略可以抽象成為如下的優化模型,此時由于請求積壓量較小,不足以影響調度的效率,因此,單次調度的資源數目作為首要的優化目標,而服務器的資源總量作為主要的限制條件。

其中,K為硬件資源的總的種類數目,M(t)為t時刻已被觸發的服務種類的集合,MaxqueueLength為等待隊列的隊長上界。此時以優化一次調度的資源總量為目標,調整等待隊列中服務請求的順序,將資源需求量最大的服務置于隊首優先被處理。

隨著調度的進行,資源的需求量逐漸達到或超過云系統的資源總量,此時沿用先前的調度策略會造成大量的請求被積壓,此時應以盡量增加調度任務的數目,減小任務的積壓,減少服務請求的丟失率為首要調度目標,優化模型調整為:

此時的調度以盡量減少任務積壓為目標,在云平臺資源緊張的情況下,可以考慮適當增加輕量級任務的優先級,減少等待隊列的長度。此時的優先隊列會增加輕量級任務在隊列中的優先級,由于在上一個場景中,輕量級任務往往會在隊列中積壓,因此本策略除了任務對資源的需求量之外還根據任務的積壓時間來調整不同服務請求的優先級。

之后,云計算系統進入了穩定狀態,隊列中任務的積壓量,系統的平均吞吐率和任務處理的響應時間會維持在一個相對穩定的范圍之內。在穩定狀態時,由于云計算系統仍然處于資源供不應求的階段,因此,一個比較理想的調度策略應當盡量減小任務的積壓量,即使得等待隊列盡量不要出現溢出的情況:

本文提出的資源調度策略,在服務請求排序的部分以穩態時任務的積壓狀況為主要的優化目標,在保證等待隊列不會溢出的前提下,盡量優化每次資源分配的吞吐率,使得該排隊策略能夠根據調度過程的各個階段不斷調整調度的優化目標,從而使階段性的調度結果盡可能達到最優。

3.2.2 服務器的選擇

第一部分對服務請求的優先排序主要是合理調整資源調度任務執行的先后順序,優化服務積壓量、服務請求響應時間等服務質量指標;而第二部分的工作主要是對每個服務請求,在最合適的服務器上進行資源的分配。與第一部分考慮的服務質量因素不同,該部分主要考慮的因素是云計算系統服務器的負載均衡問題。

該部分調度模型引入一些新的參數:

pni(t):t時刻服務n請求的資源被分配到服務器i上的概率。

Dnk:t時刻位于隊首的服務n請求的資源k的數量。此時,t時刻服務器i的資源負載可以表示為:

云計算平臺的平均負載狀況AvgDC則可表示為:

此時在考慮服務器負載情況的同時,也考慮了每個服務器的任務積壓情況,在盡量滿足負載均衡的前提下,減少每個服務器中的任務積壓量。設t時刻服務器i的任務積壓量為qi(t),t時刻處理結束的任務數目為hi(t),則有:

將上述影響因素綜合考慮,第二部分的調度策略可以抽象為一個多目標的優化模型,具體形式化描述如下:

服務器選擇策略的優化過程,就是不斷調整pni(t)取值的過程,使得σDC(t)和qi(t)的取值都達到相對理想的情況。具體算法實現過程中,選擇負載相對較輕的一些服務器作為候選服務器集合,之后比較該集合中所有服務器的任務積壓量,綜合考慮負載均衡與服務效率兩方面的因素,選擇積壓量較小的服務器進行資源的分配。

3.3 模型的算法步驟

3.3.1 服務請求的優先排隊

對于每個提交給云計算系統的服務調用請求,執行以下步驟:

步驟1根據具體的系統規模、服務數量以及調度執行的階段,初始化如下參數:

Dmk:服務m所需要的虛擬資源k的數量,此參數在算法執行開始時初始化。

Mapn:任務n對應的服務種類,此參數在第n個任務到達隊列時初始化。

Tn:任務n的積壓時間,此參數在第n個任務到達隊列時初始化,初始值設為1。

Wn:等待隊列中任務n的權重,此參數在第n個任務到達隊列時初始化,初始值設為Mapn。

MaxqueueLength:等待隊列的隊長上限值,此參數在算法執行開始時初始化。

Fexecute:每次調度執行的頻率(以分鐘、小時為時間單元來執行調度),此參數在算法執行開始時初始化。

R0(t):t時刻服務請求的丟失率,此參數在算法執行開始時初始化,初始設為0。

L(t):t時刻等待隊列中任務的積壓量,即隊列長度。此參數在算法執行開始時初始化,初始值設為0。

步驟2初始化時間計數器t=1,隨著調度過程的推進,每經過一個時間單元,計數器增加t=t+1,在每個時間單位Fexecute中依次執行以下步驟:

步驟2.1將任務計數器count變量設為0,該時間單位每到達一個新的服務請求,count變量值加1。

步驟2.2判斷此時L(t-1)+count與MaxqueueLength的大小關系,若二者大小關系滿足L(t-1)+count≤MaxqueueLength,則將所有請求排入隊列當中;若不滿足此關系則丟棄掉多余的請求,更新R0(t)的值。

步驟2.3對于等待隊列中的每一個任務n,依次執行以下步驟:

(1)重新計算該任務在以資源k為核心的調度過程中所占的權重。

Wn=DMapnkTn

(2)根據新的權重值重新調整該任務在隊列中的位置,權重越大的任務在隊列中的位置越靠近隊首。

(3)所有任務的隊列位置調整完畢之后,結束步驟2.3。

步驟2.4如果經過步驟2.3后,對于處于隊首的任務,根據服務器選擇策略的結果(在3.3.2節中進行詳細描述),在適當的服務器中進行資源的分配。

步驟2.5根據式(1)、式(2)更新L(t)的值。

步驟2.6對每個仍然處在等待隊列中的任務i,更新任務積壓時間Ti=Ti+1。

步驟3一段時間之后,如果等待隊列一直處于滿載狀況,同時請求丟失概率一直處于接近100%,說明此時的隊長上限不適合請求到達的速率,需要增加隊長上限MaxqueueLength的取值,之后返回步驟1重新觀察系統性能能否達到穩定狀態。如果等待隊列的長度處于一個相對穩定的取值范圍內,同時請求丟失率維持在一個相對較低的程度,說明系統在此排隊策略下達到了穩態,返回步驟2,請求排隊可以繼續按該策略進行。

3.3.2 服務器的優化選擇策略

對于每個處于等待隊列隊首,即將要被處理的請求,執行以下步驟:

步驟1根據具體的系統規模、服務數量以及調度執行的階段,初始化如下參數:

qi(t):t時刻服務器i的等待隊列中任務的積壓量,即隊列長度。此參數在算法執行開始時初始化,初始值設為0。

Cik:服務器i對資源k的占有總量,此參數在算法執行開始時初始化。

Nmi(t):t時刻服務器i上已經分配了的服務m的數目。此參數在算法執行開始時初始化,初始值設為0。

isHandled:布爾變量,記錄當前資源分配任務能否被處理,1表示可以,0表示無法處理。參數在算法執行開始時初始化,初始值設為0。

candidateSet:數組,記錄針對每個任務可能的候選服務器的集合,參數在每次請求處理進程被觸發時(即步驟2執行時)都進行一次初始化,初始值為空。

N:云計算平臺服務器的總數,參數在算法執行開始時初始化。

β:調整閾值,用來限定每次優化選擇的可行區間的規模,參數在算法執行開始時初始化,在本方法中初始值設為30%。

步驟2當第一部分排隊策略選出服務m的請求處理進程被觸發時,對于每個服務器i,依次執行以下步驟:

步驟2.2計算并更新該服務器的剩余資源Cik(1-P(t)),并與服務需求的資源量Dmk作比較,若Cik(1-P(t))≥Dmk,則說明該服務器有能力處理該服務請求,將isHandled的值調整為1,并將該服務器加入到候選服務器集合中,更新集合candidateSet中的元素。

步驟3根據步驟2執行之后的結果,若isHandled的值為0,說明目前云平臺的剩余資源量不足以處理該服務請求,本次任務調度終止,返回任務調度失敗的結果,等待其他任務結束之后資源的釋放;若isHandled的值為1,說明目前云平臺的剩余資源量可以處理該服務請求,進入步驟4繼續完成服務器選擇的操作。

步驟4步驟3執行之后,判斷候選服務器集合中元素的數目,并與服務器總數進行比較,若|candidateSet|≤Nβ,則說明可選服務器并不多,目前大部分服務器都處于負載較重的狀況,此時直接進入步驟6,考慮優化服務響應時間;若|candidateSet|>Nβ,則說明目前服務器負載情況不是很嚴重,此時以優化負載均衡狀況為第一目標,進一步精簡候選服務器集合的數目。

步驟5步驟4執行之后,根據candidateSet集合中每個服務器i的剩余資源量Cik(1-P(t))對candidateSet集合中的元素進行篩選,集合中只保留剩余資源量相對較大的前Nβ個服務器,更新candidateSet集合。

步驟6對于candidateSet集合中的每個服務器i,依次執行如下的操作:

步驟6.1計算該服務器的任務積壓量qi(t)。

步驟6.2令Pmi(t)=1,Pmj(t)=0,i≠j,根據式(3)、(4)計算σDC(t)的值并記錄。

步驟7選出使得σDC(t)達到最小值時的候選服務器j,在服務器j上根據服務m的需求分配虛擬資源,更新P(t)、Cjk、qj(t)的取值,返回并記錄分配結果。步驟8時間單元t結束時,對云平臺的每個服務器i,判斷該服務器上是否有資源回收的操作被觸發,如果有,則根據回收的資源量依次更新P(t)、Cjk、qj(t)的取值。

步驟9返回步驟2,進行下一次的服務器選擇。

基于隨機模型的云平臺資源負載均衡調度策略的具體算法流程如圖2所示。

圖2 基于隨機模型的負載均衡調度算法流程

4 實驗與分析

4.1 實驗環境

基于開源軟件OpenStack搭建一個包含6臺服務器的云計算IaaS平臺,服務器詳細配置如表1所示。該平臺以虛擬資源的方式為用戶提供虛擬資源的使用,提供的虛擬資源的模板種類如表2所示。為了對本文調度策略進行評估,將本文提出的調度算法用Java語言進行實現,并和目前使用較為廣泛使用的諸多調度策略進行了對比實驗。

表1 云計算IaaS平臺服務器配置

表2 云平臺虛擬資源模板

具體實驗中,將表2中列出的服務類型按照占用資源由小到大進行排序,編號為服務1~服務6,對應每種服務模擬出一串服從特定強度的泊松到達請求序列。根據實際需求量的統計,用戶對微型、小型主機的需求比對大型、超大型主機的需求量明顯要大,因此在本實驗中服務1~服務6的請求到達頻率依次遞減。采用不同的調度策略用于對服務請求進行調度并對虛擬資源進行分配,本實驗重點考察的調度策略有目前使用較為廣泛的Best-Fit、M in-m in調度策略,OpenStack開源軟件提供的SimpleSchedule、ChanceSchedule分配策略,學術界提出的隨機調度策略以及本文提出的調度策略等。

實驗通過在500個時間單位內,統計不同調度算法的任務積壓量和機器平均負載均衡狀況進行對比。任務積壓量從第一個時間片就開始采集,負載均衡是在各節點達到穩態時進行數據采集。由多次實驗數據得到,從第300時間單位開始,各節點的CPU負載情況基本處于穩態,因此負載均衡的實現結果選擇從第300個時間點開始統計,每隔5個時間點采集一次數據,到500個時間單位結束后,計算每個節點的平均負載情況。

4.2 實驗結果與分析

實驗結果顯示,本文提出的調度算法不論在任務積壓量還是服務器的負載均衡指標上都有明顯較優的結果。

圖3顯示了隨著調度過程的進行,使用不同的調度方法時造成的任務積壓的狀況。從中可以看出,本調度策略在任務積壓量指標上明顯優于Best-Fit和M in-M in策略,與其他隨機調度策略相比基本持平。使用以優化單次調度吞吐量和單次調度響應時間為目標的Best-Fit和M in-m in策略處理請求時,調度初始階段效果相對較為理想,但隨著越來越多的資源被分配出去時,由于這兩個策略缺乏對調度效果的階段性評估,導致大量單次未被調度的請求被積壓。而使用基于隨機模型的優先隊列排序,考慮到了階段性調度的總體性能,提高了被積壓任務的優先級,在云平臺負載較輕的階段保證任務調度吞吐率的同時,在負載較重時能夠減小任務的積壓量,避免積壓量無限增長的情況出現。

圖3 各算法在任務積壓量上的結果

圖4顯示了本調度策略在負載均衡指標上明顯優于各類對比算法。由于同時考慮了任務積壓情況qi(t)和資源負載情況P(t),使得本方法在負載均衡方面相比其他調度方法也有明顯的優勢。其他的基于隨機模型的調度策略,雖然在請求調度上也做到了減小任務的積壓和請求的丟失,但在服務器選擇部分考慮的因素不夠全面,導致服務器負載均衡的效果并不理想。

圖4 各算法在負載均衡上的結果

通過和其他算法調度結果的對比分析,本調度策略使用了基于隨機模型的優先隊列,在云平臺負載較輕時優化了資源調度算法的吞吐率,在云平臺資源負載較重時減小了任務的積壓量和請求的丟失率;同時本策略在服務器選擇策略上綜合考慮了服務器的資源負載情況以及任務積累情況,在保證服務性能和執行效率的基礎上盡量均衡了服務器的資源負載,使云平臺處于相對穩定的狀態。由于解決了現有調度策略存在的一些問題,調度結果在某些服務質量指標的衡量下效果更加理想。因此,本文提出的調度算法是一個滿足云平臺資源調度要求的良好的策略。

5 結束語

本文設計并提出一種基于隨機模型考慮負載均衡的調度策略,解決基于代數模型的調度策略請求丟失率高以及其他基于隨機模型調度策略負載均衡指標性能較差的問題,以優化云計算IaaS平臺的整體性能。通過與Best-fit,M in-m in等經典算法和其他隨機模型調度實驗比較發現,該算法在較少任務積壓量和負載均衡上都具有良好的性能。在下一階段,云計算服務調度策略的運行環境的復雜性將進一步增強,擴充云系統的集群數量和部署更豐富的異構環境加以測試與驗證,并不斷完善調度策略。

[1]Speitkamp B,Bichler M.A mathematical programming approach for server consolidation problems in virtualized data centers[J].IEEE Transactions on Services Computing,2010,3(4):266-278.

[2]Beloglazov A,Buyya R.Energy efficient allocation of virtual machines in cloud data centers[C]//10th IEEE/ACM International Conference on Cluster,Cloud and Grid Computing,2010:577-578.

[3]Qin X,Xie T.An availability-aware task scheduling strategy for heterogeneous systems[J].IEEE Transactions on Computers,2008,57(2):188-199.

[4]Song S,Hwang K,Kwok Y.Risk-resilient heuristics and genetic algorithms for security-assured grid job scheduling[J].IEEE Transactions on Computers,2006,55(6):703-719.

[5]Maguluri S T,Srikant R,Ying L.Stochastic models of load balancing and scheduling in cloud computing clusters[C]//Proceedings of IEEE INFOCOM Conference,2012.

[6]Bramson M,Lu Y,Prabhakar B.Random ized load balancing with general service time distributions[C]//Proceedings of the ACM SIGMETRICS International Conference on M easurement and modeling of Computer Systems,New York,USA,2010:275-286.

[7]Maguluri S T,Srikant R,Ying L.Heavy traffic optimal resource allocation algorithms for cloud com puting clusters[C]//International Teletraffic Congress,2012.

[8]林偉偉,齊德昱.云計算資源調度研究綜述[J].計算機科學,2012,39(10):1-6.

[9]田文洪.云計算資源調度管理[M].北京:國防工業出版社,2011.

[10]左利云,曹志波.云計算中調度問題研究綜述[J].計算機應用研究,2012,29(11):4023-4027.

ZHAO Shaoka1,2,LI Liyao1,XU Cong2,YANG Jiahai2

1.Department of Mathematics and Computer Science, Fuqing Branch of Fujian Normal University, Fuqing, Fujian 350300, China
2.Institute for Network Sciences and Cyberspace, Tsinghua University, Beijing 100084, China

In view of cloud computing actual needs of resource management, cloud platform scheduling strategy based on stochastic model is proposed, and reasonable and efficient resource scheduling algorithm is designed in order to reduce the request loss rate of traditional algebraic model and improve poor load balancing performance of other stochastic models.Through load balancing on the basis of service performance and efficiency, cloud platform stability is ensured. Experimental results show that the scheduling strategy can optimize the efficiency of virtual resource usage and the response time of the service while being able to achieve better load balance and reduce operating costs.

cloud computing; resource scheduling; load balancing; stochastic model

ZHAO Shaoka, LI Liyao, XU Cong, et al. Cloud platform resource scheduling strategy design based on stochastic model. Computer Engineering and Applications, 2014, 50(17):56-62.

A

TP393

10.3778/j.issn.1002-8331.1306-0101

教育部-中國移動研究基金(No.MCM 20123041);福建省教育廳科技項目(No.JB13198,No.JA 13343,No.JA 12352);福建師范大學福清分校科技研究項目(No.KY 2013001)。

趙少卡(1980—),男,講師,主要研究領域為云計算、軟件工程;李立耀(1970—),男,副教授,主要研究領域為計算機網絡;徐聰(1986—),男,博士研究生,主要研究領域為計算機網絡;楊家海(1966—),男,博士,教授,主要研究領域為計算機網絡。E-mail:zska@cernet.edu.cn

2013-06-13

2013-08-09

1002-8331(2014)17-0056-07

CNKI網絡優先出版:2013-10-17,http://www.cnki.net/kcms/detail/11.2127.TP.20131017.1529.011.htm l

猜你喜歡
資源策略服務
基礎教育資源展示
一樣的資源,不一樣的收獲
例談未知角三角函數值的求解策略
我說你做講策略
服務在身邊 健康每一天
今日農業(2019年12期)2019-08-15 00:56:32
服務在身邊 健康每一天
今日農業(2019年10期)2019-01-04 04:28:15
服務在身邊 健康每一天
今日農業(2019年16期)2019-01-03 11:39:20
資源回收
高中數學復習的具體策略
數學大世界(2018年1期)2018-04-12 05:39:14
招行30年:從“滿意服務”到“感動服務”
商周刊(2017年9期)2017-08-22 02:57:56
主站蜘蛛池模板: 久久久久国产精品嫩草影院| 天天综合色网| 中文字幕va| 色综合激情网| 秘书高跟黑色丝袜国产91在线 | 无码AV日韩一二三区| 久久中文无码精品| 成人一级免费视频| 免费99精品国产自在现线| 国内精自线i品一区202| 亚洲天堂成人在线观看| 国产精品九九视频| 国产精品成人免费综合| 日本国产精品一区久久久| 精品自窥自偷在线看| 无码专区在线观看| 久久a毛片| 欧美19综合中文字幕| 亚洲不卡影院| 一级毛片在线播放免费观看| 亚洲视频免费在线看| 99在线观看国产| 国产麻豆精品在线观看| 久久99这里精品8国产| 热久久这里是精品6免费观看| 欧美综合成人| 亚洲美女一区二区三区| 99这里只有精品免费视频| 欧美.成人.综合在线| 在线观看的黄网| 久久黄色免费电影| 美女毛片在线| 99re在线视频观看| 大学生久久香蕉国产线观看| 一本久道热中字伊人| 999精品视频在线| 人妻精品久久无码区| AV天堂资源福利在线观看| 欧美自慰一级看片免费| 国产91精品久久| 老司机久久99久久精品播放| 特级aaaaaaaaa毛片免费视频| 强奷白丝美女在线观看| AV熟女乱| 国产十八禁在线观看免费| 国产精品第三页在线看| 久久亚洲AⅤ无码精品午夜麻豆| 午夜不卡福利| 国内精品九九久久久精品| 狠狠做深爱婷婷久久一区| 国产女人在线视频| 免费高清自慰一区二区三区| 国产三级成人| 亚洲第一区欧美国产综合 | 男人的天堂久久精品激情| 国产福利在线免费| 国产小视频网站| 国产无码制服丝袜| 亚洲色图欧美在线| 欧美成a人片在线观看| 国产jizzjizz视频| 国产网站黄| 欧美国产精品不卡在线观看| 国产黄色视频综合| 3344在线观看无码| 色噜噜久久| 久久国产亚洲欧美日韩精品| 国产免费久久精品99re不卡 | 99福利视频导航| 99re在线视频观看| 久久一本日韩精品中文字幕屁孩| 亚洲第一区在线| 国产免费福利网站| 亚洲欧美自拍一区| 欧美成人一级| 白浆视频在线观看| 国产精品网曝门免费视频| 狠狠躁天天躁夜夜躁婷婷| 中文字幕人成乱码熟女免费| 在线看国产精品| 欧美在线天堂| 女人18毛片久久|