本刊編輯 余健儀
數據中心對于當代互聯網的發展極為重要。目前,數據中心內的交換設備正在面臨更新換代。老式的交換設備將在未來幾年內,被更加快速、更加靈活的新一代交換設備所取代。服務器虛擬化,光纖存儲與IP交換設備的直連以及企業云計算正成為推動這場變革的主要力量。以往的變革只是單一地依靠提高接口的吞吐能力,但現在我們還需要通過創造更低的延時、取消生成樹以及支持新的存儲協議這些改革來構造更加靈活、更低成本的數據中心。未來,網絡將融合為統一的交換結構,數據、計算及存儲“三網合一”將是數據中心的發展方向。
服務器虛擬化能夠極大地提高服務器的利用率、節約服務器的購置成本和管理成本,這是眾所周知的,但服務器虛擬化也為眼下的數據中心交換環境帶來了不少難題,驅使交換技術作出變革。
首先,由于每臺物理服務器都有很多虛擬機,每個虛擬機又都有自己的MAC地址,這將導致包發送變得很混亂,影響虛擬機之間的通信。最簡單的解決方法是在虛擬機中設置軟交換。設置了軟交換的服務器對網絡交換機來說它只有一個MAC地址,而對服務器內的虛擬機來說,它又起著交換機的作用。不過,軟交換需要強制執行各種安全策略,也需要訪問控制列表(ACL),以確保各個VLAN的安全。例如,如果安全策略不允許被破壞的虛擬機與同一個服務器上其它虛擬機通信,那么一旦某個虛擬機被破壞,將禁止它與其它虛擬機通信自由通信。如果各個虛擬機并不在同一個物理服務器中,網絡也要求確保這些安全策略和協議得到遵守。
另一種解決辦法就是需要由服務器和軟交換的維護人員來保證所有網絡的跟蹤和控制都得到執行。這就需要服務器管理員和交換設備管理員之間有良好的協作,同時服務器管理員還需要了解網絡方面的配置。當然,如果采用同一家廠商提供的軟交換機作為網絡交換機,協調會更容易些。Cisco正與VMware一起合作致力于解決這樣的問題。
第三種方案是讓虛擬服務器的所有通信消息都發送到網絡交換機,這可以簡化虛擬機的軟交換配置,使此時的軟交換機不具備安全策略和標記數據包的能力,而把這部分功能轉嫁到網絡交換機上。從網絡交換機的角度來說,虛擬機就像是直接連到物理服務器上。這個方法具有一定的吸引力,因為它無需改變已有的工作流程,每個管理人員所應承擔的職責也沒有改變。但由于生成樹不允許交換機在一個端口接收和返回同一個數據包,因此需要消除生成樹的這一限制。
虛擬化的第二個難題是要在保證服務器有足夠的吞吐量的同時,確保數據包沿著最佳路徑到達目的地。隨著物理服務器上處理器數目的不斷增多,虛擬機也越來越多,導致進出服務器的數據流量激增,解決方法是部署萬兆甚至十萬兆的網絡,但這只能在一定程度上使問題有所緩解。由于數據中心需要創建非常低的延遲和無阻塞多路徑結構,因此還需要采用兩個適配器連接到不同的交換機讓整個路由實現多條路徑發送,有助于解決低延遲問題。這時生成樹問題再次出現,解決方法是取消生成樹,以保證兩個適配器都可同時使用。事實上,新一代的兩層交換機越來越像路由器,在第二層執行各自的鏈路狀態路由協議版本。
多年來,存儲網絡正逐步走向IP化,大量的存儲已經通過NAS,iSCSI等設備來完成。目前正實現光纖通道與IP交換機的直連,獨立的光纖通道存儲區域網絡逐漸退出市場。此舉通過減少每個服務器中的適配器的數量能達到成本節約的目的。目前,服務器都需要設置一臺以太網適配器和一臺光纖存儲適配器。為提高可用性,每種適配器都需要配備2臺,導致每臺服務器共有4臺適配器。而采用統一的IP網絡后,IP網絡數據、光纖通道數據,或是iSCSI數據都可以共用一臺適配器,這就能將適配器數目減少到2臺。適配器減半意味著交換接口和電纜數目也將減少,最終達到運營和維護成本的降低。
支持光纖通道存儲是升級交換機的一個重要原因。交換機需要支持存儲數據通過IP網絡訪問NAS、ISCSI和FCoE等設備。除了增加FCoE協議以外,必須提供更高的跨區域帶寬支持,以及取消生成樹。因為光纖通道要求兩個適配器都是活動的,并能同時傳輸數據。如果交換機仍然采用生成樹算法將無法滿足這些要求。
數據中心的交換技術變革第三個推動因素是企業云。過去當應用程序收到一個請求時,一般是由應用程序本身或服務器獨立執行完成。多年來,這種應用實施方式已經發生改變。當越來越多的請求到達服務器,應用程序只需承擔小部分任務,更多的是將任務提交給數據中心的其它應用共同完成。這樣數據中心就形成一個龐大的內部云。直接將存儲建立到IP云中會增加流經交換機的關鍵數據流的數量,這就要求交換機提供低延遲且保證數據包零丟棄。之所以要求低延遲的原因是:如果程序的執行發生在服務器內,每次存儲只需要幾納秒到幾微秒的時間來完成,而隨著企業逐漸過渡到虛擬數據中心,并開始采用基于云的服務,交換機要獲取企業云數據可能需要50~100微秒(具體取決于造成延遲的程序調用的次數),如果交換機丟棄數據包,延遲時間將變得更長,唯一的辦法是企業云計算要求低延遲且不丟包。
無可否認,現有的數據中心交換機具有延遲低、丟棄數據包少,以及支持10G以太網連接的特點。但為什么仍然無法應對虛擬化,存儲和云計算帶來的沖擊呢?根本原因在于新的挑戰不論在延遲性、可靠性還是吞吐能力上都對交換機提出了更高的性能要求。
首先是延遲性。目前的交換機主要基于存儲轉發模式,該模式適用于像電子郵件這類應用。郵件服務器先將接收到的郵件保存在緩沖區中,經過校驗后轉發到指定地址。最常見的存儲轉發實現是消息隊列。當交換機收到一個數據包后會將其存放于隊列中,當數據包移到隊列首位時就會被發送出去。這種方式的顯著優點是交換機能處理大并發量的數據而無需丟棄任何數據。因而新一代的交換機都以此作為賣點。
然而,隊列的存在使數據包在一個三層數據中心中傳輸需要花費約80微秒的時間。如果發生丟包,這個過程可能增加至100微秒。如果是在響應時間以秒來衡量的過去,80微秒的延時是可以接受的。但對于期望亞秒級響應目標的今天,這將遠遠滿足不了要求。例如,一個涉及大量數據的應用程序在這種性能條件下則需要長時間才能獲取所需數據,這不僅僅延長了響應時間,還導致了每次處理用時的增加,降低服務器的工作效率。
新一代交換技術要求大大縮短隊列等候的時間,加速處理進程,從而克服過去較大延時的缺點。新技術的第一大變化體現在數據包發送方式的設計上:采用直通交換方式彌補存儲轉發模式的不足,縮短或消除了交換機內部的隊列,使交換時間可從15-50微秒降低到2-4微秒。這種方式其實不算新穎,但實施起來也會比較復雜和昂貴,因此只有在要求非常低延時情況下開發商才會使用。
第二大變化是放棄了數據中心的生成樹。新一代的交換機采用多條路徑發送數據包,他們不斷監測潛在的擁塞點或隊列,選擇最佳的包發送路徑。目前,所有二層交換機都運用生成樹算法來判定唯一的最佳路徑,即發往目的地址的數據包只能利用一條路徑,其它路徑處于備份狀態或無效狀態。只有當最佳路徑失效時,其它路徑才會被考慮。該算法雖然能夠很好地應用到二層網絡的互聯中,但在取消隊列和不丟包的新要求下,這種只選唯一路徑的算法已經無法滿足。因此需要取消生成樹,采用多路徑的方法。但目前多路徑方法仍存在著相關標準不統一等問題,各個供應商都“八仙過海”,各有各的解決方案。“數據中心橋接”(DCB)等新型數據中心標準化項目已經啟動,標準的問題將得到有效解決。
第三大變化是傳送速度。速度問題是所有交換機必須的考慮因素之一。新型交換機是專門針對10G,40G,100G密集型以太網部署的,速度得到極大提升,延時可以從80微秒縮減到不到10微秒,滿足了光纖通道和云計算所需的延時和吞吐量需求。
相對于傳統數據中心使用的交換機產品,新一代交換機實現了跨越性的性能突破,為平滑升級到40G和100G以太網接入做好了準備,尤其是在未來數據中心三網融合成為大勢所趨的情況下,這一場技術變革將推動整個新一代數據中心的加速發展。
參考資料:
http://www.networkworld.
com/news/2009/091709-remaking-data-center.html