吳佳騄,劉 恒
(中通服咨詢設計研究院有限公司,江蘇 南京 210000)
云計算、大數據、物聯網、人工智能等新技術新業務的發展日新月異,行業數字化轉型正在提速。尤其隨著云計算技術普及及應用落地,越來越多的企業在部署自己的信息系統時運用了云計算技術。由于云計算技術融合了多系統、多場景、多業務的特點,單純大帶寬、低時延的基礎通信網絡已不能滿足企業上云需求。云計算應用場景的實現需要通信網絡提供強大的支撐,同時,通信網絡的資源優化也需要引入云計算技術,云和網的關系日趨緊密,云網融合已經成為云計算領域和新一代通信網絡建設發展的趨勢。
在云網融合的背景下,電信運營商依托自身基礎網絡建設方面的優勢推出云網一體化服務,推動自身基礎網絡資源的優化升級,充分體現運營商網絡價值。傳輸網作為基礎通信網絡的重要組成部分,其網絡架構需要重構與優化,以滿足云網融合場景對業務靈活、智能的承載需求。
目前城域內傳輸網承載的業務需求類型,大致可以分為無線基站類、IP 城域網/IP 專網及寬帶接入網3 類。
基站類業務包括2G、3G、4G、5G、集中化無線接入網(Cloud-Radio Access Network,C-RAN)等,其中2G 和3G 業務流向單一,都是從某一基站產生單歸屬至某一基站控制器(Base Station Control,BSC)或無線網絡控制器(Radio Network Controller,RNC),業務顆粒也較小。4G 基站業務與2G 和3G 相比,在業務流向、帶寬、時延等方面均有不同,如東西向基站之間存在X2 接口互聯需求,南北向基站至核心網存在S1 接口需求,其承載網需支持3 層路由功能,此外帶寬也有了較大提升[1]。5G 由于其豐富的應用場景,對大帶寬、低時延、高精度時間同步、靈活組網、網絡切片等需求全面升級,并對承載網提出了更高的要求,因此與5G 配套的傳輸網也在全國先后展開建設。
IP 城域網和IP 專網主要分布在城域核心和城域匯聚。其中,IP 專網主要承載語音、信令等自有業務;IP城域網主要承載互聯網專線、內容分發網絡(Content Delivery Network,CDN)、互聯網數據中心(Internet Data Center,IDC)業務等,業務顆粒主要為千兆以太網(Gigabit Ethernet,GE)以上大顆粒業務[2]。
寬帶接入網主要部署在接入層,主要滿足家庭、集團寬帶用戶的業務接入,其傳輸承載由光線路終端(Optical Line Terminal,OLT)上聯至IP 城域網,業務顆粒為GE/10GE。未來隨著4K、8K 等高清視頻業務,以及VR、AR 等品質家寬業務的出現,寬帶接入網對傳輸網的帶寬、時延等要求將進一步提升。
在傳統傳輸網中,同步數字體系(Synchronous Digital Hierarchy,SDH)作為主流技術,仍承載著大量2G 及語音專線業務。隨著業務分組化、大顆粒化的發展,SDH 網絡逐漸淡出,分組傳送網及IP 化無線接入承載網(Packet Transport Network/IP Radio Access Network,PTN/IP RAN)、光傳輸網絡(Optical Tranport Network,OTN)成為傳輸網主要承載平臺。
近年來,SDH 上承載的2G 基站業務逐步向PTN/IP RAN 遷移,SDH 網絡承載業務量幾乎停止增長,僅騰挪資源做調整,并對老舊設備退網。PTN/IP RAN 網絡采用核心、匯聚和接入的3 層架構,主要承載基站業務及部分政企專線。核心層與核心網或IP 城域網對接,采用高密度端口和強匯聚能力的設備組網;匯聚層負責區域內各類接入業務的匯聚,由匯聚設備成對收斂;接入層負責就近基站業務通過接入環接入。
OTN 網絡主要部署在核心層和匯聚層,主要承載大顆粒業務。由于OTN 設備成本較高且耗費較多電力及機房空間,目前國內大部分地區本地傳輸網中匯聚層OTN 尚未做到全覆蓋,接入層OTN也剛開始部署。如圖1 所示,傳統架構中,SDH、PTN/IP RAN、OTN 網絡互相隔離、封閉,傳輸子網煙囪式建設,資源使用率低,并且業務開通不夠靈活,端到端新建一條傳輸通道耗時上月,無法做到業務動態調整。

圖1 傳統傳輸網組網架構及業務承載結構
云網融合要求網絡能匹配云業務的需求,包括自動開通、動態調整、能力開發等。其本質是以數據中心(Data Center,DC)為核心組網,簡化網絡架構,實現業務功能的虛擬化,以及網元/資源池的虛擬化[3]。云間互聯、電信云、5G 等均是云網融合的典型場景,其新型的業務特性及云化的組網架構對傳輸網提出了新的要求。
云間互聯是指多云之間的互聯互通。在以DC為核心的組網架構中,多個處在不同位置的數據中心通過網絡互聯起來,共同完成相應的業務部署[4]。不同地區的數據中心協同運轉、交互信息,產生了數據中心互聯網絡(Data Center Interconnect,DCI)。近年來,由于大數據、云計算、搜索等業務的興起,多個DC 服務器集群之間需要協同運算,軟件架構解耦導致多個服務可能部署在不同的虛機上,協同運算產生了大量的橫向數據交互。此外,虛機的靈活部署和動態遷移也會大大增加網絡中的東西向流量[5]。
傳統3 層數據中心網絡架構下,當東西向流量過高時,南北向不同層級的交換機之間將會產生大量的流量迂回,DCI 網絡承載壓力大大增加。傳輸網作為數據中心網絡的承載網,其架構應與數據中心3 層架構相匹配,即根據數據中心網絡的架構和承載需求提前規劃好傳輸網絡建設規模,建立好固定的連接通道。該建設模式不易擴展,難以滿足云網融合場景對業務開通時效性、靈活性的要求。
電信云是云網融合的重要場景之一。電信云是指以云化網絡架構為基礎,以網絡功能虛擬化(Network Functions Virtualization,NFV)和軟件定義網絡(Software Defined Network,SDN)為主要技術,構建資源可全局調度、能力可全面開放、容量可彈性伸縮、架構可靈活調整的新一代網絡云化平臺[6]。
電信云一個重要應用就是5G 網絡云化。增強型移動寬帶(Enhanced Mobile Broadband,eMBB)、大規模機器類通信(Massive MachineType Communication,mMTC)、超高可靠超低時延通信(Ultra Reliable Low Latency Communications,uRLLC)是5G網絡的3大場景,對網絡可靠性、帶寬、時延、連接數等指標提出了諸多挑戰。為滿足以上業務場景需求,核心網下沉并云化,引入NFV 和SDN 技術。NFV 使核心網網元虛擬化、軟硬解耦,SDN 連接、調度云化后的網絡,兩者相互結合相互補充,共同構成開放、高效、簡約、智能的5G 云化架構。5G 網絡云化導致的組網架構變化也對傳輸網提出了新的要求[7]。
對于個人客戶,4K 和8K 視頻、VR、云視訊、云游戲等強交互高品質業務正在日益改變人們的生活模式,而這些品質類業務對移動或寬帶網絡的速率、穩定性、時延等提出了更高要求,例如:VR對時延要求低達20 ms,當頭部轉動頭盔時,要求云端將視角外的內容快速推送到頭盔填充“黑邊部分”,因為人的視角內是完整的視頻,無黑邊;互動游戲同樣要求低時延,要求手柄操作快速響應,無遲滯,跟手體驗良好;要解決VR 或游戲時延抖動過大出現畫面卡頓不流暢、花屏、遲滯的問題;另外,4K 視頻、VR、云游戲等對丟包率有較高的要求,否則容易出現花屏及馬賽克。
2)合理選擇吹掃后路。輕油線吹掃初期,后路至七垅輕污油罐,大量輕油趕至邊界后,將后路改至冷蠟至罐區線,大量過汽,直至吹掃干凈。這樣做即可防止大量輕油送至重油罐,又可防止大量蒸汽進入輕污油罐,且確保了吹掃質量。
對于政企客戶,隨著云網融合的發展,云專線、政企云服務等發展迅猛,激烈的市場競爭對各大運營商的傳輸網絡提出了超低傳輸時延、超短開通時間、超高安全保障等升級要求。對于黨政軍、金融、科技等高價值行業,對業務開通時間、傳輸時延要求極高。在傳統傳輸架構下,跨域業務的開通需要協調多級網絡的配合,面臨傳輸子網的跨系統、跨廠家對接時,業務調度不靈活,現場跳纖連纖復雜的問題。另外,業務落地再轉接的層間銜接方式也會增加傳輸時延,因此亟需從網絡架構上進行變革。
傳統3 層數據中心網絡面臨帶寬利用率低、擴展成本高、時延性能受限制等諸多問題,為解決以DC 為核心的大量東西向流量的場景,一種“Spine-Leaf”的葉脊網絡架構被提出[8]。圖2 為葉脊網絡架構的模型,脊(Spine)和葉(Leaf)之間的網絡為全網狀(Full Mesh)連接,與之相對應的傳輸網絡也調整為葉脊架構。

圖2 葉脊網絡典型拓撲結構
葉脊網絡每個Leaf 到Spine 的多條上行鏈路以負載均衡方式工作,帶寬利用率高;各Leaf 之間的連通路徑均只需經過一個Spine,網絡時延低;當帶寬不足或節點承載容量不足時,可增加Spine、Leaf 節點數量水平擴展網絡規模[9]。葉脊網絡可支持的網絡規模非常龐大,其靈活擴展且低時延的特性,非常適用于多云互聯的場景。
在云網融合場景下,5G 移動業務與政企(2C)、個人(2B)固定業務特點越來越相似,運營商簡化網絡結構,提升承載效率,固移融合成為新的網絡演進方向。考慮到移動承載網和IP 承載網具有相同的3 層架構(接入、匯聚、核心),且每個層面的設備部署位置也趨于相同,傳統的獨立傳輸子網建設消耗太多的傳輸及配套資源,給通信資源和維護部門帶來很大壓力。為了降低承載網絡的資源耗費、降低維護部門的維護成本,運營商引入新型融合承載的傳輸網——智能傳送網(Smart Transport Network,STN)對承載網絡進行重構與優化。以中國電信為例,在IP RAN 網絡的基礎上引入大容量STN 設備和基于IPv6 轉發平面的段路由技術(Segment Routing IPv6,SRv6)、靈活以太網技術(Flex-Ethernet,Flex-E)等新技術構建的承載網,實現基站回傳業務、政企專線、云專線等多種業務的融合承載[10]。
如圖3 所示,STN 網絡以本地網為單位組網,城域內分為核心ER、匯聚B、接入A3 層。STN 可以與廠家網管、控制器對接,且具備網絡能力抽象和開放能力[11];支持IPv6、EVPN、FlexE、SRv6、性能檢測等能力;支持網絡切片,具備業務快速開通、服務等級協議(Service Level Agreement,SLA)質量保障、自動化管理和配置等智能化能力;滿足5G 業務大帶寬、低延時、安全可靠的差異化承載需求[12]。STN 網絡已實現以省為單位的海量設備集約化維護管理,運維體系具備集中管控能力,具備通過平滑升級以支持SDN 控制器和智能排障的能力。

圖3 STN 融合承載組網架構
STN 融合承載方案如下文所述。
(1)在接入層仍保留原來的接入方式:固定業務(家寬)采用光纖到戶(Fiber To The Home,FTTH)方式就近接入OLT 設備;移動網絡(3G、4G、5G)業務采用STN-A 接入,A 設備的配置按無線基帶處理單元(Building Base band Unit,BBU)端口和容量需求進行。
(2)匯聚層采用合并的方式設置,原來固定業務承載網的多服務邊緣(Multi service edge,MSE)和寬帶接入服務器(Broadband Remote Access Server,BRAS)與移動業務承載網的IP RAN-B 設備將合二為一,并選取新的匯聚層設備STN-B 替代MSE 和IPRAN-B 設備,接入層的OLT 設備和IPRAN-A 設備就近接到STN-B 設備上。
云化的網絡資源池主要以DC 為中心集中部署。隨著互聯網以及云業務的快速發展,DC 流量每年將保持30%左右的增長,其中DC 間東西向的流量未來5 年預計增長4 倍,年均復合增長率將達到32%。DCI 流量成為傳送骨干網的主要流量,運營商亟需以DC 為中心重構骨干網架構。
當前傳統骨干網最常見的環形與鏈形網絡架構中,單個節點承載的流量更多是穿通流量,從而讓整個環流量消耗過快。比如,當整個環上的節點有10 個以上時,即便每個節點只有1~2 TB,那么整環的流量將達到10~20 TB,導致環網絡擴容頻繁,無法滿足大流量傳送與大容量調度的需求。同時,業務云化對時延提出了更高的需求,金融業務要求網絡盡可能減少時延,同城容災備份要求時延在1 ms 以內,在線視頻業務的時延一般要求在20 ms左右,桌面云業務的要求約為30 ms。時延除了來自設備,還來自光纖,而對于環線組網,業務會穿過很多節點,路由越長則時延越長。若骨干節點之間可以直連,一跳直達將能大幅度減少約一半的時延。
針對傳統骨干環形與鏈形網絡面臨的挑戰,可以通過改變網絡架構,讓骨干節點之間Full Mesh連接解決問題。Full Mesh 架構中,任意節點之間都能一跳直達,時延達到最低,滿足云網融合業務場景的高實時性要求,并且節點之間流量增長時,只需增加2 個節點之間的帶寬或新的鏈路,無須對整個環路擴容。此外,不同節點之間將有更多的路由,在網絡流量突發或故障時,可選擇另外的保護路由,提升整個網絡的健壯性與彈性。

圖4 骨干網架構Mesh 化演進
當前,骨干網組網技術中普遍采用OTN 的可重構光分插復用(Reconfigurable Optical Add-Drop Multiplexer,ROADM)技術,ROADM 技術基本上實現了光交換能力,但采用這種技術在擴容時需要對光纖逐一人工連接。在云網融合場景下,業務需求可能隨時發生變更,網絡架構的云化轉型也可能消耗更多的傳輸資源,采用ROADM 技術就會不斷地增加光纖,最終導致連纖復雜且維護困難。并且Mesh 化組網帶來的光方向調度機架數量大大增加,占用空間較大。為解決更多調度維度、連纖復雜等問題,本文建議在未來網絡規劃中引入全光交換(Optical Cross Connect,OXC)技術,通過基于“OXC+OTN 集群”的Mesh 化骨干網承載方案,實現骨干傳輸網的重構。OXC 通過光背板取代了機架內部的光纖連接,降低人工跳纖的風險,減少機架空間,同時提供了更為靈活的配置能力,可以通過網管數據配置實現業務的快速開通[13]。
在云網融合的趨勢下,面向云互聯和DC 承載的OTN 網絡需要順應云時代骨干網需求,為客戶提供大容量、長距離、低時延、敏捷業務發放的網絡。骨干網Full Mesh 化帶來更加復雜的維度連接以及更多的大顆粒交換,OTN 硬件設備逐步向虛擬化、資源池化的方向發展。基于OXC 的光層資源云化,能夠使復雜的多維度交換在高維波長選擇開關(Wavelength Selective Switch,WSS)/OXC資源池集中完成,消除站點內海量連纖,提升大顆粒交換效率。基于OTN 集群的電層云化,能夠使原本離散分離的電層子架集中部署在電層資源池,業務交換得以破除跨子架調度的瓶頸,并通過SDN 等技術實現帶寬靈活、按需分配的需求。OXC 可提供32 維、高達320~640 TB 的全光交換容量,結合大容量OTN 集群足以滿足骨干網大容量調度需求,同時降低建網成本。

圖5 OXC+OTN 集群部署方案
中國電信提出了一種新型城域網建設理念,新型城域網是以高效、動態的方式連接城域內大量的接入節點,形成城域內家寬+5G 承載+政企專線的統一承載新平面。
為滿足未來云網融合的發展趨勢,新型城域網引入Spine-Leaf 架構。區別于傳統單一的南北向傳輸傳統,Spine-Leaf 架構既能滿足云化設備的承載需求,又能滿足東西流向電路的直達需求。同時,新型城域網采用簡化的網絡設備、統一的簡化網絡協議,解決現有網絡存在的問題。其整體架構為大容量融合承載設備+葉脊架構+OXC/OTN 集群+SRv6/EVPN,最終建成一張固網業務和移動業務統一承載的IP 綜合承載網,實現業務的無阻塞轉發,流量可編程,滿足不同業務的網絡切片需求。新型城域網通過引入SRV6 技術,簡化網絡的部署[14];引入SDN 技術,實現業務的自動化部署,實現端到端的自動開通和運維[15]。
以長三角某新一線城市的本地網新型城域網建設背景為例,假設該地市規劃建設Spine 節點1 對(2 個),Leaf 節點15 對(30 個),Spine-Leaf 采用全Mesh 組網,其部署方案如圖6 所示。在5G 業務承載方案中,核心網云化并將部分網元下沉,基站傳輸設備以星形或環形方式接入STN-B 設備,再由STN-B 設備接入邊緣Leaf;在家寬業務承載方案中,OLT 先接入數據中心交換機(Data Center Switch,DCSW),再由DCSW 接入邊緣Leaf,DC資源池網元實現PPPoE 認證及網絡地址轉換等,最終接入CR。

圖6 新型城域網試點部署方案
該地市新型城域網規劃中,Spine 到DC-Leaf 的傳輸鏈路可根據業務需求選擇1×100 GB 或N×100 GB波道承載;Leaf 到B 設備采用1×100 GB 波道承載,Leaf 到DCSW 采用N×10 GB 波道承載。葉脊架構高可用、低時延、易擴展的特性,完全可以滿足云網融合場景下多業務統一承載的需求。
但在上述方案中,Spine、Leaf 局向相比傳統傳輸網架構大大增加。該地市Spine 下連15 對Leaf,算上本地維度和上行,Spine 最少32 個光方向,每個方向奇偶兩個子架,即光子架數量大于或等于64個(超過16 個機柜)。同時,Leaf-B、Leaf-DCSW增加的大量鏈路,以Leaf 下掛1~6 環計,算上本地維度和上連Spine,光方向數達到9 維,即光子架數量大于或等于18 個(超過5 個機柜)。
目前該地市骨干網OTN 技術中普遍采用ROADM 技術,在Full Mesh 連接的架構下,光方向維度過多,機架數量也就比較多,占用空間較大。不僅是新型城域網,隨著未來網絡云化架構轉變,云化數據中心的互聯也將大量消耗傳輸資源。考慮引入OXC 技術,如果在Spine 節點規劃部署OXC,就可以達到一框32 方向的效果,機架空間減少87%,設備功耗降低35%;同時,集中建設OTN 電層資源池,強化Spine 節點核心調度能力;適時在Leaf 節點引入小型OXC,持續下沉接入型OTN 覆蓋接入層,保證寬帶高品質傳輸,同時達到高帶寬、高安全、高可靠、高可用的目的。
本文通過分析云網融合場景對傳輸網絡架構的影響,最終得到一張面向多業務綜合承載的目標傳輸網。該傳輸網具有架構簡化、融合承載的特點,可以有效解決當前本地網發展的瓶頸,滿足云網融合的需求。當前,該傳輸網絡架構已在中國電信新型城域網中試點部署,在實踐中不斷完善。未來,隨著5G、SRv6、Flex-E 等新技術的進一步應用,目標傳輸網的綜合承載提效率將進一步提升,在支撐運營商業務網絡升級演進中發揮更加重要的作用。