周曉晶
(長春工業大學,吉林 長春130012)
信息化不但是高校對外宣傳的一個窗口,也是日常運行管理中必要的技術和手段,隨著校園信息化的逐步深入,數據在高校中的作用越來越明顯。基于學校信息資源及應用資源,建設共享數據中心,實現資源的集成和共享,從而建設統一的數字化智慧校園平臺,是高校信息化建設的核心任務之一,也是高校信息化建設發展的必然階段。
隨著高校辦學規模的擴大和教育信息化的逐步深入,傳統數據中心建設成本高,資源利用率低,運維復雜,可靠性差,已無法應對新形勢帶來的挑戰。通過引入虛擬化技術、建立動態數據中心,可以緩解規模與資源的矛盾。應用服務器虛擬化技術能夠極大地提高資源利用效率,降低維護工作量,提高平臺穩定性、安全性,實現資源動態均衡,使靜態數據中心變身為可伸縮的綠色動態數據中心。
本文以長春工業大學網絡中心為例,分析實際需求和可虛擬化改造的程度,對虛擬化產品的選擇、虛擬化基礎架構的搭建和建設方案的設計、實施等問題進行探討,提出一種虛實結合、以最小的代價實現數據中心的虛擬化改造方法,并對運行效果進行評估。
高校數據中心在建設之初,每一個業務系統都通過一臺服務器、一套操作系統、數據庫、應用軟件來搭建。隨著虛擬化、云計算等技術的發展,信息化的建設也發生了一定的變化,雖然,有些信息化業務系統在建設時使用了站庫分離或數據庫系統管理等思想,但仍然沒有從根本上解決系統融合分離的問題。
通過引入數據共享中心作為第三方平臺,所有的業務數據全部基于明確的數據標準和接口規范在該平臺中進行采集和推送。同時,數據共享中心可以通過統一的安全管理策略來避免因各系統間松散且無標準的點對點交互所產生的數據安全隱患問題。本文以長春工業大學信息化建設為背景,數據中心建設從大的方向分以下四個步驟,如圖1所示。

圖1 數據中心建設發展進程
當前用過的服務器品牌多種多樣,SUN、IBM、HP、DELL、曙光、CISCO、華為、華三近幾年的更迭越來越快,圖1為我校服務器更新歷程。
VCE構架:V-Vmware全球銷量第一的虛擬化軟件;C-Cisco全球銷量第一的網絡設備;E-EMC全球銷量第一的存儲設備。VCE構架是業界頂尖廠商聯盟,源代碼級合作,構建完整數據中心。CISCO提供網絡設備和服務器設備,EMC提供存儲及安全設備,而VMware則是整個數據中心的節能使者,提供給客戶真正需要的技術,有助于虛擬化數據中心的轉型。VCE組合,采用通用接口,帶動虛擬環境和私有云的普及。VCE在當時還是一個很好的架構,結構清晰、關鍵冗余,內部帶寬高,各類連接線纜少。隨著時間的推移、技術的進步,也逐漸出現了一些問題,雖然目前仍在用,但承擔的是一些最不重要的業務。原有VCE架構如圖2所示。

圖2 云數據中心——原有VCE架構
在使用VCE構架中的過程中出現的問題:
(1)“所有雞蛋在一個籃子里”指的是集中存儲的問題,尤其不能異地備份。
(2)資源擴展能力有限。刀片服務器的硬盤、CPU、內存在擴展上都受限,使用久了配件很不好找,整體更換成本也高。
(3)硬件通配性不好,存儲磁盤需要專用的,比較貴;存儲網絡FC,也可以用iscsi。但陣列性能受限主要指虛擬顯卡,不是VCE特有的問題,而是早期普遍問題。
分布式架構設計相當于集中式架構。集中式架構是由一臺或多臺主機組成的中心節點。
優勢:開發部署運維方便,事務處理方便,沒有分布式協作。
劣勢:可用性低,一旦服務器宕機,系統立即不可用;擴展性極弱,只能升級單一服務器(比如大型機),成本高,遷移困難。分布式的架構設計:分布在不同網絡的計算機上,彼此僅通過消息傳遞進行通信和協調的系統。
3.2.1 分布性
機器PC等隨地域分布,有云計算上的region(區域)和az(可用區)的概念,應用隨機器分布。
3.2.2 對等性
默認的分布式機器和應用是對等的,沒有主從之分,每個節點都是副本(拷貝)。但可以通過人為制定或者算法決定主從,提高性能容錯,但會有一致性問題。
3.2.3 并發性
最大的挑戰,比如對共享資源發起并發請求,就會在性能和一致性做一定的妥協。這是最大的難題之一。
3.2.4 缺乏全局時鐘
沒有先后順序,分布式環境僅通過網絡通信,時間是不對等的,順序不可確定。表現為時間換算(時區的概念,北京時間是GMT+8,東8區)
3.2.5 故障一定會發生
云數據中心——現在分布式架構圖如圖3所示。
針對VCE架構出現的問題,2016年使用分布式存儲、超融合的方式采用多臺同型號X86服務器組成集群,可按提供服務類別分設多個集群。對每個集群中的X86服務器以本地硬盤虛擬出SAN存儲提供分布式的存儲服務。利用虛擬化軟件提供資源管理服務。
(1)大容量SATA盤配合SSD盤。
(2)全以太數據傳輸。
(3)主流CPU。
(4)可以選配虛擬圖形卡等特殊板卡。
(5)管理與應用資源池分離。
(6)桌面用戶多數據盤分級保護。
(7)建設特點:
SATA盤單盤可以容量很大且不挑盤,即使多副本存儲總體成本也比較低。配合SSD提高速度,我們目前是5%,不到10%,非極限情況下速度不比EMC5500差,如果占比更高還可以快些,但對比單純的閃盤存儲還是差。數據安全也是比較好的,單cache或單盤損壞都沒問題。關于以太傳輸,我們目前用的10G,推薦40G。CPU夠用即可,不用太高。根據學校應用特點內存越大越好,本校云桌面集群內存都是768G。建一個支持虛擬顯卡的集群,規模比較小,3臺,使用英偉達M60卡,提供云桌面服務。將管理集群單獨分離,不占用資源,不影響運行,也比較安全。推出了一年多的云桌面服務,針對全體教職員工,與身份系統對接,按部門分類,提供個人安全數據盤和部門數據盤。圖4所示為云桌面集群內存方式的變更。

圖4 云數據中心集群內存
出現的問題:
(1)SATA+SSD的方式在批量復制、維護遷移、災難恢復時存在性能問題。
(2)因經驗不足,網絡接口數量及速率皆配置不足,業務流量、管理流量、內部流量無法有效分開,對遷移、災難恢復等操作有性能問題。
(3)SSD磁盤耐用度低。
(4)2020年針對此問題新增全閃集群。
(1)目前共有10臺主機+2臺備份機,分為兩個業務集群(負載均衡,業務可跨集群遷移),目前運行虛機數量305個,主業務運行其上;CPU、內存和存儲的使用情況,可知可支撐虛擬機數量能夠翻倍,CPU耗用最低。
(2)單臺服務器以太網口情況:單臺2個萬兆+4個40G網口。功能劃分:VSAN、Vmotion、management一組,業務數據一組。
使用幾年后出現的問題:
(1)虛擬機數量越來越多,業務種類越來越多,使用VMware自有管理平臺有效管理壓力增大。
(2)根據業務類型細分集群并進行資源調配。
(3)管理平臺VMCS(虛擬控制臺系統,第三方)。
(1)獨立設立,故障不影響業務,業務與管理分離。4臺。任務:vCenter、AD、CA、運維管理、監控、日志、云桌面管理、NSX、DHCP、SSO。
(2)信息中心辦公維護管理開發機群概況:服務器選用情況,采用4臺主機服務器,主要用于開發、運維、特殊系統需求,同時對老舊系統留存。
(3)容器平臺集群概況:采用3臺主機服務器,用于Docker、K8S、Gitlib、Harbor,服務于實驗、科研。
(4)數據中心匯總情況:目前有4個數據中心、10+集群,運行虛擬機1200+。
(1)自助申請,不強制使用。
(2)用戶具有較高權限,可自主安裝部分軟件。
(3)用戶數據安全策略:單獨數據盤(備份),部門共享盤。
(4)自助申請系統、用戶信息同步系統自主開發。
(5)大規模應用案例:圖書館電子閱覽室(資源自動回收)。圖5所示為云桌面使用情況。

圖5 云桌面使用情況
數據共享中心是高校信息化的核心工程,能夠起到消除高校信息化孤島、實現系統間數據共享的重要作用,同時也有助于實現校園智慧型數據應用的快速發展。本文分析了數據共享中心的現狀與不足,提出了數據共享中心中數據交換管理的優化措施和建設方案,旨在提升數據共享中心的穩定性、可靠性和高效性。