随着社会生产力的不断发展,用户需求不断发展提高,市场也不断发展变化,谁能真正掌握市场迎合用户,谁就能够占领先机提高自己的核心竞争力。企业运营中关键资讯传递的畅通可以帮助企业充分利用关键资源,供应链、渠道管理,了解市场抓住商机,从而帮助企业维持甚至提高其竞争地位。作为网络数据存储和流通中心的企业数据中心,很显然拥有企业资讯流通最核心的地位,越来越受到企业的重视。当前各个企业/行业的基础网络已经基本完成,随着“大集中”思路越来越深入人心,各企业、行业越来越迫切的需要在原来的基础网络上新建自己的数据中心。数据中心设施的整合已经成为行业内的一个主要发展趋势,利用数据中心,企业不但能集中资源和信息加强资讯的流通以及新技术的采用,还可以改善对外服务水平提高企业的市场竞争力。一个好的数据中心在具有上述好处之外甚至还可以降低拥有成本。
虚拟化简介
在数据大集中的趋势下,数据中心的服务器规模越来越庞大。随着服务器规模的成倍增加,硬件成本也水涨船高,同时管理众多的服务器的维护成本也随着增加。为了降低数据中心的硬件成本和管理难度,对大量的服务器进行整合成了必然的趋势。通过整合,可以将多种业务集成在同一台服务器上,直接减少服务器的数量,有效的降低服务器硬件成本和管理难度。
服务器整合带来了巨大的经济效益,同时也带来了一个难题:多种业务集成在一台服务器上,安全如何保证?而且不同的业务对服务器资源也有不同的需求,如何保证各个业务资源的正常运作?为了解决这些问题,虚拟化应运而生了。虚拟化指用多个物理实体创建一个逻辑实体,或者用一个物理实体创建多个逻辑实体。实体可以是计算、存储、网络或应用资源。虚拟化的实质就是“隔离”—将不同的业务隔离开来,彼此不能互访,从而保证业务的安全需求;将不同的业务的资源隔离开来,从而保证业务对于服务器资源的要求。
数据中心运行的应用越来越多,但很多应用都相互独立,而且在使用率低下、相关隔绝的不同环境中运行。每个应用都追求性能的不断提高,数据中心拥有多种操作系统、计算平台和存储系统。因此,IT 机构必须提高运行效率,优化数据中心资源的利用率,才能将节省出来的资金用于开展新的盈利型IT 项目。另外,数据中心需要建立永续的基础设施,才能保护各种应用和服务免受各种安全攻击和干扰的危害,才能建立既可以持续改进计算机、存储和应用技术,又能支持不断变化的业务流程的灵活型基础设施。利用整合和虚拟化技术帮助数据中心将计算和存储资源从多个分立式系统转变成可以通过智能网络汇聚、分层、调配和访问的标准化组件,从而为自动化等新兴IT 战略奠定基础。
数据中心资源的整合和虚拟化正在不断发展,这需要高度可扩展的永续安全数据中心网络基础。网络不但能让用户安全访问各种数据中心服务,还能根据需要实现共享数据中心组件的部署、互联和汇聚,包括各种应用、服务器、设备和存储。适当规划的数据中心网络不仅能保护应用和数据完整性,提高应用可用性和性能,还能增强对不断变化的市场状况、业务重要程度和技术先进性的反应能力。
网络虚拟化技术
伴随着服务器虚拟化技术的不断成熟和应用,传统的网络已经很难满足用户的需求。例如虚拟机迁移需要大二层环境,而传统网络大二层环境容易造成环路,难于管理。STP、VRRP这些传统的网络技术多是牺牲了已有资源来提供冗余,资源的浪费在当今数据中心已是越来越显得不可接受。为适应新环境下数据中心的要求,H3C提出了全虚拟化网络架构。在网络侧,H3C提供了网络设备多虚一的IRF2技术、一虚多的MDC技术和纵向虚拟化VCF技术,从不同层面完成了网络设备的虚拟化技术。
IRF2是H3C自主研发的软件虚拟化技术。它的核心思想是将多台设备通过IRF物理端口连接在一起,进行必要的配置后,虚拟化成一台“分布式设备”。使用这种虚拟化技术可以实现多台设备的协同工作、统一管理和不间断维护。结合下面的图一不难看出IRF2具有如下优点:
·简化管理。IRF形成之后,用户通过任意成员设备的任意端口都可以登录IRF系统,对IRF内所有成员设备进行统一管理。
·高可靠性。IRF的高可靠性体现在多个方面,例如:IRF由多台成员设备组成,Master设备负责IRF的运行、管理和维护,Slave设备在作为备份的同时也可以处理业务。一旦Master设备故障,系统会迅速自动选举新的Master,以保证业务不中断,从而实现了设备的1:N备份;此外,成员设备之间的IRF链路支持聚合功能,IRF和上、下层设备之间的物理链路也支持聚合功能,多条链路之间可以互为备份也可以进行负载分担,从而进一步提高了IRF的可靠性。
·强大的网络扩展能力。通过增加成员设备,可以轻松自如的扩展IRF的端口数、带宽。因为各成员设备都有CPU,能够独立处理协议报文、进行报文转发,所以IRF还能够轻松自如的扩展处理能力。
图1 IRF组网拓扑
MDC技术是一种完全的1:N设备虚拟化技术,将一台物理网络设备通过软件虚拟化成多台逻辑网络设备。MDC将网络设备的控制平面、数据平面、管理平面进行了完全的虚拟化,实现完全的隔离。同时MDC将网络设备的硬件资源进行了虚拟化,不仅可以将板卡、端口等硬件资源划分到独立的逻辑设备,而且可配置每个逻辑设备的CPU、内存、存储空间等资源 。
MDC具有如下优点:
·高复用。多台MDC共用物理设备的资源,使物理资源能得到充分利用。
·资源隔离。同一台物理设备上的多个MDC具有独立的软硬件资源,独立运行互不影响 。
·高伸缩性。可整合多个物理网络到一个物理设备上,也可以将一个物理设备扩展为多个逻辑网络。
VCF技术是基于IRF,在纵向维度上支持异构堆叠,在获得形成一台逻辑虚拟设备的基础上,把一台低成本的盒式设备作为一块远程接口板加入主设备系统,以达到扩展I/O端口能力和进行集中控制管理的目的。对于VCF来说,设备按角色有CB(Controlling Bridge)和PE(Port Extender)两种。CB表示控制设备,PE表示纵向扩展设备,即端口扩展器(或称远程接口板)。通常来说,PE设备的能力不足以充当CB,管理拓扑上难以越级,处于“非不为也,实不能也”的状态。如下图二IRF2和VCF融合应用的一个举例,在IRF2的基础上进一步减少了管理节点,节省了用户成本,同时通过IRF2提供了高可靠性,避免单点故障。
图2 VCF结构
计算虚拟化技术
服务器虚拟化解决方案可以充分利用高性能服务器的计算能力,将原本运行在单台物理服务器上的操作系统及应用程序迁移到虚拟机上,虚拟化后,一台物理服务器上能运行多台虚拟机,完成对企业应用系统的整合。通过服务器虚拟化,提高硬件资源的利用率,有效地抑制IT资源不断膨胀的问题,降低客户的采购成本和维护成本,同时可以节省IT机房的占地空间以及供电和冷却等运营开支。
图3 计算虚拟化
管理和维护带来了许多问题:
职责不清:虚拟交换机(vSwitch)的出现,使网络触角已经延伸到服务器中,系统管理员和网络管理员的职责分界不清(注:关于vSwitch及虚拟机相关网络概念的介绍请参照本刊《数据中心虚拟机网络接入技术——基础篇》一文);
·资源可视性:服务器在虚拟化后,规模剧增;虚拟机网络位置的非物理性,使资源的可视性管理非常困难。虚拟机的存在给故障(网络、应用)分析和定位带来更大的难度;
·流量可视性:虚拟机的迁移技术,使网络中的流量分布存在更多的动态性,导致流量可视性的困难;
·自动化配置管理:虚拟机的迁移技术,要求网络的配置要跟随虚拟机进行动态实时的调整、自动化管理能力的必要性更为突出;
服务器虚拟化后,虚拟服务器规模剧增,以及虚拟化软件的迁移特性使虚拟服务器在数据中心网络中的物理位置的可视性变得困难。
在创建VM或迁移(vMotion)时,VM主机能否正常运行,不仅需要在服务器上的资源合理调度,网络连接的合理调度也是必须的。图四所示虚拟机VM1从物理服务器pSrv1迁移到物理服务器pSrv2上。
图4 网络配置迁移
其网络连接从原来的由pSRV1上虚拟交换机vSwitchA的某个VSI(属于VLAN100的端口组)接入到边缘物理交换机Edge Switch1,变成由pSRV2上vSwitchB的某个VSI(属于VLAN100的端口组)接入到EdgeSwitch2。若迁移后对应的Edge Switch的网络配置不合适,则VM1迁移后就可能不能正常使用。比如原先对VM1的访问设置了ACL,以屏蔽非法访问;或设置了QoS,以保障VM1上业务运行带宽等服务质量。都需要在发生VM创建或vMotion时同步调整相关的网络连接配置。而且,为了保证VM的业务连续性,除了虚拟化软件能保证VM在服务器上的快速迁移,相应的网络连接配置迁移也需要实时完成。即网络具有“随需而动”的自动化能力。
在VEB vSwtich模式下,多个VM的vNic(对应VEB上的VSI接口)和邻接物理交换机的链接使用的是一个物理链路(或聚合后的物理链路,Nicteaming),不管是逻辑上还是物理上都是一个接口,即VM和物理接口是N:1的关系(如图五所示)。
在此模式下,邻接物理交换机的配置控制粒度只能到物理接口级,针对数据中心“随需而动”的配置自动化迁移,通常情况下会出现多个VM的配置都重复下发到一个物理接口上,很难做到针对每一个VM的精细化网络配置管理。
可行的办法只有先精细化区分流量(比如源IP、源MAC、VLAN等),基于流量的识别再进行针对VSI的配置迁移。这样就又引入了新的复杂性和局限性。首先要求邻接物理交换机支持基于源IP/源MAC/VLAN的ACL或流分类、以及带宽控制能力;其次要支持ACL、MQC的动态创建和删除能力,而在创建和删除时,很可能会影响其他VM的配置。
另外,当VM从一个物理服务器上迁移走之后,本地配置的去部署通常需要由用户预先配置好,此处若想实现智能化(由部署命令自动生成去部署命令),逻辑和实现也非常复杂。
Basic VEPA方式也存在同样的问题,在拟定义的802.1Qbg标准中,也在考虑在VDP报文中增加附加过滤字段(比如VLAN、源MAC等),来解决VM和物理接口N:1的问题。报文和设备处理的复杂性被放大了。
图5 VEPA/VEB、Multi-Channel/PE 物理端口映射对比
但是虚拟机的大量应用也给网络的Multi-Channel、PE方案的提出为此问题找到了最优的解决方法,即在邻接物理交换机出现了vPort的概念。这类逻辑虚接口可以实现和VM对应的vNic/VSI的1:1对应关系。
VM迁移时,只需在对应的邻接物理交换机上动态创建一个vPort(当然如果VM需要多个vNic时,对应也要创建多个vPort),并将VM对应的网络配置Profile绑定到vPort上。不会对其他vPort产生影响。同时迁移前对应的邻接物理交换机只需要简单的将对应的vPort逻辑接口删除即可,不存在反向去部署的复杂性问题。