时间:2015-03-12 08:44:34 来源: 复制分享
由于越来越多的服务器被虚拟化,因此服务器之间的连接也自然而然地主要通过运行在服务器上的虚拟交换机来进行。如此便出现了一个问题:架顶式数据中心交换机(ToR)最终会被并入服务器吗?
支持者们认为答案是肯定的,尤其是因为现在的服务器一般都是多核、二层智能和高密度光接口的,因此上行的内核连接可由光交叉连接来提供,这不过是把流量从服务器转移到方向引导器上而已。
比较保守的人则认为答案是否定的,或者说短期内不可能。虽然服务器将越来越多地承担虚机间的交换责任,但架顶式交换机将继续存在下去。
在问及服务器是否最终会取代ToR交换机时,Dell’Oro的交换机分析师Alan Weckel说:
“简单的回答是不。归根结底,机架服务器还是要连接到ToR交换机上去的。这就是目前80%的市场现状。所以说,ToR不会很快消失。”
Fiber Mountain公司的观点与此不同。这家新创企业专门设计软件控制的光交叉连接。“我们正准备摈弃层的概念:交换机层、交换机之间的链路层,等等,”Fiber Mountain的创始人兼CEO MH Raza说。“交换作为一种功能正在从交换机盒子里分离出来,成为服务器盒子里与其他功能共存的功能。假如我们把交换功能放入服务器里,其逻辑就和机架前端的很多服务器一样,服务器内置交换机就跟内置了众多的虚机一样。为何不能在服务器上进行交换呢?这在服务器上是可以做到的。”
Raza说,他知道有一家厂商制作的英特尔多核主板就带博通的Trident II交换芯片和一个高容量光纤连接器。这个1U设备有一个光纤接口,可支持最多64个25Gbps通道,容量可从800G到1.6Tbps——这一容量与英特尔和康宁 MXC连接器的一样。利用MXC以及相同的硅光子技术,服务器之间也能直接通信,而无须使用任何交换机。
“交换是可以由服务器来做的,”他说。“我可以分配数据包走右边的通道。它还需要去多少个地方?10个、12个,还是40个?都不成问题。只要你有MXC连接器,你就能让数据包去32个不同的目的地。”
Raza称,实现这一点现在就是可能的,而之所以没人谈论它,是因为这一前景极具颠覆性。我们依然还带着传统网络思维的眼罩。“有没有人谈论它,要取决于市场采用硅光子技术的速度有多快,”Raza说。“但它现在肯定是可以做到的。具体时间表要取决于技术和市场方面的投资与迁移。”
鉴于VMware的NSX产品是专门用于在VMware虚拟服务器环境中处理虚拟交换,你或许会认为该公司就是服务器最终包含交换机这一概念的最大支持者。但VMware网络安全事业部的首席技术战略官Guido Appenzeller称,尽管服务器作为ToR交换机架构模式是为超大规模环境而提出的,但也从未见到它被实际使用过。
“总之,如果想放弃ToR,那服务器就得增加类似包分类引擎的新芯片,”Appenzeller说。“可能需要在服务器内增加一个微型交换机。但今天的服务器架构还无法支持它。”微型交换机应该是以太网设备,能够实现服务器和服务器的直连。另一种选择是一层交叉连接和服务器主板上的多路复用器。Appenzeller说。
Appenzeller之所以赞成以太网微型交换机,是因为此类交换机对于服务器圈子来说相当熟悉,而且它对VLAN的分隔能力也是有些光交叉连接无法做到的。“但我从未见到有谁部署过这种模式。”Appenzeller说:“可能是因为ToR交换机的端口价格下跌得很快,而使两者都显得不太可行吧。”
Dell’Oro集团对此也表赞同。该咨询机构的报告称,2011年到2016年间,10G以太网的平均端口售价从715美元跌到212美元。
据Cumulus网络公司CEO兼联合创始人JR Rivers说,网络芯片厂商如Broadcom和Mellanox所提供的网络处理器的性价比要高于通用CPU。还有,带网络功能会使得中央CPU的性能下降,从而会降低其价值。就像Rivers所言:“如果在CPU上多增加模块,那么回报肯定会受损。”
River称,之前光纤互连和背板的方式也曾被评估过,但由于成本太高,太过复杂其市场没能启动。英特尔的RackScale架构解耦和池化了计算、网络及存储资源,从而通过软件让IT机架更为灵活、敏捷,而利用硅光子互连架构可将所有这些池化资源都连接起来。
然而,这种方式仍可能被证明过于复杂而不切实际。Rivers说:“光背板太过复杂,所以才没能普及开来,而 RackScale与今天的数据中心环境耦合得相当紧密,而且是经过良好设计的系统,这一点与能够在全网上快速迁移的松耦合系统是不同的。RackScale似乎想一招鲜吃遍天,但这是不可能的,而且其客户往往也无法从中获益。”
他将这种努力比喻做嵌入刀片服务器中的刀片式交换机,用户一般都会忽略其存在,仍然会继续让刀片与思科的交换机端口连接。
依照同样的思路,River对数据中心绕开ToR交换机、使用光技术直连服务器的做法也表示了怀疑:“很难看到这种技术的好处,光交叉技术想成为永久改变网络的基础技术要素很困难,更何况它们已存在了相当一段时间了。”
按照英特尔的说法,即便服务器将会承担更多的交换智能和本地功能,但ToR仍将作为物理上独立的交换机存在。
“ToR仍将在数据中心内部发挥重要作用,”英特尔通信基础设施部门总经理Steve Price说。“目前的一个趋势是,在服务器机架上会不断增加网络智能。例如,策略执行和多租户隧道功能今天或者发生在vSwitch上,或者发生在ToR上。随着机架内计算密度的增加,以及服务器上SDN和NFV的出现,每个托架上跨虚拟和物理交换机的东西向流量将会增加。服务器将会成为能够通过IA架构上的软件来处理数据包的混合平台,利用托架级交换可汇聚和管理跨多台服务器的工作负载。”
Price说,托架级交换可以为本托架内的多台服务器提供低延迟的连接性,然后通过100G以太网将流量汇聚给ToR。不过他也承认,在每个服务器托架上提供高密度端口的交换会增加布线成本,所以英特尔建议可将所有服务器托架上的流量汇聚起来,通过100G以太网上行链路传给ToR交换机。
英特尔的战略就是增加在Open vSwitch社区项目上的投入,关注数据平面开发工具套件(DPDK),同时提升IA架构上虚拟交换的性能,在需要的时候可以让硬件卸载流量给NIC(网卡)或物理交换机。Price称,DPDK目前已计划纳入Open vSwitch 2.4。他还认为,RackScale架构更关注的是超大规模数据中心,此类数据中心的管理者希望降低TCO,提高资源的灵活性和敏捷性。
思科计算系统产品事业部的技术营销总监Dan Hanson说,英特尔和思科之间已对RackScale架构和对服务器/交换机的解耦以及分布式内存体系都进行了讨论。Hanson认为,思科对交换机解耦的观点是与英特尔互补的,但在如何最佳实现解耦方面存在分歧。“这个概念包含了很多承诺,也有很多人在推动这件事情,”Hanson说。“思科只是想寻找到实现它的最佳途径。”
Hanson认为,英特尔的DPDK是一种可能的途径,因为它可以用一些硬件来辅助思科的UCS服务器在网络功能虚拟化(NFV)应用中能力的发挥,而通用的x86平台则性能不够。但如何最佳地实现分布式、非汇聚交换以及内存管理,以及业界何时才能做好这方面的准备,目前依然处在开放性讨论阶段。
“我们之所以跟英特尔讨论RackScale架构的原因就在于这是一种补充架构,我们可以从中寻找到向服务器扩展更多功能的途径,在机架内进行分发和解耦。”Hanson说。“到目前为止,我们还只是在UCS机架内共享这些组件中的一部分,但或许尚未扩展到英特尔所关注的内存层面。”
Hanson指出,思科数个月前所发布的在其UCS M系列服务器上所使用的System Link技术就有可以映射到RackScale上的功能。System Link是一块芯片,可以为M系列提供连接解耦的子系统到fabric架构的能力,这里的fabric是软件定义的、基于策略配置的、可部署和管理每个应用资源的架构。