由于越来越多的服务器被虚拟化,因此服务器之间的连接也自然而然地主要通过运行在服务器上的虚拟交换机来进行。如此便出现了一个问题:架顶式数据中心交换机(ToR)最终会被并入服务器吗?
支持者们认为答案是肯定的,尤其是因为现在的服务器一般都是多核的、2层智能的和高密度光接口的。因此上行的内核连接可由光交叉连接来提供,这不过是把流量从服务器转移到方向引导器上而已。
比较保守的人则认为答案是否定的,或者说短期内不可能。服务器还将继续承担虚机间的交换责任,而架顶式交换机则将继续存在下去。
在问及服务器是否最终会取代ToR交换机时,Dell“Oro的交换机分析师Alan Weckel说:
“这个问题没办法简单作答。归根结底,机架服务器还是要连接到ToR交换机上去的。这就是目前80%的市场现状。所以说,ToR不会很快消失。”
Fiber Mountain的观点与此不同。这家新创企业专门设计软件控制的光交叉连接,就是为了尽可能避免太多的数据包在数据中心服务器端口之间的点对点光纤链路上进行处理。
“我们正准备摈弃层的概念:交换机层、交换机之间的链路层,等等,”Fiber Mountain的创始人兼CEO MH Raza说。“交换作为一种功能正在从交换机盒子里分离出来,成为服务器盒子里的与其他功能共存的功能。假如我们把交换功能放入服务器里,其逻辑就和机架前端的很多服务器一样,服务器内置交换机就跟内置了众多的虚机一样。为何不能在服务器上进行交换呢?这在服务器上是可以做到的。”
Raza说,他知道有一家厂商(名字略去)制作的英特尔多核主板就带Broadcom Trident II交换芯片和一个高容量光纤连接器。这个1U设备有一个光纤接口,可支持最多64个25Gbps通道,容量可从800G到1.6Tbps—这一容量与英特尔和Corning MXC连接器的一样。利用MXC以及相同的硅光子技术,服务器之间也能直接通信,而无须使用任何交换机。
“交换是可以由服务器来做的,”他说。“我可以分配数据包走右边的通道。它还需要去多少个地方?10个、12个,还是40个?都不成问题。只要你有MXC连接器,你就能让数据包去32个不同的目的地。”
Raza称,实现这一点现在就是可能的,而之所以没人谈论它,是因为这一前景极具颠覆性。我们依然还带着传统网络思维的眼罩。“有没有人谈论它,要取决于市场采用硅光子技术的速度有多快,”Raza说。“但它现在肯定是可以做到的。具体时间表要取决于技术和市场上的投资和转移。”
鉴于VMware的NSX产品可在VMware虚拟服务器环境中处理虚拟交换,你或许会认为该公司就是服务器最终包容交换机这一概念的最大支持者。但VMware网络安全事业部的首席技术战略官Guido Appenzeller称,尽管服务器作为ToR交换机架构模式是为超大规模环境而提出的,也从未见到它被实际使用过。
“总之,如果想放弃ToR,那服务器就得增加类似包分类引擎的新的芯片,”Appenzeller说。“可能需要在服务器内增加一个微型交换机。但今天的服务器架构还无法支持它。”
微型交换机应该是以太网设备,能够实现服务器-to-服务器的光纤直连。另一种选择是1层交叉连接和服务器主板上的多路复用,Appenzeller说。
Appenzeller之所以赞成以太网微型交换机,是因为此类交换机对于服务器圈子来说相当熟悉,而且它对VLAN的分隔能力也是有些光交叉连接无法做到的。“但我从未见到有谁部署过这两者,”Appenzeller说。可能是因为ToR交换机的端口价格下跌得很快,而使两者都显得不太可行吧。
Dell”Oro对此也表赞同。该咨询机构的报告称,2011年到2016年间,10G以太网的平均端口售价从715美元跌到了212美元。
据Cumulus网络公司CEO兼联合创始人JR Rivers说,网络芯片厂商如Broadcom和Mellanox所提供的网络处理器的性价比要高于通用CPU。还有,带网络功能的中央CPU的性能会下降,从而会使其价值降低。就像Rivers所言:“要在CPU上多增加一个方块,回报肯定会受损。”
River称,之前也曾有企业评估过光纤互连和背板,但由于成本太高,太过复杂而没能启动。而解耦和池化计算、网络及存储资源则可以通过软件让IT机架更为灵活、敏捷,利用硅光子互连架构可将所有这些池化资源都连接起来。
然而这种方式仍可能被证明过于复杂而不切实际,Rivers称。
“光背板太过复杂,所以才没能普及开来,”他说。“RackScale与今天的数据中心环境耦合得相当紧密,而且是经过良好设计的系统,这一点与能够在全网上快速迁移的松耦合系统是不同的。RackScale似乎想一招鲜吃遍天,但这是不可能的,而且其客户往往也无法从中获益。”
他将这种努力比喻做嵌入刀片服务器中的刀片式交换机,用户一般都会忽略其存在,仍然会继续让刀片与思科的交换机端口连接。
依照同样的思路,River对数据中心使用光技术,绕开ToR交换机,直连服务器的做法也表示了怀疑。
“传输一个大文件不到一秒,所以很难看到这种技术的好处,”River说。“要想看到光交叉技术成为永久改变网络的基础技术要素也很困难。更何况它们已存在了相当一段时间了。”
按照英特尔的说法,即便服务器将会承担更多的交换智能和本地功能,但ToR仍将作为物理上独立的交换机存在。
“ToR仍将在数据中心内部发挥重要作用,”英特尔通信基础设施部门总经理Steve Price说。“目前的趋势是,在服务器机架上还会不断增加网络智能。例如,策略执行和多租户隧道功能今天或者发生在vSwitch上,或者发生在ToR上。随着机架内计算密度的增加,以及服务器上SDN和NFV的出现,机架内每个隔板上跨虚拟和物理交换机的东西向流量将会增加。服务器将会成为能够通过IA架构上的软件处理数据包的混合平台,利用隔板内的交换可汇聚和管理跨多台服务器的工作负载。”
Price说,隔板内交换可以为本机架内的多台服务器提供低延迟的连接性,然后通过100G以太网将流量汇聚给ToR。不过他也承认,在每个服务器隔板上提供高密度端口的交换会增加布线成本,所以英特尔建议可将所有服务器隔板上的流量汇聚起来,通过100G以太网再上行链路给ToR。
英特尔的战略就是增加在Open vSwitch社区项目上的投入,关注数据平面开发工具套件(DPDK),同时提升IA架构上虚拟交换的性能,在需要的时候可以让硬件卸载流量给NIC和/或物理交换机。Price称,DPDK目前已计划纳入Open vSwitch 2.4。
Price认为,RackScale架构更关注的则是超大规模数据中心,此类数据中心的管理者希望降低TCO,提高资源的灵活性和敏捷性。
思科计算系统产品事业部的技术营销总监Dan Hanson说,英特尔和思科之间已对RackScale架构,以及一般地对服务器/交换机的解耦和分布式内存体系都进行了讨论。Hanson认为,思科对交换机解耦的观点是与英特尔互补的,但在如何最好地实现解耦方面存在分歧。
“这个概念包含了很多的承诺,也有很多人在推动这件事情,”Hanson说。“思科只是想寻找到实现它的最佳途径。”
Hanson认为,英特尔的DPDK是一种可能的途径,因为它可以用一些硬件来辅助思科的UCS服务器在网络功能虚拟化应用中能力的发挥,而通用的x86平台是缺乏这些功能的。但如何最佳地实现分布式、非汇聚交换以及内存管理,业界何时才能做好这方面的准备,目前依然处在开放讨论阶段。
“我们之所以跟英特尔讨论RackScale架构的原因就在于这是一种补充架构,我们可以从中寻找到向服务器更多部分扩展的途径,”Hanson说。“到目前为止,我们还只是在UCS机架内共享这些组件中的一部分,但尚未扩展到英特尔所关注的内存层面。”
Hanson指出,思科3个月前所发布的在其UCS M系列服务器上所使用的System Link技术就有可以映射到RackScale上的功能。System Link是一块芯片,可以为M系列提供连接非汇聚子系统到fabric架构的能力,后者是软件定义的、基于策略配置的、可部署和管理每个应用资源的架构。
但是和Dell“Oro的Weckel一样,Hanson认为,客户采用System Link、RackScale或服务器/交换机解耦的速度将最终将决定服务器能否或何时会取代ToR交换机。
“问题在于,这个过程发生的速度,以及相互间结合的深度,”Hanson说。“目前还有一些底层技术问题亟待解决。客户消化技术变革的能力将成为主要的推动因素。我们一直在寻求我们所能带来的新的和更好的技术,但是这一过程还是会更多地取决于客户愿意接受的某项技术的渗透率。”
责任编辑:ct
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)