电子发烧友网报道(文/李宁远)随着数据中心飞跃式的发展,数据中心已演变为物理和虚拟基础设施,许多公司运行混合云即两种数据中心的组合,具有各种各样的架构、配置。数据中心在最基本层面上集中了各种设备。数据在多种设备上存储、管理和传播。数据中心包含计算机系统和相关组件,常见的组件有冗余电源系统、数据通信连接。
数据中心的体量仍在不断增加,对于云存储需求也在不断增加,其中有一个组件必须保持稳定,就是电力连接。数据中心的电力系统既需要一个现代化、互连且可靠的基础架构,又少不了可靠和高性能的连接。
数据中心技术转变给连接带来的影响
首先是服务器技术的转变,这一转变带来的影响很直接,那就是速度。10Gbps、25Gbps、40Gbps、50Gbps、100Gbps以及更快的速度,服务器技术的转变意味着必须改进现有连接器以获得更高速度,实现通用互连,灵活互连,而且速度的增加要在不增加热输出的情况下。
第二点是存储的转变,协议正在融合是大趋势,PCIe交换允许访问更多驱动器用于提高性能,而这意味着需要更多内部以及外部电缆。另一方面,闪存也推动了电缆在密封性和其他性能上的提升。
第三点影响来自200G/400G上行链路,超大规模需求推动200G/400G上行链路的发展,更低损耗的更大规模开关趋势目前已经通过正交和有线背板连接架构得以满足。
当我们在提高数据速率时,数据丢失会随着数据速率的提高而增加。所以对于拔高数据速率的连接器,我们需要确保数据尽可能少的丢失,数据丢失会缩短在较高数据速率下发送信号的距离。另外更高的数据速率、更多电缆的使用意味着消耗更多电力。数据中心消耗更多电力,热问题就会随之而来,在数据中心的连接系统设计中,优化配电、降低热能级、提高互连的高速/低延迟性能是每个连接系统都希望实现的,其中灵活的连接和供电是当今数据中心连接设计中的核心。
数据中心灵活连接
在数据中心中,分散式架构正推动着数据流量处理方式的创新,而且这一趋势很明显。数据灵活交换使得机架与服务器间的连接量大增,对于机架间、机架内,甚至多数箱内的此类连接都采用铜缆,铜缆方案因为价格适中,易于使用,性能良好具有一定优势。
数据速率提升可采用高速单链路设计,也可使用并行多高速链路提供更高的聚合速度,就速度来说目前绝大部分连接都能实现高数据速率,这点倒不用担心。基于铜缆连接的技术创新在于提升电缆性能的基础上,以更高的效率提供了高密度信号和电力。铜缆也正在针对400 千兆带宽进行优化,使其能够以更高的数据速率尽可能扩大使用范围。
此类细电缆满足了高密度机架内部应用对于超薄、轻巧和高度灵活的无源布线解决方案的需求,解决众多数据通信布线问题。这种大容量高速I/O互连系统配合经过优化后的铜缆组件可作为以太网、光纤通道和InfiniBand所需光纤的高速、高性价比替代品。当然,在I/O互连端口提升散热性能也是非常有必要的,在设计连接时从数据系统中尽可能减少热损耗。
数据中心高效供电
从电力进入数据中心到使用,电力分配到实际使用点的损耗为10%到15%。效率更高的电力连接器、母线连接器能够有效减少电压损耗,以更高效方式提供电力。紧凑、高密度是数据中心选择电力连接器最看重的。
更高的信号密度连接设计里模块化成了趋势,信号端子直接终端模块集成使得终端模块能支持更多信号,信号密度有了极大的提升。模块化优势也不止于此,模块化组合的通用优势——组合形式多样,也让高效供电设计少了很多局限。
电流能力体现得也很直观,电流连接器每个端子能承载的电流能力决定了它能否满足大功率数据中心对更高功率和更高性能的要求。同样,散热能力也是高效供电里必不可少的,这决定了连接器能否适配紧凑的数据中心设计。
小结
数据中心规模的扩张需要有更高数据速率的连接以及更强大高效的供电支持。对数据中心里的各类连接系统来说,跟上不断变化的数据速率、带宽需求以及供电需求是一场持续的战斗。
审核编辑:彭静欢迎分享,转载请注明来源:内存溢出
评论列表(0条)