怎么看云桌面领域的“融合”和“超融合这两个概念?

怎么看云桌面领域的“融合”和“超融合这两个概念?,第1张

“融合”和“超融合"是两种不同的IT基础架构,是搭建云桌面系统的基础,二者具体区别如下:

首先要搞清楚超融合概念包含三个要素:

使用通用硬件,具体说就是 x86 服务器,所以如果出现专有硬件的 IT 平台就不属于超融合;

软件定义, 即 IT 服务是通过 x86 服务器里运行的软件实现的,如:分布式存储软件实现数据存储服务;

所有的 IT 服务要在一个平台下,隶属于同一个软件栈。

市面上将存储设备、服务器、网络交换机放在一个机柜里整体交付的融合方案(如:VCE Vblock)则和超融合完全不是一回事,更多强调软件硬件预先配置和验证好,整体交付。

其实超融合这一块,放在云计算IT基础设施里面,不算是完全合适。你说它是分布式存储,但是它同时又是硬件服务器与存储;你说它算硬件,但是它又离不开分布式存储软件。

传统的IT基础设施架构,主要分为网络、计算、存储三层架构。但随着云计算与分布式存储技术的发展以及x86服务器的标准化,逐渐出现了一种将计算、存储节点融合在一起的架构--超融合架构。超融合将三层的IT基础设施架构缩小变成了两层。

2019年11月的Gartner超融合产品魔力象限中,领导者象限有5家:Nutanix、DELL、VMware、CISCO、HPE。(其中DELL vxRail一体机里面用的分布式存储软件也是VMware的VSAN,而VMware提供的则是VSAN纯软件的解决方案)

Nutanix能够成为超融合领导者中的领导者,自然是经过市场的充分验证,得到市场的认可。而且由于其公开资料(Nutanix 圣经)比较齐备,因此我们可以通过Nutanix一窥超融合的究竟。

这边就不搬运了,可以直接搜索引擎搜索“Nutanix圣经”或“Nutanix-Bible”,可以找到相应的官方文档。

引用自NUTANIX圣经 -“Nutanix解决方案是一个融合了存储和计算资源于一体的解决方案。该方案是一个软硬件一体化平台,在2U空间中提供2或4个节点。

每个节点运行着hypervisor(支持ESXi, KVM, Hyper-V)和Nutanix控制器虚机(CVM)。Nutanix CVM中运行着Nutanix核心软件,服务于所有虚机和虚机对应的I/O *** 作。

得益于Intel VT-d(VM直接通路)技术,对于运行着VMware vSphere的Nutanix单元,SCSI控制(管理SSD和HDD设备)被直接传递到CVM。”

个人总结: 从以上官方文档可知,2U的空间可以安装2~4个Nutanix节点(每个节点相当于1台物理服务器),所以设备装机密度非常高。每个节点都安装着虚拟化软件,并且在虚拟化层之上再运行着一台Nutanix的控制虚机(CVM),该虚机主要负责不同的Nutanix节点之间控制平面的通信。单个节点中配置有SSD硬盘与HDD硬盘,替代磁盘阵列作为存储使用,单个节点有独立的CPU与内存,作为计算节点使用。

1、基础架构

以3个Nutanix节点为例,每个节点安装有Hypervisor,在Hypervisor之上运行着客户虚拟机,并且每个节点有一台Nutanix控制器虚机Controller VM,配置有2块SSD与4块HDD,通过SCSI Controller作读写。

2、数据保护

Nuntanix与传统磁盘阵列通过Raid、LVM等方式作数据保护不同,而是与一般的分布式存储一样,通过为数据建立副本,拷贝到其他Nutanix节点存放,来对数据进行保护,Nutanix将副本的数量称作RF(一般RF为2~3)。

当客户虚机写入数据“见图上1a)流程”,数据先写入到本地Nutanix节点的SSD硬盘中划分出来的OpLog逻辑区域(相当于Cache的作用),然后执行“1b)”流程,本地节点的CVM将数据从本地的SSD的OpLog拷贝到其他节点的SSD的OpLog,拷贝份数视RF而定。当其他节点CVM确定数据写入完成,会执行“1c”流程,给出应答写入完成。通过数据副本实现对数据的保护。

数据从SSD中的OpLog写入到SSD以及HDD的Extent Store区域,是按照一定的规则异步进行的,具体详见下面的部分。

3、存储分层

Nutanix数据写入以本地落盘为主要写入原则(核心原则)。
当客户虚机写入数据是,优先考虑写入本地SSD(如果SSD已用容量未达到阀值),如果本地SSD满了,会将本地SSD的最冷的数据,迁移到集群中其他节点的SSD,腾出本地SSD的空间,写入数据。本地落盘的原则,是为了尽量提高虚机访问存储数据的速度,使本地虚机不需要跨节点访问存储数据。(这点应该是与VSAN与其他分布式文件系统最大原理性区别)

当整个集群的SSD已用容量达到阀值(一般是75%),才会将每个节点的SSD数据迁移到该节点的HDD硬盘中。

SSD迁移数据到HDD,并非将所有数据全部迁移到HDD,而是对数据进行访问度冷热的排序,并且将访问较少的冷数据优先迁移到HDD硬盘中。

如SSD容量达到95%的利用率,则迁移20%的冷数据到HDD;如SSD容量达到80%,则默认迁移15%的冷数据到HDD。

4、数据读取与迁移

Nutanix圣经引用-“ <u style="text-decoration: none; border-bottom: 1px dashed grey;">I/O和数据的本地化(data locality),是Nutanix超融合平台强劲性能的关键所在。所有的读、写I/O请求都藉由VM的所在节点的本地CVM所响应处理。所以基本上不会出现虚机在一个节点,而需要访问的存储数据在另外一个物理节点的情况,VM的数据都将由本地的CVM及其所管理的本地磁盘提供服务。</u>

<u style="text-decoration: none; border-bottom: 1px dashed grey;">当VM由一个节点迁移至另一个节点时(或者发生HA切换),此VM的数据又将由现在所在节点中的本地CVM提供服务。当读取旧的数据(存储在之前节点的CVM中)时,I/O请求将通过本地CVM转发至远端CVM。所有的写I/O都将在本地CVM中完成。DFS检测到I/O请求落在其他节点时,将在后台自动将数据移动到本地节点中,从而让所有的读I/O由本地提供服务。数据仅在被读取到才进行搬迁,进而避免过大的网络压力。</u>

个人总结: 即一般虚机读写数据都是读本地节点的硬盘,如果本地节点硬盘没有该数据,会从其他节点先拷贝过来本地节点硬盘,再为本地虚机提供访问,而不是虚机直接访问其他节点。即要贯彻本地落盘的核心思想。

5、Nutanix解决方案的优缺点

Nutanix方案优点:

1) 本地落盘策略,确保虚机访问存储速度:虚机写入的数据都在本物理节点的磁盘上,避免跨节点存储访问,确保访问速度,减轻网络压力。

2) 采用SSD磁盘作为数据缓存,大幅提升IO性能:

见上表数据,从随机的读写来看,SSD的IO及带宽性能比SATA的性能提升了约1000倍。而结合Nutanix的本地落盘策略,虚机数据写入,仅有本地的2块SSD硬盘作为数据缓存负责写入数据。

但由于单块SSD硬盘的IO比传统阵列的SATA高出1000倍,IO性能大幅提升。(相当于要超过2000块SATA硬盘做Raid,才能提供近似的IO性能)。

3)永远优先写入SSD,确保高IO性能

数据写入HDD不参与,即使本地SSD容量满了会将冷数据迁移到集群其他节点SSD,然后还是SSD进行读写,确保高IO。后续异步将SSD冷数据迁移到HDD。

4)数据冷热分层存储

冷数据存放在HDD,热数据保留在SSD,确保热点数据高IO读取。

5)设备密度高,节省机房机架空间

2U可以配置4个节点,包含了存储与计算,比以往机架式/刀片服务器与磁盘阵列的解决方案节省了大量的空间。

Nutanix方案缺点:

1)本地落盘及SSD缓存方案确保了高IO,但是硬盘的带宽得不到保证。

传统磁盘阵列,多块SATA/SAS硬盘加入Raid组,数据写入的时候,将文件拆分为多个block,分布到各个硬盘中,同个Raid组的硬盘同时参与该文件的block的读写。通过多块硬盘的并行读写,从而提升IO与带宽性能。

而Nutanix的解决方案中,单个文件的读写遵循本地落盘的策略,因此不再对文件拆分到多块硬盘进行并行读写,而只有本地节点的SSD硬盘会对该文件进行写入。

虽然SSD硬盘的IO与带宽都是SATA/SAS的数百上千倍,但是SSD对比SATA/SAS硬盘在带宽上面只有2~3倍的速率提升,而传统Raid的方式,多块硬盘并行读写,虽然IO比不上SSD,但是带宽则比单块/两块SSD带宽高出很多。

因此Nutanix的解决方案适合用于高IO需求的业务类型,但是因为它的读写原理,则决定了它不合适低IO、高带宽的业务类型。

三)行业竞争对手对比:

VMWARE EVO RAIL软件包:VMware没有涉足硬件产品,但EVO: RAIL 软件捆绑包可供合格的 EVO: RAIL 合作伙伴使用。合作伙伴转而将硬件与集成的 EVO: RAIL 软件一起出售,并向客户提供所有硬件和软件支持。

而EVO:RAIL的核心,其实就是VSphere虚拟化软件+VSAN软件的打包。

但VSAN与Nutanix最大的一个区别,就是不必须完全遵循Nutanix的本地落盘的策略。可以通过设置条带系数,将本地虚机的数据读写设置为横跨多个节点的硬盘,默认条带系数为1,最大可设置为12个,即一个虚机的数据写入,可以同时采用12个节点的SSD硬盘并行读写。

通过这种方式,VSAN可以一定程度的弥补了Nutanix方案不适用于带宽要求高,IO要求低的业务类型的缺点。

但是这种横跨物理节点的访问流量,在虚机数量众多的情况下,肯定会给网络带来压力,网络带宽可能会成为另一个瓶颈。

其次VSAN可以集成在Hypervisor层,而不需要像Nutanix在Hypervisor上面运行一个控制虚机CVM。

再次,Nutanix支持KVM、Hyper-V、ESXI等多种Hypervisor,而VSAN仅支持自家的ESXI。

其他待补充:由于暂时未对VSAN进行实际部署测试,仅停留在对其原理的研究,因此,关于VSAN的部分待后续平台上线测试完成后继续补充。

尽管2018年的超融合市场的并购交易活动并没有2017年那样多,但仍然有很多的发展,其重点是转向软件模型,以及在混合云环境中使用超融合基础设施(HCI)。以下是对2019年超融合发展的四个预测:

1超融合基础设施(HCI)增加了SDS功能

人们很容易将软件定义存储(SDS)与超融合基础设施(HCI)混淆在一起,尽管从可管理性的角度来看这两者有着很大的不同。

软件定义存储(SDS)资源独立于计算资源进行管理,尤其是在虚拟化和容器化环境中。软件定义存储(SDS)显示需要映射到相关虚拟机或容器的LUN、卷或文件。

超融合基础设施(HCI)不仅仅是存储。它仍然是像软件定义存储(SDS)这样的软件定义基础设施,但它是围绕计算结构设计的,而不是存储结构。使用超融合基础设施(HCI),一切都在计算级别进行管理,无论是虚拟机还是容器。没有要单独管理的LUN,卷或文件。也就是说,超融合基础设施(HCI)面临的挑战是虚拟化软件可以限制集群中的节点数量。因此,在许多情况下,客户需要为不同的用例部署两个不同的软件定义解决方案,而单个软件定义的基础设施是理想的。

虽然由于是传统的存储管理结构,软件定义存储(SDS)无法用作真正的超融合基础设施(HCI),但专家预测超融合基础设施(HCI)将在2019年增加软件定义存储(SDS)功能,以绕过虚拟化软件强加的集群大小限制。通过将服务器划分为“应用服务器”(具有应用程序虚拟机、虚拟化软件、可能存储的服务器)和“数据服务器”(仅带有存储的服务器),在同一管理框架下,相同的超融合基础设施(HCI)软件可以扩展到同一个集群的1000个服务器。这使组织能够为超融合基础设施(HCI)和软件定义存储(SDS)用例采用单一供应商的服务,同时仍保留每个解决方案的价值。

2混合云成为真正的混合云

当今的超融合基础设施(HCI)并不真正适合混合云战略,因为它基本上采用了本地超融合基础设施(HCI)软件堆栈,只是把它放在公共云中的裸机服务器上。虽然在本地部署和公共云中使用相同的管理框架的目标是可以理解的,但这种模型消除了公共云的大部分价值。

例如,如果组织想使用仅在公共云中可用的一些优秀的云原生分析应用程序,那么该怎么办而如果组织只是在云中的裸机服务器上添加一个本地超融合基础设施(HCI)软件堆栈,那么超融合基础设施(HCI)软件堆栈没有利用公共云中可用的丰富功能。

这种新的混合云模型还可以在公共云中提供企业应用程序数据的即时可用性。然而,在需要数天到数周才能将数据从公共云恢复到本地部署之前,公共云中的恢复可以通过近乎同步的恢复点和5个9的可用性来实现。

在这两种使用案例中,公共云中的复制占用空间最小,因此组织不会承担在公共云中保留整个本地软件堆栈的成本。

专家的预测是,在2019年,人们将开始看到与超融合基础设施(HCI)供应商采用不同的方法,通过利用IT团队知道的本地超融合基础设施(HCI)工具,同时利用云原生服务,更好地适应混合云战略以及使公共云成为现实的应用程序。

3超融合基础设施(HCI)演变为抽象融合基础设施(ACI)

像虚拟化一样,容器化实际上只是另一种抽象形式。容器比虚拟机更轻、更便携,但是抽象应用程序和 *** 作系统都来自硬件。虽然组织将始终拥有容器和虚拟机的单独基础设施,但大多数组织都倾向于使用单一基础设施。

降低IT基础设施复杂性的超融合基础设施(HCI)价值主张对容器化更具吸引力,因为从DevOps角度来看,其目标是尽可能减少IT交互。因此,很难将传统存储和SDS(软件定义存储)用于容器化,因为它仍然需要存储管理和某种形式的存储知识。

在某些情况下,容器部署在虚拟机中,而超融合基础设施(HCI)无疑是此模型的良好解决方案。但是,为了真正利用容器化和容器编排框架,超融合基础设施(HCI)应该本身支持容器化和虚拟化这两种类型的抽象。

由于所有这些原因,容器化的增长和虚拟化的长尾将使超融合基础设施(HCI)变为抽象融合基础设施或抽象融合基础设施(ACI)。专家期望是人们将在2019年看到抽象融合基础设施(ACI)的首次实施。

4“HCI软件”继续误导

很多行业都在谈论超融合基础设施(HCI)的软件方法,但大多数引入软件方法的设备供应商都是出于各种错误的原因才这么做的。超融合基础设施(HCI)的软件方法应该主要为客户提供好处。然而,大多数设备供应商采用软件方法的主要原因是通过从硬件业务类别转移到软件业务类别,并提高毛利率(而不是让客户受益)来实现自身利益。尽管他们所推广的软件本质上是一种“以软件为名义”的应用,而超融合设备供应商仍将继续传播软件信息,以取悦财务分析师。

通过对超融合基础设施(HCI)采用真正的软件方法,客户可以在任何供应商的现有服务器上安装该软件,并将其转换到生产中,而不仅仅是将其用于试验或概念验证。客户还可以混合和匹配新的和现有的服务器、不同品牌的服务器和不同型号的服务器。客户还可以购买在新服务器上预先配置的软件,并将这些软件与现有服务器上安装的软件一起部署。

真正的软件方法还将提供永久或期限许可的选择,这在存储处于服务器更新周期时非常重要。使用永久许可证,客户终身拥有该许可证,因此他们可以在服务器更新周期内将其转移到新服务器,而不必每年或每次刷新设备时支付许可证费用。

最后,软件方法在添加容量时提供了最大的灵活性,因为客户可以将驱动器添加到服务器或替换具有更高容量驱动器的服务器中的低容量驱动器。显然,客户可以像使用设备一样添加整个服务器。

专家预计,在2019年,超融合设备供应商将继续保持对软件的模糊定义,并且不会像超融合基础设施(HCI)软件供应商那样向潜在客户提供真正软件方法的所有好处。

华三超融合平台可以支持加入多台服务器,具体可以根据客户的业务需求、资源环境来配置,最多可以加入1000台服务器。华三的超融合平台可以将计算、存储、网络、云管理等资源一体化,形成一个完整的虚拟化基础架构,可以充分利用服务器资源,提高服务器的利用率。而且华三超融合平台支持外部设备的连接,可以支持多种存储设备,可以自由地增加或删减服务器,可以满足客户的业务需求。
此外,华三超融合平台还具备高可用性和安全性,支持多种数据备份策略,可以有效地保障数据安全;同时,华三超融合平台还支持多种灾备策略,可以有效地保障服务的可用性,提高客户的业务运行水平。此外,华三超融合平台还支持动态调整资源,可以根据客户的业务需求进行自动调整,以确保服务的稳定性和可用性。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/13307607.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-07-11
下一篇 2023-07-11

发表评论

登录后才能评论

评论列表(0条)

保存