对两台服务器做了双机热备份,设置了一个虚拟IP对外连接。如何设置?

对两台服务器做了双机热备份,设置了一个虚拟IP对外连接。如何设置?,第1张

两台服务器的配置可以不一样。

双机热备就是个最小的集群。你说的互为热备应该是在双机的基础上加了个负载均衡,俩服务器都工作,都跑同样的应用,来处理一个数据,这样服务器的压力比较小,寿命长,在一台宕机的情况下另一台正常工作。

这种是负载均衡。虚拟IP是通过双机软件来虚拟的,对外连接是通过交换机连接的。比如服务器现在至少都是双千兆网卡,如果两台做双机,总共4个千兆网口,那么这四个网口其中两个会被用来接心跳线,其实就是个网线,用来互相发测试数据用。剩下的两个网口会被接到交换机上,通过软件,再通过交换机来虚拟成一个IP。

服务器,也称伺服器,是提供计算服务的设备。由于服务器需要响应服务请求,并进行处理,因此一般来说服务器应具备承担服务并且保障服务的能力。

服务器的构成包括处理器、硬盘、内存、系统总线等,和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。

1:找分区或目录同步软件,某台服务器改动了自动把修改应用到别的服务器,比如红旗的HA。

2:换种建服务器的思路,后台用一台独立的服务器做数据库和文件服务器,用来存放数据库和上传的文件,另外的做负载均衡运行服务器,把不需要变动的网页程序放上面。

你可以试试在一台服务器做WEB和数据库,另外一台做WEB,两个WEB都连接那一个数据库,这样两个WEB内容就是同步的了,然后两台WEB间做负载,下边是我COPY的

网络负载均衡可以让客户端用一个逻辑Internet名称和虚拟IP地址(又称群集IP地址)访问群集,同时保留每台计算机各自的名称。下面,我们将在两台安装Windows Server 2003的普通计算机上,介绍网络负载均衡的实现及应用。

这两台计算机中,一台计算机名称为A,IP地址为19216807;另一台名为B,IP地址为19216808。规划网络负载均衡专用虚拟IP地址为19216809。当正式应用时,客户机只需要使用IP地址19216809来访问服务器,网络服务均衡会根据每台服务器的负载情况自动选择19216807或者19216808对外提供服务。具体实现过程如下:

在实现网络负载均衡的每一台计算机上,只能安装TCP/IP协议,不要安装任何其他的协议(如IPX协议或者NetBEUI协议),这可以从“网络连接属性”中查看。

第一步,分别以管理员身份登录A机和B机,打开两台机的“本地连接”属性界面,勾选“此连接使用下列项目”中的“负载均衡”项并进入“属性”对话框,将IP地址都设为19216809(即负载均衡专用IP),将子网掩码设置为2552552550;

第二步,分别进入A机和B机的“Internet协议(TCP/IP)”属性设置界面,点击“高级”按钮后,在d出的“高级TCP/IP设置”界面中添加IP地址19216809和子网掩码设置为2552552550。

第三步,退出两台计算机的“本地连接属性”窗口,耐心等一会儿让系统完成设置。

以后,如果这两台服务器不能满足需求,可以按以上步骤添加第三台、第四台计算机到网络负载均衡系统中以满足要求。

用IIS服务验证网络负载均衡

网络负载均衡配置好后,为了实现某项具体的服务,需要在网络负载均衡的计算机上安装相应的服务。例如,为了实现IIS网站的负载均衡,需要在相应的网络负载均衡服务器上安装IIS服务。为了让每个用户在通过网络负载均衡访问到不同的计算机时,能够访问到一致的数据,需要在网络负载均衡的每台计算机上保持数据的一致性。举例来说,实现了两个节点的IIS的网络负载均衡,为了保证两个网站内容的一致性,除了这两个IIS服务器的配置相同外,相应的网站数据必须一致。

为了检验网络负载均衡,我们可以通过IIS来进行验证,其他的一些应用如终端服务、Windows Media服务与IIS的应用与之相类似。在其他计算机上的IE浏览器中键入19216809,根据网络的负载,网络负载均衡会自动转发到A机或B 机。为了验证效果,你可以在浏览的时候,拔掉第一台计算机的网线或拔掉第二台机器的网线,将会发现浏览到的将是不同内容。当然,我们在测试的时候,为了验证网络负载均衡的效果,把两个网站设置成不一致的内容,而在正式应用的时候,网络负载均衡群集的每个节点计算机的内容将是一致的,这样不管使用哪一个节点响应,都能保证访问的内容是一致的。

双机主要分两种,一种是磁盘阵列柜的硬件双机热备;一种是没有磁盘阵列柜的纯软双机热备如果没有磁盘阵列柜的话,只能做纯软双机,那你需要购买两个双机软件,才能做,一个是双机热备份软件:如ROSS或PLUS WELL等,别一个是双机镜像软件MirrorHA,
以ross为例:
1纯软件双机热备份
两台服务器通过网络连接,硬件配置少了磁盘阵列 , 软件配置上,除了 Cluster 之外,新增了 NT Mirror , NT Mirror 是 ROSE 公司的网络数据镜像软件。

图 2 纯软件双机热备份系统
2 、 系统工作原理
与常规的双机系统相比,纯软件双机热备份系统的两台服务器之间少了公共的存储设备(通常是磁盘阵列),但是多了网络数据镜像软件 Mirror 。没有了公共存储设备磁盘阵列,对于某一个需要进行切换的服务而言,怎样保证其所用的数据在两台服务器上是一致的呢?这就是数据镜像软件 ROSE NT Mirror 的功能所在——— NT Mirror 通过网络,将某一台服务器上指定路径下的数据采用同步或异步方式,镜像到另一台服务器。
镜像软件取代双机热备份系统的磁盘阵列,关键之处在于其必须与 Cluster 软件协同工作。当某一服务运行于服务器 A 时,它所使用的特定数据在服务器 A 上对应于一个数据集合Ф A, 通过 NT Mirror 将源数据集Ф A 镜像到服务器 B 成为目标数据集Ф B, 当 NT Cluster 将该服务程序从服务器 A 切换到服务器 B 时,它使用服务器 B 上的数据Ф B, 同时 NT Mirror 自动修改原来从Ф A 到Ф B 的镜像成为从Ф B 到Ф A 的镜像。对一个服务程序是这样,对多个服务程序,则一一建立服务程序与数据镜像集之间的关系。这样,无论服务程序运行于哪一个服务器,始终保证其所使用的数据在对端服务器有一份镜像存在;当一台服务器由于硬件或软件原因发生故障失效 , 另外一台可在保证提供自己原有服务的同时 , 启动失效服务器的应用程序从而取代其服务器功能。
3 、运作方式:
在正常的运作情形之下,主机之间透过冗余侦测线路互相侦测,当任一主机有错误产生时, ROSE HA 提供严谨的判断与分析,确认主机出错之后,启动备援接管动作。
支持各种 *** 作系统平台: Unix 、 Linux 、 Windows Server 等。
支持各种数据库: 数据库SQL 、 Oracle 、 Informix 、 Sysbase 、 Exchenge 、 Lotus/Nose 、 DB2 等
接管动作包括 :
文件系统 ( File System)
数据库 ( Database)
网络地址 ( IP Address)
应用程序 (AP)
系统环境 (OS)
容错备援运作过程
• 当一台活动服务器宕机时,其 IP 地址、服务器名称及运行的作业会自动转移至另一台服务器,客户端软件不需要重新设定,只要重新连结至原来的 IP 地址及服务器名称即可继续作业;
• 两台服务器的信息交换可通过: RS232 、 TCP/IP
• ROSE HA 采取高可靠的错误检测和故障恢复机制减少系统宕机,停机时间并防范错误,提供故障警告;
• ROSE HA 可设定故障排除后自动或手动回复 ( switch back );
• ROSE HA 安装时不需要修改 *** 作系统的核心、更改应用软件,也无需特殊的硬件;
• ROSEHA 提供基于 GUI 的监控中心,管理员能查看 ROSE HA 的状态、检查错误信息和警告、修改系统参数及从远程工作站管理 ROSE HA 系统;
• 与数据库无关,可以支持各种数据库,包括 ORACLE 、 Sybase 、 Informix 等
管理工具:
• 友好、直观、易于 *** 作的 GUI 界面
• 有关 ROSE HA 的配置都可以在 GUI 中完成,支持动态配置和实时同步
• 网卡的状态,磁盘的状态都可在 GUI 中显示出来
• 用户可通过第三方 Web 浏览器进行远程管理

监控的对象资源:
• Volume
• IP 地址
• 计算机别名
• 共享文件
• NT 服务
• 用户自定义
总之, ROSE HA 软件极大程度上减少了人的介入,提高了系统的可靠性与安全性,使服务能可靠的运行。
四、系统特点
纯软件高可用方案,是双机高可用软件和网络数据镜像软件的完美结合。可以概括如下:
• 系统成本低:不需要磁盘阵列,降低了系统成本。
• 系统抗灾难能力强。
• 构成双机系统的两台服务器通过网络连接,可以相隔很远的物理距离,增强了系统的抗灾难能力。
• 双向的失效切换功能。
• 双向的失效切换,又称 ACTIVE/ACTIVE 冗余方式,是指为用户提供两台可运行重要应用的全功能服务器 并确保它们中任何一台失效时另外一台可自动代替其功能。
• 系统资源占用少系统效率高。
• 数据镜像可以绑定到某一对网卡上完成,不占用服务器网络资源,减轻服务器负载,提高系统效率。
• 服务器无需相同。
• 双机热备份的两台服务器在硬件和软件配置上无须相同。
• 无需停机的设备维护能力。
• 由于应用程序可以在两台服务器之间自由切换,用户可由此实现在不停止网络服务前提下对其进行维护工作,如日常检查 维修或测试;而此时前台工作站可以完全透明地保持在工作状态。
• 简单易用功能全面的管理窗口。
• 面向对象的管理窗口使您只需移动鼠标,就可以配置和管理整个双机热备份系统。
• 从资源定义到服务程序的切换,都可以轻松完成。
系统要求:
• 两台服务器配置无需相同 ( IBM 服务器有例外)
• window NT/windows 2000 、 2003 *** 作系统版本一致
• 用于公用网络的网卡( Ethernet,Fast Ethernet,FDDI 或 ATM 卡 ) 用于私用网络的网卡或 RS-232 串口线
2硬件双机热备份:可以用Win2003企业版也可以做

其实超融合这一块,放在云计算IT基础设施里面,不算是完全合适。你说它是分布式存储,但是它同时又是硬件服务器与存储;你说它算硬件,但是它又离不开分布式存储软件。

传统的IT基础设施架构,主要分为网络、计算、存储三层架构。但随着云计算与分布式存储技术的发展以及x86服务器的标准化,逐渐出现了一种将计算、存储节点融合在一起的架构--超融合架构。超融合将三层的IT基础设施架构缩小变成了两层。

2019年11月的Gartner超融合产品魔力象限中,领导者象限有5家:Nutanix、DELL、VMware、CISCO、HPE。(其中DELL vxRail一体机里面用的分布式存储软件也是VMware的VSAN,而VMware提供的则是VSAN纯软件的解决方案)

Nutanix能够成为超融合领导者中的领导者,自然是经过市场的充分验证,得到市场的认可。而且由于其公开资料(Nutanix 圣经)比较齐备,因此我们可以通过Nutanix一窥超融合的究竟。

这边就不搬运了,可以直接搜索引擎搜索“Nutanix圣经”或“Nutanix-Bible”,可以找到相应的官方文档。

引用自NUTANIX圣经 -“Nutanix解决方案是一个融合了存储和计算资源于一体的解决方案。该方案是一个软硬件一体化平台,在2U空间中提供2或4个节点。

每个节点运行着hypervisor(支持ESXi, KVM, Hyper-V)和Nutanix控制器虚机(CVM)。Nutanix CVM中运行着Nutanix核心软件,服务于所有虚机和虚机对应的I/O *** 作。

得益于Intel VT-d(VM直接通路)技术,对于运行着VMware vSphere的Nutanix单元,SCSI控制(管理SSD和HDD设备)被直接传递到CVM。”

个人总结: 从以上官方文档可知,2U的空间可以安装2~4个Nutanix节点(每个节点相当于1台物理服务器),所以设备装机密度非常高。每个节点都安装着虚拟化软件,并且在虚拟化层之上再运行着一台Nutanix的控制虚机(CVM),该虚机主要负责不同的Nutanix节点之间控制平面的通信。单个节点中配置有SSD硬盘与HDD硬盘,替代磁盘阵列作为存储使用,单个节点有独立的CPU与内存,作为计算节点使用。

1、基础架构

以3个Nutanix节点为例,每个节点安装有Hypervisor,在Hypervisor之上运行着客户虚拟机,并且每个节点有一台Nutanix控制器虚机Controller VM,配置有2块SSD与4块HDD,通过SCSI Controller作读写。

2、数据保护

Nuntanix与传统磁盘阵列通过Raid、LVM等方式作数据保护不同,而是与一般的分布式存储一样,通过为数据建立副本,拷贝到其他Nutanix节点存放,来对数据进行保护,Nutanix将副本的数量称作RF(一般RF为2~3)。

当客户虚机写入数据“见图上1a)流程”,数据先写入到本地Nutanix节点的SSD硬盘中划分出来的OpLog逻辑区域(相当于Cache的作用),然后执行“1b)”流程,本地节点的CVM将数据从本地的SSD的OpLog拷贝到其他节点的SSD的OpLog,拷贝份数视RF而定。当其他节点CVM确定数据写入完成,会执行“1c”流程,给出应答写入完成。通过数据副本实现对数据的保护。

数据从SSD中的OpLog写入到SSD以及HDD的Extent Store区域,是按照一定的规则异步进行的,具体详见下面的部分。

3、存储分层

Nutanix数据写入以本地落盘为主要写入原则(核心原则)。
当客户虚机写入数据是,优先考虑写入本地SSD(如果SSD已用容量未达到阀值),如果本地SSD满了,会将本地SSD的最冷的数据,迁移到集群中其他节点的SSD,腾出本地SSD的空间,写入数据。本地落盘的原则,是为了尽量提高虚机访问存储数据的速度,使本地虚机不需要跨节点访问存储数据。(这点应该是与VSAN与其他分布式文件系统最大原理性区别)

当整个集群的SSD已用容量达到阀值(一般是75%),才会将每个节点的SSD数据迁移到该节点的HDD硬盘中。

SSD迁移数据到HDD,并非将所有数据全部迁移到HDD,而是对数据进行访问度冷热的排序,并且将访问较少的冷数据优先迁移到HDD硬盘中。

如SSD容量达到95%的利用率,则迁移20%的冷数据到HDD;如SSD容量达到80%,则默认迁移15%的冷数据到HDD。

4、数据读取与迁移

Nutanix圣经引用-“ <u style="text-decoration: none; border-bottom: 1px dashed grey;">I/O和数据的本地化(data locality),是Nutanix超融合平台强劲性能的关键所在。所有的读、写I/O请求都藉由VM的所在节点的本地CVM所响应处理。所以基本上不会出现虚机在一个节点,而需要访问的存储数据在另外一个物理节点的情况,VM的数据都将由本地的CVM及其所管理的本地磁盘提供服务。</u>

<u style="text-decoration: none; border-bottom: 1px dashed grey;">当VM由一个节点迁移至另一个节点时(或者发生HA切换),此VM的数据又将由现在所在节点中的本地CVM提供服务。当读取旧的数据(存储在之前节点的CVM中)时,I/O请求将通过本地CVM转发至远端CVM。所有的写I/O都将在本地CVM中完成。DFS检测到I/O请求落在其他节点时,将在后台自动将数据移动到本地节点中,从而让所有的读I/O由本地提供服务。数据仅在被读取到才进行搬迁,进而避免过大的网络压力。</u>

个人总结: 即一般虚机读写数据都是读本地节点的硬盘,如果本地节点硬盘没有该数据,会从其他节点先拷贝过来本地节点硬盘,再为本地虚机提供访问,而不是虚机直接访问其他节点。即要贯彻本地落盘的核心思想。

5、Nutanix解决方案的优缺点

Nutanix方案优点:

1) 本地落盘策略,确保虚机访问存储速度:虚机写入的数据都在本物理节点的磁盘上,避免跨节点存储访问,确保访问速度,减轻网络压力。

2) 采用SSD磁盘作为数据缓存,大幅提升IO性能:

见上表数据,从随机的读写来看,SSD的IO及带宽性能比SATA的性能提升了约1000倍。而结合Nutanix的本地落盘策略,虚机数据写入,仅有本地的2块SSD硬盘作为数据缓存负责写入数据。

但由于单块SSD硬盘的IO比传统阵列的SATA高出1000倍,IO性能大幅提升。(相当于要超过2000块SATA硬盘做Raid,才能提供近似的IO性能)。

3)永远优先写入SSD,确保高IO性能

数据写入HDD不参与,即使本地SSD容量满了会将冷数据迁移到集群其他节点SSD,然后还是SSD进行读写,确保高IO。后续异步将SSD冷数据迁移到HDD。

4)数据冷热分层存储

冷数据存放在HDD,热数据保留在SSD,确保热点数据高IO读取。

5)设备密度高,节省机房机架空间

2U可以配置4个节点,包含了存储与计算,比以往机架式/刀片服务器与磁盘阵列的解决方案节省了大量的空间。

Nutanix方案缺点:

1)本地落盘及SSD缓存方案确保了高IO,但是硬盘的带宽得不到保证。

传统磁盘阵列,多块SATA/SAS硬盘加入Raid组,数据写入的时候,将文件拆分为多个block,分布到各个硬盘中,同个Raid组的硬盘同时参与该文件的block的读写。通过多块硬盘的并行读写,从而提升IO与带宽性能。

而Nutanix的解决方案中,单个文件的读写遵循本地落盘的策略,因此不再对文件拆分到多块硬盘进行并行读写,而只有本地节点的SSD硬盘会对该文件进行写入。

虽然SSD硬盘的IO与带宽都是SATA/SAS的数百上千倍,但是SSD对比SATA/SAS硬盘在带宽上面只有2~3倍的速率提升,而传统Raid的方式,多块硬盘并行读写,虽然IO比不上SSD,但是带宽则比单块/两块SSD带宽高出很多。

因此Nutanix的解决方案适合用于高IO需求的业务类型,但是因为它的读写原理,则决定了它不合适低IO、高带宽的业务类型。

三)行业竞争对手对比:

VMWARE EVO RAIL软件包:VMware没有涉足硬件产品,但EVO: RAIL 软件捆绑包可供合格的 EVO: RAIL 合作伙伴使用。合作伙伴转而将硬件与集成的 EVO: RAIL 软件一起出售,并向客户提供所有硬件和软件支持。

而EVO:RAIL的核心,其实就是VSphere虚拟化软件+VSAN软件的打包。

但VSAN与Nutanix最大的一个区别,就是不必须完全遵循Nutanix的本地落盘的策略。可以通过设置条带系数,将本地虚机的数据读写设置为横跨多个节点的硬盘,默认条带系数为1,最大可设置为12个,即一个虚机的数据写入,可以同时采用12个节点的SSD硬盘并行读写。

通过这种方式,VSAN可以一定程度的弥补了Nutanix方案不适用于带宽要求高,IO要求低的业务类型的缺点。

但是这种横跨物理节点的访问流量,在虚机数量众多的情况下,肯定会给网络带来压力,网络带宽可能会成为另一个瓶颈。

其次VSAN可以集成在Hypervisor层,而不需要像Nutanix在Hypervisor上面运行一个控制虚机CVM。

再次,Nutanix支持KVM、Hyper-V、ESXI等多种Hypervisor,而VSAN仅支持自家的ESXI。

其他待补充:由于暂时未对VSAN进行实际部署测试,仅停留在对其原理的研究,因此,关于VSAN的部分待后续平台上线测试完成后继续补充。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/13203036.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-06-20
下一篇 2023-06-20

发表评论

登录后才能评论

评论列表(0条)

保存