我们前面在部署ESXi 70时,发现系统中多了一块120 GB的VMFS-L(VMFS Local)磁盘空间,是针对并发群集 *** 作进行了特定优化的VMFS文件系统。我们也测试了调整VMFS-L分区的两种主要方法,分别是通过ESXi 6x版本进行升级,以及通过手工设定分区大小来实现。
我们在vCenter中纳管了主机之后,集群状态为空,HA状态为不可用。
这就说明要使用集群功能,就要单独进行配置,那我们今天就来尝试配置一下vCenter的集群功能。
创建集群
点击数据中心“ *** 作”选项中的“新建集群”。
在基础配置页面,我们把vSphere DRS和vSphere HA这两个功能开启,暂时不开启vSAN功能。
下面的“使用单个映像管理集群中的所有主机”就不开了,这个功能主要用于对集群中的所有ESXi主机进行版本同步,和IRF一样,从而消除ESXi主机之间差异。我们的主机版本都是一致的,就不配置此功能了。
检查要创建的集群的详细信息,点击“完成”。
创建集群完成之后,我们就会自动跳转到集群配置的“快速入门”页面,在此页面,我们可以按照提示快速配置集群。
第一步是“集群基础知识”,主要用于修改集群的名称和3个服务的启用状态,和我们前面的创建 *** 作基本一致。
添加主机
第二步是“添加主机”,可以将新主机和现有主机添加到集群中。点击页面的“添加”按钮,进入添加主机页面。
我们添加一台新主机192168134,按照要求依次填写主机的IP地址、用户名和密码信息;如果要添加多台,点击下面的“添加主机”按钮即可。
然后我们再从现有的2台主机中选择192168136这台,也添加到集群中。然后点击“下一页”。
因为192168134是新添加的主机,如果出现证书的安全警示,直接“确定”即可。
查看要添加的主机的摘要信息。
最后有一个提示,在移至集群之前,主机将进入维护模式。对于已打开电源和已挂起的虚拟机,可能需要手工 *** 作关闭电源或迁移虚拟机。确认没有问题后,点击“完成”。
等待几分钟之后,可以看到2台ESXi主机的添加状态。
从数据中心视图中,可以看到两台主机已经被成功添加到集群中,并且处于“维护模式”。
配置集群
接下来进入第3步“配置集群”,点击页面中的“配置”按钮。
首先配置“Distributed Switch/分布式交换机”,需要配置ESXi主机的一台物理适配器连接到vMotion网络。
然后配置vMotion流量所使用的的IP地址和VLAN信息,可以使用默认配置,也可以按需调整。
在自定义集群设置的高级选项中,我只是把vSphere HA下面的“虚拟机监控”选项开启了,其他保持默认配置。
最后检查集群的所有配置信息,确认无误后点击“完成”。
从“近期任务”中我们大概可以看到集群的配置过程,包括网络配置(配置分布式交换机、添加分布式端口组、更新ESXi主机网络配置)、虚拟机配置(部署vCLS的OVF模板、配置vCLS虚拟机)和ESXi主机的集群选举等等。
最后我们可以看到主机配置成功的状态显示。
再次查看主机状态,现在已经看到主机属于新建的“集群1”。
但是状态这里有个警告,我们查看一下告警详情。
发现告警信息为“该主机的 vSphere HA 检测信号数据存储数目为 0,少于要求数目: 2”。产生的原因是vCenter配置vSphere HA时,DataStore HeartBeat(数据存储心跳检测)功能要求集群下的所有ESXi主机之间至少有两个共享数据存储才能正常运行数据存储检测信号。
解决方案一般有两种,第一种方案是关闭数据存储检测信号,但是这种方式治标不治本,我们就不介绍了。第二种方案就是真正去配置共享存储,这也是我们前面介绍NFS配置方法的原因(Windows Server2012 R2搭建NFS服务器、CentOS 7搭建NFS服务器)。
我们先添加一个,发现告警信息有变化。
说明问题原因和解决方案相匹配,然后我们意外发现Windows的共享好像不是很好使,新增之后竟然没有数量变化,我就只好又新建了一个Linux的NFS共享。再次配置连接Linux的NFS共享之后,告警就消失了。
不过过了一会,Windows的NFS共享也生效了,也不知道为什么,很尴尬。
最后再看一下集群的状态。
主机状态正常,HA状态正常,完美!
在小型VMware环境当中,错误配置共享存储的情况并不少见。花费一些时间来纠正这些错误可以在ESXi主机超过负载或者宕机时避免很多问题。
一个成功的vSphere部署需要包含三个基本部分:多个相同的ESXi服务器、共享存储和vCenter。任何具有多个ESXi服务器的数据中心都应该使用共享存储,并且对于所有服务器集群都保证一直可用。
对于一些vSphere核心技术来说,比如v
Motion、分布式资源调度(DRS)和高可用性(HA),共享存储是一个前提条件。vMotion可以在不产生宕机时间的情况下,将一个运行中的虚拟机从一台ESXi主机迁移到另一台上。DRS利用vMotion技术将虚拟机移动到其他的ESXi主机上,以避免产生CPU和内存不足的情况。如果一台ESXi服务器发生故障,vSphere HA会在集群中的其他ESXi主机上重启正在运行的虚拟机。DRS和HA只能用于存放在共享存储上的虚拟机;不论是HA还是DRS迁移,虚拟机在存储上的位置都不会发生改变。
为了最大限度地发挥HA和DRS的作用,虚拟机使用的所有存储都必须对集群中的每一台ESXi服务器保证可用。连续的共享存储使用的配置取决于存储网络类型:光纤通道(FC)、iSCSI还是网络文件系统(NFS)。对于FC和iSCSI存储,需要确保存储阵列对于每个ESXi主机都使用相同的逻辑单元号(LUN)。一些阵列通过使用分组可以轻松实现这个需求,但是其他阵列就需要你为每个主机都单独进行配置。
对于FC,你需要将FC交换机配置在一致的分区当中,以使得所有的主机都能够找到阵列。如果使用的是iSCSI,那么ESXi主机需要使用同样的发现设定、同样的动态发现IP地址列表。
如果使用的是NFS,那么大部分的设定都可以在ESXi服务器上完成。确保在每个ESXi主机上都使用相同的NFS服务器主机名和共享路径。如果一个ESXi主机使用NFS服务器的IP地址,另外一个使用主机名,而第三台ESXi主机使用全限定名,那么vCenter将认为它们使用的是不同的数据存储。NFS服务器主机名和共享路径在所有的主机上都必须是相同的,这样vCenter才能将它们识别为同一个数据存储。可以使用vSphere Command Line或者PowerCLI脚本对ESXi主机的NFS和iSCSI进行自动配置,这样可以更为轻易地确保使用同样的命令来部署每个主机。
在vSphere Client中的Maps标签页下,可以轻松地查看集群的一致性存储。在vSphere Client的主机和集群视图中,选择集群——而不是ESXi主机——点击Maps标签,之后关闭所有从主机到数据存储的依赖关系联线,点击应用关系。现在,就可以看到主机和数据存储的网状连接图了。
如果每一个数据存储都连接到每一台主机上,那么一切都不会有问题。那些只连接到一部分主机的数据存储会引发问题。如果只有一部分主机能够找到数据存储,那么只有这些主机可以使用数据存储来运行虚拟机。没有连接到这些数据存储的主机可能进行了错误的配置。一些数据存储只连接到一台ESXi主机;这通常是ESXi主机内部的本地磁盘,不能进行共享。注意不要将虚拟机放置在本地数据存储上,除非虚拟机只是在ESXi主机上使用,比如vShield代理虚拟机。
开启虚拟机到数据存储的关系会使得网络关系图更加复杂,但是可以显示出哪些虚拟机位于共享存储上,哪些在使用非共享数据存储。如果你的一些虚拟机位于非共享存储上,想一想是否能够通过存储vMotion将这些虚拟机迁移到一个另外的数据存储当中;需要确保目的存储上有足够的空余空间。从VM菜单中选择Change Datastore,选择目标数据存储进行迁移,之后等待。
VMware ESXi 和 VMware Server 有区别:
VMware ESXi 是一个企业级虚拟机管理程序,提供接近本机性能的祼机体系结构、各种旨在提高整合率的功能(例如取消内存复制),以及用于在共享存储上管理虚拟机文件的群集文件系统。VMware ESXi 和 VMware ESX 为灵活的动态虚拟基础架构提供了关键基础。
VMware Server 作为应用程序安装在 Windows 和 Linux 上,依赖 *** 作系统来管理资源。这对性能和可扩展性造成了限制。VMware Server 常用于测试和开发活动。使用 VMware Server 创建的虚拟机可以在 VMware ESXi 上运行,但是必须事先通过免费的 VMware Converter 进行转换。
1、VMware vSphere和ESXi。就像每一朵云周边都有一圈银光,每一个私有云都有一个hypervisor。在VMware的例子中,hypervisor平台就是vSphere,它运行在ESXi *** 作系统的顶部。ESXi和vSphere为几乎运行在所有企业上的 *** 作系统提供IT工作负载的虚拟化基础。除了虚拟化,vSphere为管理存储和虚拟网络资源提供所有需要的功能。
2、VMware vCenter Server。尽管很少有企业这样做,因为完全可能在没有vCenter Server的情况下运行ESXi hypervisor *** 作系统。VMware vCenter Server以为ESXi服务器管理保护伞的形式存在;因此可以说它在vSphere中放置“sphere”。
最重要的是,其固有的管理性能促使多重ESXi服务器集群,从而进行灾难恢复和负载均衡。这两个功能构成了转化简单的虚拟化为私有云的一大部分。当你开启VMware HA和DRS,万一发生失败,VM(虚拟机)可以故障恢复,让主机继续运作;也能够跨主机进行负载均衡,确保资源最佳消耗。
你可以将VMware集群看作是来自于私有云资源的原始池,分发给用户和相关的虚拟机。在很多方面,如果你有一个ESXi托管的VMware集群,这个集群开启HA和DRS,你就已经开始了私有云。
3、VMware vShield。私有云资源中心的整个概念。整个云有多少资源?有多少资源被消耗?未来这个云会消耗多少资源?这个“云量”也正是让私有云变得混乱和充满力量的地方所在。
一些IT活跃人士反对私有云与生俱来的“不插手”的心态。安全人士就是其中的一部分。安全是关于所有的保护、控制盒审计配置和行为,如果你所使用的安全工具不是针对于私有云环境,所有的这些就会变成一种挑战。
这也正是像VMware vShield这样的安全工具可以帮助私有云的地方所在。vShield在保护伞之下有三个必要的产品,每一个都旨在解决具体的私有云安全。
vShield App和使用了数据安全的vShield App交付了防火墙级别的hypervisor;vShield Edge扮演者虚拟环境网关的角色;vShield Endpoint在完全知道每一个虚拟机在云中的位置的情况下,交付虚拟机内部端点安全。
4、VMware vCloud Director。并不是每一个私有云都是完全同质的。企业通常由多种IT群组构成,很多都位于不同的地理位置中。不同的预算以及各种业务目标都可以影响IT整合。结果,单一的统一私有云并不能为每一个公司作出贡献。
此外,公共云在各种各样的位置中存在,托管工作负载,在数据中心中运作并无意义。有很多托管在公共云中的vSphere环境,可以同企业中使用vCloud Director的私有云连接。
在这些场景中,企业应该关注VMware vCloud Director。将vCloud Director看作是“元(meta)”私有云。它提供了公共云提供商和每一个企业自有和管理的私有云之间的桥梁。使用vCloud Director,企业可以连接不同的云环境,给IT部门有效提供分布式资源的灵活性。
5、VMware vCenter Chargeback。成本一直是IT活动背后的驱动力。但是根据圆角分量定我们的活动是众所周知的艰难任务。私有云模式的资源均化可以简化这些。而不是通过服务器考虑服务,私有云允许IT团队通过资源思考服务。
VMware vCenter Chargeback可以构建和填充这些成本模型。这个云管理工具有效的改善了私有云中的成本模型活动,尽管有些公司因为此款产品高过高的成本而不敢问津,但依然不损vCenter Chargeback成为行业成功的很私有云构建工具。esxi 60 怎么添加存储
将虚拟机目录上传到ESX服务器存储中
vsphere client选择服务器,右侧“配置”——“存储器”——选择存储设备——“浏览数据存储”
找到要添加的虚拟机vmx文件,右键——“添加到清单”,over
在小型VMware环境当中,错误配置共享存储的情况并不少见。花费一些时间来纠正这些错误可以在ESXi主机超过负载或者宕机时避免很多问题。
一个成功的vSphere部署需要包含三个基本部分:多个相同的ESXi服务器、共享存储和vCenter。任何具有多个ESXi服务器的数据中心都应该使用共享存储,并且对于所有服务器集群都保证一直可用。
对于一些vSphere核心技术来说,比如v
Motion、分布式资源调度(DRS)和高可用性(HA),共享存储是一个前提条件。vMotion可以在不产生宕机时间的情况下,将一个运行中的虚拟机从一台ESXi主机迁移到另一台上。DRS利用vMotion技术将虚拟机移动到其他的ESXi主机上,以避免产生CPU和内存不足的情况。如果一台ESXi服务器发生故障,vSphere HA会在集群中的其他ESXi主机上重启正在运行的虚拟机。DRS和HA只能用于存放在共享存储上的虚拟机;不论是HA还是DRS迁移,虚拟机在存储上的位置都不会发生改变。
VMware ESXi 和 VMware Server 有区别:
VMware ESXi 是一个企业级虚拟机管理程序,提供接近本机性能的祼机体系结构、各种旨在提高整合率的功能(例如取消内存复制),以及用于在共享存储上管理虚拟机文件的群集文件系统。VMware ESXi 和 VMware ESX 为灵活的动态虚拟基础架构提供了关键基础。
VMware Server 作为应用程序安装在 Windows 和 Linux 上,依赖 *** 作系统来管理资源。这对性能和可扩展性造成了限制。VMware Server 常用于测试和开发活动。使用 VMware Server 创建的虚拟机可以在 VMware ESXi 上运行,但是必须事先通过免费的 VMware Converter 进行转换。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)