DRS是什么?

DRS是什么?,第1张

DRS
VMware Infrastructure 3 DRS (Distributed Resource Scheduler)
Vmware 分布式资源调度程序(DRS)跨聚合到逻辑资源池中的硬件资源集合来动态地分配和平衡计算容量。Vmware DRS跨资源池不间断地监控利用率,并根据反映了业务需要和不断变化的优先事务的预定义的规则,在多个虚拟机之间智能地分配可用资源。当虚拟机遇到负载增大时,Vmware DRS将通过在资源池中的物理服务器之间重新分布虚拟机来自动为其分配更多资源。
Vmware DRS使IT部门能够:
☆ 使资源优先于最重要的应用程序,以便让资源与业务目标相协调。
☆ 自动、不间断地优化硬件利用率,以响应不断变化的情况。
☆ 为业务部门提供专用的(虚拟)基础结构,同时让IT部门能够集中、全面地控制硬件。
☆ 执行零停机服务器维护。
Vmware DRS跨聚合到逻辑资源池中的硬件资源集合动态地分配和平衡计算容量。Vmware DRS跨资源池不间断地监控利用率,并在多个虚拟机之间智能地分配可用资源。Vmware DRS允许用户确定以下方面的规则和策略:决定虚拟机共享资源的方式与在多个虚拟机之间排定这些资源的优先级的方式。当虚拟机遇到负载增大时,Vmware DRS将首先根据既定的资源分配规则和策略评估其优先级,如果合理,则分配更多资源。资源是通过以下两种方式分配给虚拟机的:将虚拟机迁移到具有更多可用资源的另一台服务器上;或者通过将其他虚拟机迁移到别的服务器上而在此服务器上为该虚拟机营造更大的“空间”。通过Vmware VMtion将虚拟机实时迁移到不同的物理服务器是以对最终用户完全透明的方式完成的。
Vmware DRS可以配置为以自动或手动模式 *** 作。在自动模式下,DRS将确定以尽可能最好的方式在不同的物理服务器之间分配虚拟机,并自动将虚拟机迁移到最合适的物理服务器上。在手动模式下,Vmware DRS将提供一个把虚拟机放到最佳位置的建议,将它提供给系统管理员,由其决定是否进行更改。资源池灵活的分层结构使管理员能够将可用的IT资源与业务部门的需求相协调起来。各业务部门可以收到专用的IT资源,同时仍然能够受益于资源池的高效性。通过强健的访问特权管理,能够将一个业务部门资源池的例行基础结构任务委派给一名业务部门系统管理员。
☆ 使IT资源与业务优先事务相匹配。
确定规则和策略以决定应如何在虚拟机之间排定资源的优先级 Vmware DRS动态、智能地将IT资源分配给优先级最高的虚拟机,以确保业务与IT之间最好的协调性。
☆ 保证IT自主性和向业务部门提供的服务级别。
为业务部门提供专用的IT基础结构,同时仍能够通过资源池受益于更高的硬件利用率。
☆ 大大提高了系统管理员的生产效率。
使单个系统管理员能够监控并有效地管理大型基础结构资源池。
☆ 自动化硬件维护。
当将一个物理服务器置于维护模式下时,Vmware DRS将自动把所有虚拟机迁移到其他物理服务器上,从而实现零停机的服务器维护。
☆ 方便地添加和部署新容量。
当向资源池中添加新的物理服务器时,Vmware DRS将在服务器之间重新分配虚拟机后自动利用添加的容量。
☆ 使用Vmware DRS的资源池。将全异的硬件聚合到统一的逻辑资源池中使用Vmware DRS,资源池实现里自动、智能的优化,从而确保IT资源分配与业务优先事务相匹配,同时最大限度地提高了硬件利用率。
☆ 将资源从硬件中提取出来。无须使用提供资源的物理服务器管理资源。
☆ 灵活的分层结构。分层组织资源池,以使可用的IT资源与业务部门的需求对应起来。Vmware DRS确保实现最高的资源利用率,同时保持业务部门对其基础结构的控制权和自主权。可以根据业务需要或部门变动灵活地添加、删除或重组资源池。
☆ 在资源池之间进行隔离。在资源池中进行分配更改,而不影响其他不相关的资源池。例如,在专用于某一特定的业务部门的资源池中所做的任何分配更改将不会影响其他资源池。
☆ 访问控制和委派。在公司中不同的级别上加强资源分配管理,同时消除了瓶颈。可以将针对某个业务部门的虚拟机创建和维护任务委派给一名业务部门系统管理员,从而消除了每一项例行 *** 作都依赖中心IT部门的现象。
☆ 管理运行分布式应用程序的虚拟机组。对于运行分布式应用程序的整组虚拟机,控制了其聚合式资源分配后,便可优先分布式应用程序的服务级别。
手动和自动模式。Vmware DRS从服务器和虚拟机中收集资源利用率信息,然后生成优化虚拟机分配的建议。可以自动或手动执行这些建议。
☆ 初始放置。当一个虚拟机刚启动时,Vmware DRS会自动把该虚拟机放置到最合适的物理服务器上,或提出建议。
☆ 不间断地优化。Vmware DRS根据设定的资源分配规则以及资源利用率情况不间断地优化资源分配。可以通过使用VMtion执行虚拟机的实时迁移,以自动执行资源分配更改。另外,以手动模式 *** 作,Vmware DRS将为系统管理员提供执行建议。 服务器维护模式。在物理服务器上执行维护,而无需中断虚拟机和最终用户。当一台物理服务器置于维护模式时,Vmware DRS将确定虚拟机可以在其上运行的其他备选服务器。根据自动模式设置,虚拟机可以自动过渡到使用备选服务器,也可以由系统管理员以Vmware DRS建议为指导原则手动执行此过渡。
☆ 亲合性规则。创建用于管理为物理服务器分配虚拟机的规则。例如,出于性能原因,某些虚拟机可以始终运行在同一台服务器上。另外,指定的虚拟机可以一直运行在不同的服务器上以实现更高的可用性。
☆ Vmware DRS包括Vmware Infrastructure3 Enterprise中。
☆ DRS 还可以作为单独授予使用许可的产品随Vmware Infrastructure3 Standard和Vmware Infrastructure3 starter一起购买。
Vmware DRS需要ESX Server、virtuaiCenter Mangerment Server和VMtion。有关产品规格和系统要求的详细信息,请参考位于>上篇文章介绍了云计算之虚拟化技术,针对虚拟化技术的实现方式和技术细节进行了描述。从云计算的核心组件来讲,虚拟化又分为计算虚拟化、存储虚拟化和网络虚拟化。本文就计算虚拟化进行讲解。

计算虚拟化就是在虚拟系统和底层硬件之间抽象出CPU和内存等,以供虚拟机使用。计算虚拟化技术需要模拟出一套 *** 作系统的运行环境,在这个环境你可以安装Windows,也可以部署Linux,这些 *** 作系统被称作GuestOS。他们相互独立,互不影响(相对的,因为当主机资源不足会出现竞争等问题,导致运行缓慢等问题)。计算虚拟化可以将主机单个物理核虚拟出多个vCPU,这些vCPU本质上就是运行的线程,考虑到系统调度,所以并不是虚拟的核数越多越好。计算虚拟化把物理机上面内存进行逻辑划分出多个段,供不同的虚拟机使用,每个虚拟机看到的都是自己独立的内存。从这个意义上讲,计算虚拟化包含了CPU虚拟化和内存虚拟化。

CPU具有根模式和非根模式,每种模式下又有ring0和ring3。宿主机运行在根模式下,宿主机的内核处于ring0,而用户态程序处于ring3,GuestOS运行在非根模式。相似的,GuestOS的内核运行在ring0,用户态程序运行在ring3。处于非根模式的GuestOS,当外部中断或缺页异常,或者主动调用VMCALL指令调用VMM的服务的时候(与系统调用类似)的时候,硬件自动挂起Guest OS,CPU会从非根模式切换到根模式,整个过程称为VM exit,相反的,VMM通过显式调用VMLAUNCH或VMRESUME指令切换到VMX non-root operation模式,硬件自动加载Guest OS的上下文,于是Guest OS获得运行,这种转换称为VM entry。

对于CPU虚拟化,有CPU过载使用、指定vCPU亲和性等技术。

在虚拟化环境下,服务器上的虚拟机会以逻辑CPU的方式给虚拟机分配CPU。因此在一个物理服务器主机上分配给虚拟机的vCPU总数可能会超过逻辑CPU数目,这种使用方式称之为CPU的过载使用。严格来说,即使是打开超线程,并以线程为单位给虚拟机分配vCPU,vCPU的数量也可能会超过物理CPU数目,因此这也是一种过载使用。与 *** 作系统向应用程序分配CPU一样,给虚拟机分配vCPU是由调度器决定的,调度器遵循一定的规则,向VM分配vCPU。

在Linux环境下,每个进程或线程可以绑定到特定的一个或几个物理CPU上运行,这称之为CPU的亲和性。每个vCPU都是物理机上的一个线程,可以通过taskset工具设置其处理器的亲和性,使其绑定到某一个或者几个处理器上进行调度。尽管Linux内核的进程调度算法已经非常高效了,在多数情况下不需要对调度进行干预。不过在虚拟化环境中,有必要对其进行设置,绑定到固定的逻辑CPU上,使得其独占某些CPU资源而不受其他业务的干扰。

除了CPU虚拟化,另一个关键是内存虚拟化,通过内存虚拟化共享物理系统内存,动态分配给虚拟机。虚拟机的内存虚拟化很象现在的 *** 作系统支持的虚拟内存方式,应用程序看到邻近的内存地址空间,这个地址空间无需和下面的物理机器内存直接对应, *** 作系统保持着虚拟页到物理页的映射。现在所有的x86 CPU都包括了一个称为内存管理的模块MMU(Memory Management Unit)和TLB(Translation Lookaside Buffer),通过MMU和TLB来优化虚拟内存的性能。

为了使得虚拟机的内存看起来也是从一个零地址开始的一段连续地址空间,VMM引入了一层新的地址空间,即客户机物理地址空间,这个地址空间不是真正意义上的物理地址空间,它们之间还有一层转换。因此从虚拟机虚拟地址到真实物理地址需要两层转换:客户机虚拟地址(GVA)到客户机物理地址(GPA)的转换,客户机物理地址(GPA)到宿主机物理地址(HPA)的转换。在第一代虚拟化技术中,这两层转换是由软件通过影子页表来实现的,由于其效率较低,在第二代虚拟化技术中,Intel引入了EPT扩展页表通过硬件来实现转换,同样AMD也有类似的技术,称之为NPT嵌套页表。

对于内存虚拟化,有内存去重和内存气球等技术。

所谓内存去重,就是同一物理服务器上存在同一内存页的时候,共享这个页,以节省内存使用量。在同一物理服务器上运行多个相同OS虚拟机的情况下,OS的内核页面会有很多重复,所以该功能对于节省内存特别有效。在vSphere中,这个功能称之为透明页共享(TPS),在KVM中,这个功能称之为内核相同页合并(KSM)。

当在物理服务器上发出追加内存分配时,会从同一服务器上运行的其它VM中回收内存页,并将回收的内存页进行分配的机制,称之为回收,也叫内存气球。一旦要求追加内存,并且存在较多空闲内存的VM时,可以通过该VM的内存气球驱动,从该VM的闲置内存中回收内存。因为是从闲置的内存中回收,不会产生频繁的分页,因此在回收闲置内存时,不会对VM的性能有明显的性能影响。如果要回收的内存量很大,连非闲置的内存也要回收,就会对VM的性能有明显的影响。

另外,GPU虚拟化、Docker容器也属于计算虚拟化的范畴,后面的文章中也会讲到。请大家关注后续文章。

如何单纯从性能方面来做对比的话,还是物理服务器更强大一些,云服务器是从集群服务器上划分出来的,通常分配的带宽,内存,硬盘资源也比较小,再加上是虚拟的,性能本身就会有一定损耗,所以整体性能与物理服务器还是有差距的
云服务器最大的优势是便宜,比较适合中小规模的网站或者应用另外云服务器有数据自动同步备份的功能,在安全方面做的更完善,所以在选择的时候还是要综合考虑,最适合自己用的就是最好的

服务器是放在机房运行的真实存在的物理设备,有独立的硬盘、内存、CPU、 *** 作系统等。云主机是在一组集群服务器上虚拟出多个类似独立服务器的部分,集群中的每台机器都会有云主机的一个镜像备份。一、资源方面:云服务器(云主机)使用了云计算技术整合硬件和软件资源,运用了虚拟化技术,基于服务器集群。可d性扩展伸缩,用户按需购买。但服务器的资源一般是固定的,不容易升级或扩展,容易造成资源浪费,成本也比云主机高。二、运行方面:当云服务器中一台机器出现硬件故障,系统会自动访问其他机器上的镜像备份,提高了主机的稳定性。它拥有与服务器一样的功能与使用方法,有独立IP和带宽。用户可根据需要安装各种 *** 作系统以及配置各种网站运行环境。而传统服务器出现故障后,没有可自动跳转的功能实现,网站会出现打不开的情况,直到服务器的故障维修好了之后,才可以继续正常使用。无论是从性能还是稳定运行来对比,云服务器都远强于传统服务器。但云主机也有其不足之处,容易遭到网络攻击。
1、费用投入
传统服务器成本较高,所以主机租用或托管的价格较贵,每年至少千元以上。对于个人及中小团队来说,使用云服务器会更灵活实惠;大型企业长期使用,一般会选择自购服务器。
2、冗余及备份
传统的数据中心内,由于能够控制服务器的位置并且利用全部物理硬件,部署比较容易。服务器托管及租用需要用户自行进行本地备份及异地备份,冗余需要用户更大投入及更高技术水准。
云主机的冗余存储需要大量资本的基础投入。但冗余存储对用户而言并不是实时都需要。云主机自动备份及冗余,根据实际使用中的经验,仍然需要用户自行异地备份。
3、易用性及扩展
易用性方面,云主机更有优势。云主机基于虚拟化技术,方便用户升级,用户可直接在线自助升级,d性较大。传统服务器一般由IDC公司提供固定型号的产品选择,升级空间不大,迁移也相对麻烦。
4、性能及网络
在整体测试中,云主机与服务器同等配置下,云主机CPU性能不如独立服务器,但突发使用下,云主机d性较大,且可以按需分配。另外,服务器托管区域的网络一般比云主机区域较有优势。

准备阶段

我使用的是一台Reg Model E18s 物理服务器,以及一个金士顿32GU盘,Rufus工具以及iso文件也附上:

「rufus-316pexe」>

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/13202011.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-06-19
下一篇 2023-06-19

发表评论

登录后才能评论

评论列表(0条)

保存