所谓IT基础设施规划, 就是合理规划和安排各项信息化基础设施,使之形成良好的IT环境,让各种业务解决方案、应用系统和数据都能不受约束地在其上实现有效配合。这些基础设施包括网络、硬件设备和基础软件。网络规划包括数据流量及约束条件分析、网络选型、拓扑结构设计、网络安全方案、网络建设方案等;硬件设备规划包括服务器、路由器、交换机、集线器、台式机、笔记本、打印机、手持设备等的规划和配置等;基础软件规划包括 *** 作系统软件、数据库软件等软件的规划等等
企业的IT 架构就是指支持企业业务运营的一整套信息系统的架构,完整的IT架构应该包括:各业务应用系统,比如PDM、SCM、CRM等;各管理应用系统,比如OA、ERP、HR等;支持与运行上述各应用系统的中间件软件、数据库软件、 *** 作系统等;上述各软件系统运行的硬件设施,比如服务器、存储设备等;支持上述系统被正常访问的各种网络设备、机房环境设施等;保障上述软硬件系统安全运行的安全设施,包括各种软硬件级别的防火墙、防病毒、攻击工具,安保措施、供电保障等;保障上述所有设备与措施正常运转运营的一整套IT组织与IT管控体系。
企业架构是对真实世界企业的业务流程和IT设施的抽象描述,它是包括企业战略、组织、职能、业务流程、IT系统、数据、网络部署等的完整、一体化描述,企业架构反映了企业业务的状况,并体现了业务与IT的映射关系,能明确各类IT设施对业务的支撑关系。
企业架构领域原则上的关注点是企业范围内的业务需求的识别、规范、及优先级划分,企业架构如同战略规划,可以帮助企业执行业务战略规划及IT战略规划。在业务战略方面,定义企业愿景/使命、目标/目的/驱动力、组织架构、职能及角色;在IT战略方面,定义企业的业务架构、数据架构、应用架构、和技术架构。
按订单生产的时代已经结束,产业革命的时机业已成熟。 James M Kaplan、Markus Loffler和Roger P Roberts
实现分布式计算这一挑战性转变以来的十几年,基础设施小组在管理客户端-服务器和以网络为中心的架构方面发挥着越来越重要的作用。
为了应对市场变化,有些领先的企业开始采用一种全新的基础设施管理模式: 更倾向于提供现货,而不是按订单生产。有了这种模式,满足IT需求就像按邮购目录购物一样简单。成功转变的公司可获得巨额商业利润。不过,实施这种转变需要进行重大的组织变革。应用程序开发人员必须精于预测和控制需求,以便基础设施小组可以更加严密地管理产能。基础设施小组必须培养产品管理和定价的新技能,并引入网格计算和虚拟化之类的新技术。首席信息官则应当实施新治理模式来管理新基础设施架构。
成功案例
德国电信公司从实践中切实体会到这些挑战: 在过去18个月里,为了在IT供求之间取得平衡,公司在两个分部实施了这种新的基础设施管理模式。与大部分公司一样,德国电信公司过去的IT基础设施由多个应用程序孤岛组成。如今,由于准确预测用户需求至关重要,新设置的产品经理必须通盘考虑所有应用程序,以评估总的业务需求并生产正确的产品。此外,他们还必须与基础设施小组紧密合作,以便协调基础设施资产(例如硬件、软件和存储设备)的供求。
德国电信公司和其他公司的经验表明,创建下一代基础设施包括三方面的举措: 划分用户需求、在业务单位中开发产品化服务、创建共享工厂以简化IT的交付流程。
划分用户需求
大型IT组织往往为数以千计的应用程序、数以百计的物理站点和数以万计的最终用户提供支持。这三个组成部分都是决定基础设施需求的关键: 应用程序需要服务器和存储设备,站点需要网络连接,用户想要访问的台式机、笔记本电脑、个人数字助理(PDA)等等。为了实现这些部分的标准化,IT组织首先必须深入了解基础设施服务的当前需求状态,以及需求最有可能的发展趋势。然后,将需求划分为对商业用户有意义的类别,如正常运行时间、输入输出总和以及扩展性。
这样分组以后,大部分应用程序都可以归入相对较小的集群中。例如,制药企业会发现某业务单位的大部分现有及规划应用程序都属于五大类别之一。相反,典型的批发银行应用程序组合则可以分为更多类别,因为其需求范围更广。
尽管差别明显,但物理站点和用户的需求也可以采用类似方法分类。例如,一家营销服务公司在评估了自己的网络架构后将其站点划分为: 100个座席以上的办公室、25到100个座席的办公室以及少于25个座席的远程办公室。一家有线系统运营商则将其用户分为: 需要“指引支援”的高级主管、专业职员、呼叫中心话务员和现场技术员。
大多数公司都发现,在对需求进行分类时,确定应用程序、站点和用户对基础设施的具体需求是关键挑战。主要的问题包括需求的时间和频率、用户数量、可接受的停机时间,以及速度、扩展性和流动性的重要意义。
使产品标准化
在评估当前需求和未来需求之后,基础设施小组便可以为以上三个组成部分开发一套可重复使用的产品化服务: 应用程序的管理和存储产品、最终用户的访问产品(如台式机和笔记本电脑)以及各个站点的网络连接产品。对于上述三条产品线中的任何一条,基础设施小组都必须在服务组合和产品层面制定一系列决策。
在服务组合层面,应当以优化资源和成本最低化为出发点,对产品供应的范围、深度和广度做出决策。如有例外情况,必须提前详细说明。例如,基础设施小组可以决定拒绝提供产品去支持要求非常苛刻的应用程序,比如超低延迟处理。这些应用程序可能通过“手工”,“从头开始”建构更好。其他应用程序,如遗留的应用程序,如果运行良好且不易于接入到新的硬件,则不将其纳入新模式可能更好。基础设施小组还应该决定如何引入新技术,以及如何转移现有比较容易移动的应用程序。
在产品层面,基础设施小组必须确定每种产品的功能、服务水平和价格。以应用程序支持产品为例,必须为每种产品指定编程语言、可接受的停机时间以及基础设施的使用价格。该使用价格取决于基础设施小组决定如何对计算、存储、处理器和网络使用收取费用。基础设施小组必须考虑其定价模式是否应该为准确预测需求的用户提供折扣,或通过战略定价促使用户选用特定产品。
供应方: 创建共享式工厂
传统的按订单生产模式限制了基础设施部门优化服务交付的能力。交付包括三个组成部分: 部署、运行和支持应用程序与技术的运营流程、自动化这些运营流程的软件工具以及安置人员和资产的设施。
大多数企业的架构和技术都存在差异,因此不可能在各个系统中统一使用可重复的流程。这一问题阻碍了效率和自动化,限定了通过低成本站点远程执行的工作量,从而限制了成本进一步节约的范围。
但在下一代基础设施模式中,应用程序开发人员只会指定服务需求,而不会对选择什么基础技术或流程来满足需求进行干涉。例如,应用程序可能需要高速网络存储,但开发人员既不知道也不关心由哪个供应商提供该存储介质。这一概念并不新鲜,正如在家庭电话线上使用呼叫等待的消费者一样,他们并不知道本地电信公司最近的中心站使用的交换机是来自朗讯还是北电。
由于基础设施部门现在可以自行选择使用哪些软件技术、硬件和流程,他们可以重新考虑并重新设计效率最佳的交付模式。通过使用成文的标准化流程,基础设施部门可以着手研发一套综合软件工具来实现运营自动化。随后,通过利用其流程和自动化工具,基础设施部门可以开发集成站点策略,实现数据中心需求的最小化,以便更多的部门可以在低成本站点(甚至海外)执行远程 *** 作。
创建新的组织
首席信息官应当开展哪些变革来利用这些新的机遇?下一代基础设施对于基础设施组织的职能、责任和治理影响重大。
最重要的新职能属于产品经理和工厂设计师,前者负责确定产品和产品组合,后者则负责设计共享流程以部署、运营和支持这些产品和产品组合。
组织结构也必须变革。条块分割的专职部门中的管理人员通常关注具体的技术平台――大型计算机、中型计算、分布式服务器、存储以及语音和数据网络。这些专职部门应该给负责基础设施绩效和服务交付的多职能团队让路。
首席信息官还必须建立新颖的治理机制,以处理容量规划、新服务推出和投融资问题。尽管德国电信公司选择了保留现有的治理结构,但许多企业都创建了企业级基础设施委员会,以确保各业务单元的产品和服务水平保持一致。这种一致性对保持低成本和优化绩效至关重要。为确保新的基础设施高效运行并持续改善性能,IT***应当重点做好以下五个重要工作: 1 需求预测和容量规划;2 筹资与预算;3 产品组合管理;4 发布管理;5 供应及供应商管理。
作者简介:
James Kaplan 是麦肯锡全球IT咨询业务部副董事,专长IT基础设施咨询,在纽约工作。Markus Loffler 是麦肯锡全球IT咨询业务部副董事,专长IT基础设施和架构,在斯图加特工作。Roger Roberts 主管麦肯锡在北美的IT架构咨询业务,专长高科技和工业行业,在硅谷工作。
云时代,基金行业云化除了灵活、高效、低成本之外,还必须满足稳定、高性能、高安全性等要素。Nutanix 超融合基础架构和企业云 *** 作系统软件解决方案可以满足基金行业的“云化要求”。
基金行业可以在新的数据中心部署Nutanix 超融合基础架构和企业云 *** 作系统软件解决方案,并将数据库管理、自动化办公和容灾等主要业务系统迁移至Nutanix平台上。
这能有效提高企业新数据中心的效率和生产力,同时减少了企业管理开销和存储空间。通过减少用于基础设施“维护”上的时间,提高IT系统整体性能和灵活性,基金行业才能够将更多的资源投入到新的业务模式开发之中,以适应新的挑战。
另外,Nutanix内置的容灾保护功能,可以通过显著提升容灾的恢复时间目标 (RTO) 和恢复点目标 (RPO),有效降低基金容灾的技术复杂程度,使得基金企业能够更加迅速地应对所有系统中断或故障,快速恢复系统正常
一、主体不同
1、云计算架构:多数数据中心云计算架构的这层主要是用于以友好的方式展现用户所需的内容和服务体验,并会利用到下面中间件层提供的多种服务。
2、传统架构:指的就是说相应的系列性的抽象模式,可以为设计大型软件系统的各个方面提供相应的指导。
二、特点不同
1、云计算架构:云架构是划分为基础设施层、平台层和软件服务层三个层次的。
2、传统架构:在软件架构所描述的对象就是直接的进行系统抽象组件构成。连接系统的各个组件之间就是做到把组件之间所存在的通讯比较明确与相对细致的实施描述。
三、优势不同
1、云计算架构:通过互联网提供软件服务的软件应用模式。在这种模式下,用户不需要再花费大量投资用于硬件、软件和开发团队的建设,只需要支付一定的租赁费用。
2、传统架构:为软件系统提供了一个结构、行为和属性的高级抽象,由构件的描述、构件的相互作用、指导构件集成的模式以及这些模式的约束组成。
参考资料来源:百度百科-云计算架构
参考资料来源:百度百科-软件架构
人工智能拥有给人类社会带来巨大改变的潜力已成为共识。今年6月初,国家出台《互联网+人工智能三年行动方案》,提出九大工程,人工智能上升为国家战略。北京IT培训认为作为技术变革的中坚力量,百度正全力实施人工智能战略,加速技术在各行业落地,造福社会。
以汽车行业为例,王劲首提并诠释了“软件定义汽车(SDV)”的概念,他认为,未来汽车的价值将主要由以人工智能为核心的软件技术决定。而在人工智能发展过程中,优秀算法、海量数据和超强计算三位一体,这意味着百度实施人工智能战略,必将对数据中心的计算、存储、运营成本控制诸多能力提出巨大挑战。
据百度系统部高级总监刘超介绍,在过去十年间,百度的服务器集群规模增长了近50倍,在国内形成了华北、华东、华南三大集群,并初步形成全球布局的网络架构,在基础硬件、系统软件、高性能计算、制冷供电等方面,百度技术创新引领着数据中心行业的发展趋势。
如百度主导的整机柜项目“天蝎计划”,这个中国首个开源硬件项目已推出2个版本的技术规范和6项行业标准,整个行业累积部署超过30万个节点;在运营效率上,2015年百度自建数据中心的PUE达到122,位居国内第一,达到全球领先水准。
会上,刘超还发布了百度最新的自主研发成果——X-ManGPUBox,这是全球首个单机支持16块并支持最大扩展到64块GPU的服务器,将为机器学习提供强大计算能力。
刘超指出,应对海量数据存储和处理、支持千亿样本、万亿参数级别的超强计算能力、高效网络设施、数据中心布局XDN化将是未来百度数据中心的发力方向,以助力人工智能技术发展,满足各类应用需求,。
百度人工智能战略实施还需要“云+端”的支持,百度开放云总经理刘炀介绍了百度开放云以及云上的大数据与人工智能。刘炀表示,目前,在大数据和人工智能技术基础上,百度正在利用人工智能实现各种丰富应用。
百度开放云作为承载数十款用户量过亿产品和超百万企业客户的高性能计算平台,是百度将核心资源对外开放,致力于打造的智能云计算服务平台,对外提供满足各行业多层次需求的全系列云产品。以百度开放云为基石,社会各界可以充分利用百度的云计算、大数据、人工智能技术能力,实现价值共赢,获得商业成功。
其实超融合这一块,放在云计算IT基础设施里面,不算是完全合适。你说它是分布式存储,但是它同时又是硬件服务器与存储;你说它算硬件,但是它又离不开分布式存储软件。
传统的IT基础设施架构,主要分为网络、计算、存储三层架构。但随着云计算与分布式存储技术的发展以及x86服务器的标准化,逐渐出现了一种将计算、存储节点融合在一起的架构--超融合架构。超融合将三层的IT基础设施架构缩小变成了两层。
2019年11月的Gartner超融合产品魔力象限中,领导者象限有5家:Nutanix、DELL、VMware、CISCO、HPE。(其中DELL vxRail一体机里面用的分布式存储软件也是VMware的VSAN,而VMware提供的则是VSAN纯软件的解决方案)
Nutanix能够成为超融合领导者中的领导者,自然是经过市场的充分验证,得到市场的认可。而且由于其公开资料(Nutanix 圣经)比较齐备,因此我们可以通过Nutanix一窥超融合的究竟。
这边就不搬运了,可以直接搜索引擎搜索“Nutanix圣经”或“Nutanix-Bible”,可以找到相应的官方文档。
引用自NUTANIX圣经 -“Nutanix解决方案是一个融合了存储和计算资源于一体的解决方案。该方案是一个软硬件一体化平台,在2U空间中提供2或4个节点。
每个节点运行着hypervisor(支持ESXi, KVM, Hyper-V)和Nutanix控制器虚机(CVM)。Nutanix CVM中运行着Nutanix核心软件,服务于所有虚机和虚机对应的I/O *** 作。
得益于Intel VT-d(VM直接通路)技术,对于运行着VMware vSphere的Nutanix单元,SCSI控制(管理SSD和HDD设备)被直接传递到CVM。”
个人总结: 从以上官方文档可知,2U的空间可以安装2~4个Nutanix节点(每个节点相当于1台物理服务器),所以设备装机密度非常高。每个节点都安装着虚拟化软件,并且在虚拟化层之上再运行着一台Nutanix的控制虚机(CVM),该虚机主要负责不同的Nutanix节点之间控制平面的通信。单个节点中配置有SSD硬盘与HDD硬盘,替代磁盘阵列作为存储使用,单个节点有独立的CPU与内存,作为计算节点使用。
1、基础架构
以3个Nutanix节点为例,每个节点安装有Hypervisor,在Hypervisor之上运行着客户虚拟机,并且每个节点有一台Nutanix控制器虚机Controller VM,配置有2块SSD与4块HDD,通过SCSI Controller作读写。
2、数据保护
Nuntanix与传统磁盘阵列通过Raid、LVM等方式作数据保护不同,而是与一般的分布式存储一样,通过为数据建立副本,拷贝到其他Nutanix节点存放,来对数据进行保护,Nutanix将副本的数量称作RF(一般RF为2~3)。
当客户虚机写入数据“见图上1a)流程”,数据先写入到本地Nutanix节点的SSD硬盘中划分出来的OpLog逻辑区域(相当于Cache的作用),然后执行“1b)”流程,本地节点的CVM将数据从本地的SSD的OpLog拷贝到其他节点的SSD的OpLog,拷贝份数视RF而定。当其他节点CVM确定数据写入完成,会执行“1c”流程,给出应答写入完成。通过数据副本实现对数据的保护。
数据从SSD中的OpLog写入到SSD以及HDD的Extent Store区域,是按照一定的规则异步进行的,具体详见下面的部分。
3、存储分层
Nutanix数据写入以本地落盘为主要写入原则(核心原则)。
当客户虚机写入数据是,优先考虑写入本地SSD(如果SSD已用容量未达到阀值),如果本地SSD满了,会将本地SSD的最冷的数据,迁移到集群中其他节点的SSD,腾出本地SSD的空间,写入数据。本地落盘的原则,是为了尽量提高虚机访问存储数据的速度,使本地虚机不需要跨节点访问存储数据。(这点应该是与VSAN与其他分布式文件系统最大原理性区别)
当整个集群的SSD已用容量达到阀值(一般是75%),才会将每个节点的SSD数据迁移到该节点的HDD硬盘中。
SSD迁移数据到HDD,并非将所有数据全部迁移到HDD,而是对数据进行访问度冷热的排序,并且将访问较少的冷数据优先迁移到HDD硬盘中。
如SSD容量达到95%的利用率,则迁移20%的冷数据到HDD;如SSD容量达到80%,则默认迁移15%的冷数据到HDD。
4、数据读取与迁移
Nutanix圣经引用-“ <u style="text-decoration: none; border-bottom: 1px dashed grey;">I/O和数据的本地化(data locality),是Nutanix超融合平台强劲性能的关键所在。所有的读、写I/O请求都藉由VM的所在节点的本地CVM所响应处理。所以基本上不会出现虚机在一个节点,而需要访问的存储数据在另外一个物理节点的情况,VM的数据都将由本地的CVM及其所管理的本地磁盘提供服务。</u>
<u style="text-decoration: none; border-bottom: 1px dashed grey;">当VM由一个节点迁移至另一个节点时(或者发生HA切换),此VM的数据又将由现在所在节点中的本地CVM提供服务。当读取旧的数据(存储在之前节点的CVM中)时,I/O请求将通过本地CVM转发至远端CVM。所有的写I/O都将在本地CVM中完成。DFS检测到I/O请求落在其他节点时,将在后台自动将数据移动到本地节点中,从而让所有的读I/O由本地提供服务。数据仅在被读取到才进行搬迁,进而避免过大的网络压力。</u> ”
个人总结: 即一般虚机读写数据都是读本地节点的硬盘,如果本地节点硬盘没有该数据,会从其他节点先拷贝过来本地节点硬盘,再为本地虚机提供访问,而不是虚机直接访问其他节点。即要贯彻本地落盘的核心思想。
5、Nutanix解决方案的优缺点
Nutanix方案优点:
1) 本地落盘策略,确保虚机访问存储速度:虚机写入的数据都在本物理节点的磁盘上,避免跨节点存储访问,确保访问速度,减轻网络压力。
2) 采用SSD磁盘作为数据缓存,大幅提升IO性能:
见上表数据,从随机的读写来看,SSD的IO及带宽性能比SATA的性能提升了约1000倍。而结合Nutanix的本地落盘策略,虚机数据写入,仅有本地的2块SSD硬盘作为数据缓存负责写入数据。
但由于单块SSD硬盘的IO比传统阵列的SATA高出1000倍,IO性能大幅提升。(相当于要超过2000块SATA硬盘做Raid,才能提供近似的IO性能)。
3)永远优先写入SSD,确保高IO性能
数据写入HDD不参与,即使本地SSD容量满了会将冷数据迁移到集群其他节点SSD,然后还是SSD进行读写,确保高IO。后续异步将SSD冷数据迁移到HDD。
4)数据冷热分层存储
冷数据存放在HDD,热数据保留在SSD,确保热点数据高IO读取。
5)设备密度高,节省机房机架空间
2U可以配置4个节点,包含了存储与计算,比以往机架式/刀片服务器与磁盘阵列的解决方案节省了大量的空间。
Nutanix方案缺点:
1)本地落盘及SSD缓存方案确保了高IO,但是硬盘的带宽得不到保证。
传统磁盘阵列,多块SATA/SAS硬盘加入Raid组,数据写入的时候,将文件拆分为多个block,分布到各个硬盘中,同个Raid组的硬盘同时参与该文件的block的读写。通过多块硬盘的并行读写,从而提升IO与带宽性能。
而Nutanix的解决方案中,单个文件的读写遵循本地落盘的策略,因此不再对文件拆分到多块硬盘进行并行读写,而只有本地节点的SSD硬盘会对该文件进行写入。
虽然SSD硬盘的IO与带宽都是SATA/SAS的数百上千倍,但是SSD对比SATA/SAS硬盘在带宽上面只有2~3倍的速率提升,而传统Raid的方式,多块硬盘并行读写,虽然IO比不上SSD,但是带宽则比单块/两块SSD带宽高出很多。
因此Nutanix的解决方案适合用于高IO需求的业务类型,但是因为它的读写原理,则决定了它不合适低IO、高带宽的业务类型。
三)行业竞争对手对比:
VMWARE EVO RAIL软件包:VMware没有涉足硬件产品,但EVO: RAIL 软件捆绑包可供合格的 EVO: RAIL 合作伙伴使用。合作伙伴转而将硬件与集成的 EVO: RAIL 软件一起出售,并向客户提供所有硬件和软件支持。
而EVO:RAIL的核心,其实就是VSphere虚拟化软件+VSAN软件的打包。
但VSAN与Nutanix最大的一个区别,就是不必须完全遵循Nutanix的本地落盘的策略。可以通过设置条带系数,将本地虚机的数据读写设置为横跨多个节点的硬盘,默认条带系数为1,最大可设置为12个,即一个虚机的数据写入,可以同时采用12个节点的SSD硬盘并行读写。
通过这种方式,VSAN可以一定程度的弥补了Nutanix方案不适用于带宽要求高,IO要求低的业务类型的缺点。
但是这种横跨物理节点的访问流量,在虚机数量众多的情况下,肯定会给网络带来压力,网络带宽可能会成为另一个瓶颈。
其次VSAN可以集成在Hypervisor层,而不需要像Nutanix在Hypervisor上面运行一个控制虚机CVM。
再次,Nutanix支持KVM、Hyper-V、ESXI等多种Hypervisor,而VSAN仅支持自家的ESXI。
其他待补充:由于暂时未对VSAN进行实际部署测试,仅停留在对其原理的研究,因此,关于VSAN的部分待后续平台上线测试完成后继续补充。
以上就是关于集思广益,IT基础设施什么最重要全部的内容,包括:集思广益,IT基础设施什么最重要、it 的相关结构、【管理下一代IT基础设施】IT基础设施等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)