云计算服务器虚拟化的核心技术有哪些

云计算服务器虚拟化的核心技术有哪些,第1张

云计算服务器虚拟化的核心技术,CPU虚拟化:CPU虚拟化把物理CPU抽象成虚拟CPU,任意时刻一个物理CPU只能运行一个虚拟CPU的指令。
内存虚拟化:内存虚拟化技术把物理机的真实物理内存统一管理,包装成多个虚拟的物理内存分别供若干个虚拟机使用,蚂牢使得每个虚拟机拥有各自独立的内存空间。
设备与I/O虚拟化:设备与I/O虚拟化技术对物理机的真实设备进行统一管理,包装成多个虚拟设备给若干个虚拟机使用,响应每个虚拟机的设备访问请求歌轿攀和I/O请求。
网络虚拟化:网络虚拟化是将多个硬件或软件网络资源及相关的网络功能集成到一个可用软件中统一管控的过程,并且对于网络应用而言,该网络环境的实现方式是透明的。
实时迁移技术:实时迁移技术是在虚拟机运行过程中,将整个虚拟机的运行状态完整快速地从原来所在的宿主机硬件平台迁移到新的宿主机硬件平台上,并且整个迁移过程是平滑的,用户几乎不会察爷蚊觉到任何差异。
感兴趣的话点击此处,免费了解一下

亿万克作为中国战略性新兴产业领军品牌,拥有中国第一、世界前二的行业领先技术,致力于新型数据中心建设,构筑云端安全数字底座,为客户提供集产品研发、生产、部署、运维于一体的服务器及IT系统解决方案业务,所有产品和技术完全拥有自主知识产权,应用领域涵盖云计算、数据中心、边缘计算、人工智能、金融、电信、教育、能源等,为客户提供全方位安全自主可控技术服务保障。

云服务器ECS(ElasticComputeService)是阿里云提供的性能卓越、稳定可靠、d性扩展的IaaS(InfrastructureasaService)级别云计算服务。
云服务器ECS免去了您采购IT硬件的前期准备,让您像使用水、电、天然气等公共资源一样便捷、高效地使用服务器,实现计算资源的即开即用和d性伸缩。
阿里云ECS持续提供创新型服务器,解决多种业务需求,助力您的业务发展。
云服务器(ECS)是一种基础云计算服务。它能帮助您快速的构建更稳定、安全的应用,提高运维效率,降低IT成本,使您更专注于核心业务创新。

虚拟化技术有哪些
1、CPU虚拟化
虚拟化在计算机方面通常是指计算元件在虚拟的基础上而不是真实的基础上运行。虚拟化技术可以扩大硬件的容量,简化软件的重新配置过程。简单说来,CPU的虚拟化技术就是单CPU模拟多CPU并行,允许一个平台同时运行多个 *** 作系统,并且应用程序都可以在相互独立的空间内运行而互不影响,从而显著提高计算机的工作效率。
2、网络虚拟化
网络虚拟化是目前业界关于虚拟化细分领域界定最不明确,存在争议较多的一个概念。微软眼中的“网络虚拟化”,是指虚拟专用网络()。对网络连接的概念进行了抽象,允许远程用户访问组织的内部网络,就像物理上连接到该网络一样。网络虚拟化可以帮助保护IT环境,防止来自Internet的威胁,同时使用户能够快速安全的访问应用程序和数据。
3、服务器虚拟化
与网络虚拟化不同,服务器虚拟化却是虚拟化技术最早细分出来的子领域。根据2006年2月ForresterResearch的调查,全球范围的企业对服务器虚拟化的认知率达到了75%。三分之一的企业已经在使用或者准备部署服务器虚拟化。这个产生于20世纪60年代的技术日益显示出其重要价值。由于服务器虚拟化发展时间长,应用广泛,所以很多时候人们几乎把服务器虚拟化等同于虚拟化。
4、存储虚拟化
随着信息业务的不断运行和发展,存储系统网络平台已经成为一个核心平台,大量高价值数据积淀下来,围绕这些数据的应用对平台的要求也越来越高,不光是在存储容量上,还包括数据访问性能、数据传输性能、数据管理能力、存储扩展能力等等多个方面。可以说,存储网络平台的综合性能的优劣,将直接影响到整个系统的正常运行。因为这个原因,虚拟化技术又一子领域——虚拟存储技术,应运而生。
5、应用虚拟化
前面几种虚拟化技术,主要还专注于对硬件平台资源的虚拟优化分配,随着IT应用的日益广泛,应用虚拟化作为虚拟化家族的明日之星登上了历史舞台。2006年7月由Forrester咨询公司在美国对各种不同行业的高层IT管理人员所做的一项研究显示,当今的机构现在将应用虚拟化当作是业务上的一个必由之路,而不是一个IT决策。据统计,全世界目前至少有超过18万个机构在利用应用虚拟化技术进行集中IT管理、加强安全性和减少总体成本。

服务器虚拟化技术
服务器虚拟化技术是指通过运用虚拟化的技术充分发挥服务器的硬件性能,能够在确保企业投入成本的同时,提高运营效率,节约能源降低经济成本和空间浪费,对于发展迅速,成长规模大的用户来说,可以通过服务器虚拟化技术带来更多的经济效益。
中文名
服务器虚拟化技术
外文名
Server virtualization technology
方法运用
虚拟化的技术
功能
充分发挥服务器的硬件性能
目的
带来更多的经济效益
快速
导航
好处
基本概念
如果你曾经将硬盘划分为不同分区,那么可能会对虚拟化的概念有所理解。分区是硬盘驱动器的逻辑划分,实际上相当于创建了两个独立的逻辑硬盘。本质上有两种主要的方法构建Hyper-visor解决方案:微内核和宏内核。微内核方法使用非常薄的一层专用代码作为Hyper-visor,只执行确保分区隔离和内存管理的核心任务。这一层并不包括I/O软件栈或设备驱动。这是Hyper-V所用的方法。在这种架构下,虚拟化软件栈和特定于硬件的驱动程序位于一个专用的分区中,称之为父分区。

服务器可以做游戏平台或者网络交易平台。


服务器使用风险

1、虚拟化项目最初并未涉及信息安全。

有一项权威的研究发现,在最初创建以及策划时,少于一半的科研项目是不符合安全规定的。有时团体工作时会刻意地把安全问题忘记,可是虚拟化过程中带来的问题是不容忽视的,多个虚拟化服务器工作时带来的弊端比未被虚拟化时带来的问题更为严重。所以研究这些问题时也更为繁琐。

2、底层虚拟化平台的隐患影响所有托管虚拟机。

将服务器虚拟化就像在电脑上运行程序一样,都需要借助一个平台。而该平台或多或少会有一些bug而被人们疏忽。最近一些大型虚拟化厂商多次传出虚拟化生产线存在安全隐患,这些隐患尚未得到解决。

所以一些人想要攻击时都会选择进攻底层虚拟化平台,通过控制住中枢系统,逃脱安全检测。进而将病毒带入各个服务器中,攻击其弊端,获得了阅览所有信息的权限,导致信息的泄露。

近年来,云原生 (Cloud Native)可谓是 IT 界最火的概念之一,众多互联网巨头都已经开始积极拥抱云原生。而说到云原生,我们就不得不了解本文的主角 —— 容器(container)。容器技术可谓是撑起了云原生生态的半壁江山。容器作为一种先进的虚拟化技术,已然成为了云原生时代软件开发和运维的标准基础设施,在了解它之前,我们不妨从虚拟化技术说起。

何谓虚拟化技术

1961 年 —— IBM709 机实现了分时系统

计算机历史上首个虚拟化技术实现于 1961 年,IBM709 计算机首次将 CPU 占用切分为多个极短 (1/100sec) 时间片,每一个时间片都用来执行着不同的任务。通过对这些时间片的轮询,这样就可以将一个 CPU 虚拟化或者伪装成为多个 CPU,并且让每一颗虚拟 CPU 看起来都是在同时运行的。这就是虚拟机的雏形。

容器的功能其实和虚拟机类似,无论容器还是虚拟机,其实都是在计算机不同的层面进行虚拟化,即使用逻辑来表示资源,从而摆脱物理限制的约束,提高物理资源的利用率。虚拟化技术是一个抽象又内涵丰富的概念,在不同的领域或层面有着不同的含义。

这里我们首先来粗略地讲讲计算机的层级结构。计算机系统对于大部分软件开发者来说可以分为以下层级结构:

应用程序层
函数库层
*** 作系统层
硬件层

各层级自底向上,每一层都向上提供了接口,同时每一层也只需要知道下一层的接口即可调用底层功能来实现上层 *** 作(不需要知道底层的具体运作机制)。

但由于早期计算机厂商生产出来的硬件遵循各自的标准和规范,使得 *** 作系统在不同计算机硬件之间的兼容性很差;同理,不同的软件在不同的 *** 作系统下的兼容性也很差。于是,就有开发者人为地在层与层之间创造了抽象层:

应用层
函数库层
API抽象层
*** 作系统层
硬件抽象层
硬件层

就我们探讨的层面来说,所谓虚拟化就是在上下两层之间,人为地创造出一个新的抽象层,使得上层软件可以直接运行在新的虚拟环境上。简单来说,虚拟化就是通过模访下层原有的功能模块创造接口,来“欺骗”上层,从而达到跨平台开发的目的。

综合上述理念,我们就可以重新认识如今几大广为人知的虚拟化技术:

虚拟机:存在于硬件层和 *** 作系统层间的虚拟化技术。

虚拟机通过“伪造”一个硬件抽象接口,将一个 *** 作系统以及 *** 作系统层以上的层嫁接到硬件上,实现和真实物理机几乎一样的功能。比如我们在一台 Windows 系统的电脑上使用 Android 虚拟机,就能够用这台电脑打开 Android 系统上的应用。

容器:存在于 *** 作系统层和函数库层之间的虚拟化技术。

容器通过“伪造” *** 作系统的接口,将函数库层以上的功能置于 *** 作系统上。以 Docker 为例,其就是一个基于 Linux *** 作系统的 Namespace 和 Cgroup 功能实现的隔离容器,可以模拟 *** 作系统的功能。简单来说,如果虚拟机是把整个 *** 作系统封装隔离,从而实现跨平台应用的话,那么容器则是把一个个应用单独封装隔离,从而实现跨平台应用。所以容器体积比虚拟机小很多,理论上占用资源更少。

JVM:存在于函数库层和应用程序之间的虚拟化技术。

Java 虚拟机同样具有跨平台特性,所谓跨平台特性实际上也就是虚拟化的功劳。我们知道 Java 语言是调用 *** 作系统函数库的,JVM 就是在应用层与函数库层之间建立一个抽象层,对下通过不同的版本适应不同的 *** 作系统函数库,对上提供统一的运行环境交给程序和开发者,使开发者能够调用不同 *** 作系统的函数库。

在大致理解了虚拟化技术之后,接下来我们就可以来了解容器的诞生历史。虽然容器概念是在 Docker 出现以后才开始在全球范围内火起来的,但在 Docker 之前,就已经有无数先驱在探索这一极具前瞻性的虚拟化技术。

容器的前身 “Jail”

1979 年 —— 贝尔实验室发明 chroot

容器主要的特性之一就是进程隔离。早在 1979 年,贝尔实验室在 Unix V7 的开发过程中,发现当一个系统软件编译和安装完成后,整个测试环境的变量就会发生改变,如果要进行下一次构建、安装和测试,就必须重新搭建和配置测试环境。要知道在那个年代,一块 64K 的内存条就要卖 419 美元,“快速销毁和重建基础设施”的成本实在是太高了。

开发者们开始思考,能否在现有的 *** 作系统环境下,隔离出一个用来重构和测试软件的独立环境?于是,一个叫做 chroot(Change Root)的系统调用功能就此诞生。

chroot 可以重定向进程及其子进程的 root 目录到文件系统上的新位置,也就是说使用它可以分离每个进程的文件访问权限,使得该进程无法接触到外面的文件,因此这个被隔离出来的新环境也得到了一个非常形象的命名,叫做 Chroot Jail (监狱)。之后只要把需要的系统文件一并拷贝到 Chroot Jail 中,就能够实现软件重构和测试。这项进步开启了进程隔离的大门,为 Unix 提供了一种简单的系统隔离功能,尤其是 jail 的思路为容器技术的发展奠定了基础。但是此时 chroot 的隔离功能仅限于文件系统,进程和网络空间并没有得到相应的处理。

进入21世纪,此时的虚拟机(VM)技术已经相对成熟,人们可以通过虚拟机技术实现跨 *** 作系统的开发。但由于 VM 需要对整个 *** 作系统进行封装隔离,占用资源很大,在生产环境中显得太过于笨重。于是人们开始追求一种更加轻便的虚拟化技术,众多基于 chroot 扩展实现的进程隔离技术陆续诞生。

2000 年 —— FreeBSD 推出 FreeBSD Jail

在 chroot 诞生 21 年后,FreeBSD 40 版本推出了一套微型主机环境共享系统 FreeBSD Jail,将 chroot 已有的机制进行了扩展。在 FreeBSD Jail 中,程序除了有自己的文件系统以外,还有独立的进程和网络空间,Jail 中的进程既不能访问也不能看到 Jail 之外的文件、进程和网络资源。

2001 年 —— Linux VServer 诞生

2001年,Linux 内核新增 Linux VServer(虚拟服务器),为 Linux 系统提供虚拟化功能。Linux VServer 采取的也是一种 jail 机制,它能够划分计算机系统上的文件系统、网络地址和内存,并允许一次运行多个虚拟单元。

2004 年 —— SUN 发布 Solaris Containers

该技术同样由 chroot 进一步发展而来。2004 年 2 月,SUN 发布类 Unix 系统 Solaris 的 10 beta 版,新增 *** 作系统虚拟化功能 Container,并在之后的 Solaris 10 正式版中完善。Solaris Containers 支持 x86 和 SPARC 系统,SUN 创造了一个 zone 功能与 Container 配合使用,前者是一个单一 *** 作系统中完全隔离的虚拟服务器,由系统资源控制和 zones 提供的边界分离实现进程隔离。

2005 年 —— OpenVZ 诞生

类似于 Solaris Containers,它通过对 Linux 内核进行补丁来提供虚拟化、隔离、资源管理和状态检查 checkpointing。每个 OpenVZ 容器都有一套隔离的文件系统、用户及用户组、进程树、网络、设备和 IPC 对象。

这个时期的进程隔离技术大多以 Jail 模式为核心,基本实现了进程相关资源的隔离 *** 作,但由于此时的生产开发仍未有相应的使用场景,这一技术始终被局限在了小众而有限的世界里。

就在此时,一种名为“云”的新技术正悄然萌发……

“云”的诞生

2003 年至 2006 年间,Google 公司陆续发布了 3 篇产品设计论文,从计算方式到存储方式,开创性地提出了分布式计算架构,奠定了大数据计算技术的基础。在此基础上,Google 颠覆性地提出“Google 101”计划,并正式创造“云”的概念。一时间,“云计算”、“云存储”等全新词汇轰动全球。随后,亚马逊、IBM 等行业巨头也陆续宣布各自的“云”计划,宣告“云”技术时代的来临。

也是从这时期开始,进程隔离技术进入了一个更高级的阶段。在 Google 提出的云计算框架下,被隔离的进程不仅仅是一个与外界隔绝但本身却巍然不动的 Jail,它们更需要像一个个轻便的容器,除了能够与外界隔离之外,还要能够被控制与调配,从而实现分布式应用场景下的跨平台、高可用、可扩展等特性。

2006 年 —— Google 推出 Process Containers,后更名为 Cgroups

Process Container 是 Google 工程师眼中“容器”技术的雏形,用来对一组进程进行限制、记账、隔离资源(CPU、内存、磁盘 I/O、网络等)。这与前面提到的进程隔离技术的目标其实是一致的。由于技术更加成熟,Process Container 在 2006 年正式推出后,第二年就进入了 Linux 内核主干,并正式更名为 Cgroups,标志着 Linux 阵营中“容器”的概念开始被重新审视和实现。

2008 年 —— Linux 容器工具 LXC 诞生

在 2008 年,通过将 Cgroups 的资源管理能力和 Linux Namespace(命名空间)的视图隔离能力组合在一起,一项完整的容器技术 LXC(Linux Container)出现在了 Linux 内核中,这就是如今被广泛应用的容器技术的实现基础。我们知道,一个进程可以调用它所在物理机上的所有资源,这样一来就会挤占其它进程的可用资源,为了限制这样的情况,Linux 内核开发者提供了一种特性,进程在一个 Cgroup 中运行的情况与在一个命名空间中类似,但是 Cgroup 可以限制该进程可用的资源。尽管 LXC 提供给用户的能力跟前面提到的各种 Jails 以及 OpenVZ 等早期 Linux 沙箱技术是非常相似的,但伴随着各种 Linux 发行版开始迅速占领商用服务器市场,包括 Google 在内的众多云计算先锋厂商得以充分活用这一早期容器技术,让 LXC 在云计算领域获得了远超前辈的发展空间 。

同年,Google 基于 LXC 推出首款应用托管平台 GAE (Google App Engine),首次把开发平台当做一种服务来提供。GAE 是一种分布式平台服务,Google 通过虚拟化技术为用户提供开发环境、服务器平台、硬件资源等服务,用户可以在平台基础上定制开发自己的应用程序并通过 Google 的服务器和互联网资源进行分发,大大降低了用户自身的硬件要求。

值得一提的是,Google 在 GAE 中使用了一个能够对 LXC 进行编排和调度的工具 —— Borg (Kubernetes 的前身)。Borg 是 Google 内部使用的大规模集群管理系统,可以承载十万级的任务、数千个不同的应用、同时管理数万台机器。Borg 通过权限管理、资源共享、性能隔离等来达到高资源利用率。它能够支持高可用应用,并通过调度策略减少出现故障的概率,提供了任务描述语言、实时任务监控、分析工具等。如果说一个个隔离的容器是集装箱,那么 Borg 可以说是最早的港口系统,而 LXC + Borg 就是最早的容器编排框架。此时,容器已经不再是一种单纯的进程隔离功能,而是一种灵活、轻便的程序封装模式。

2011 年 —— Cloud Foundry 推出 Warden

Cloud Foundry 是知名云服务供应商 VMware 在 2009 年推出的一个云平台,也是业内首个正式定义 PaaS (平台即服务)模式的项目,“PaaS 项目通过对应用的直接管理、编排和调度让开发者专注于业务逻辑而非基础设施”,以及“PaaS 项目通过容器技术来封装和启动应用”等理念都出自 Cloud Foundry。Warden 是 Cloud Foundry 核心部分的资源管理容器,它最开始是一个 LXC 的封装,后来重构成了直接对 Cgroups 以及 Linux Namespace *** 作的架构。

随着“云”服务市场的不断开拓,各种 PaaS 项目陆续出现,容器技术也迎来了一个爆发式增长的时代,一大批围绕容器技术进行的创业项目陆续涌现。当然,后来的故事很多人都知道了,一家叫 Docker 的创业公司横空出世,让 Docker 几乎成为了“容器”的代名词。

Docker 横空出世

2013 年 —— Docker 诞生

Docker 最初是一个叫做 dotCloud 的 PaaS 服务公司的内部项目,后来该公司改名为 Docker。Docker 在初期与 Warden 类似,使用的也是 LXC ,之后才开始采用自己开发的 libcontainer 来替代 LXC 。与其他只做容器的项目不同的是,Docker 引入了一整套管理容器的生态系统,这包括高效、分层的容器镜像模型、全局和本地的容器注册库、清晰的 REST API、命令行等等。

Docker 本身其实也是属于 LXC 的一种封装,提供简单易用的容器使用接口。它最大的特性就是引入了容器镜像。Docker 通过容器镜像,将应用程序与运行该程序需要的环境,打包放在一个文件里面。运行这个文件,就会生成一个虚拟容器。

更为重要的是,Docker 项目还采用了 Git 的思路 —— 在容器镜像的制作上引入了“层”的概念。基于不同的“层”,容器可以加入不同的信息,使其可以进行版本管理、复制、分享、修改,就像管理普通的代码一样。通过制作 Docker 镜像,开发者可以通过 DockerHub 这样的镜像托管仓库,把软件直接进行分发。

也就是说,Docker 的诞生不仅解决了软件开发层面的容器化问题,还一并解决了软件分发环节的问题,为“云”时代的软件生命周期流程提供了一套完整的解决方案。

很快,Docker 在业内名声大噪,被很多公司选为云计算基础设施建设的标准,容器化技术也成为业内最炙手可热的前沿技术,围绕容器的生态建设风风火火地开始了。

容器江湖之争

一项新技术的兴起同时也带来了一片新的市场,一场关于容器的蓝海之争也在所难免。

2013 年 —— CoreOS 发布

在 Docker 爆火后,同年年末,CoreOS 应运而生。CoreOS 是一个基于 Linux 内核的轻量级 *** 作系统,专为云计算时代计算机集群的基础设施建设而设计,拥有自动化、易部署、安全可靠、规模化等特性。其在当时有一个非常显眼的标签:专为容器设计的 *** 作系统。

借着 Docker 的东风,CoreOS 迅速在云计算领域蹿红,一时间,Docker + CoreOS 成为业内容器部署的黄金搭档。同时,CoreOS 也为 Docker 的推广与社区建设做出了巨大的贡献。

然而,日渐壮大的 Docker 似乎有着更大的“野心”。不甘于只做“一种简单的基础单元”的 Docker,自行开发了一系列相关的容器组件,同时收购了一些容器化技术的公司,开始打造属于自己的容器生态平台。显然,这对于 CoreOS 来说形成了直接的竞争关系。

2014 年 —— CoreOS 发布开源容器引擎 Rocket

2014 年末,CoreOS 推出了自己的容器引擎 Rocket (简称 rkt),试图与 Docker 分庭抗礼。rkt 和 Docker 类似,都能帮助开发者打包应用和依赖包到可移植容器中,简化搭环境等部署工作。rkt 和 Docker 不同的地方在于,rkt 没有 Docker 那些为企业用户提供的“友好功能”,比如云服务加速工具、集群系统等。反过来说,rkt 想做的,是一个更纯粹的业界标准。

2014 年 —— Google 推出开源的容器编排引擎 Kubernetes

为了适应混合云场景下大规模集群的容器部署、管理等问题,Google 在 2014 年 6 月推出了容器集群管理系统 Kubernetes (简称 K8S)。K8S 来源于我们前面提到的 Borg,拥有在混合云场景的生产环境下对容器进行管理、编排的功能。Kubernetes 在容器的基础上引入了 Pod 功能,这个功能可以让不同容器之间互相通信,实现容器的分组调配。

得益于 Google 在大规模集群基础设施建设的强大积累,脱胎于 Borg 的 K8S 很快成为了行业的标准应用,堪称容器编排的必备工具。而作为容器生态圈举足轻重的一员,Google 在 Docker 与 rkt 的容器之争中站在了 CoreOS 一边,并将 K8S 支持 rkt 作为一个重要里程碑。

2015 年 —— Docker 推出容器集群管理工具 Docker Swarm

作为回应,Docker 公司在 2015 年发布的 Docker 112 版本中也开始加入了一个容器集群管理工具 Docker swarm 。

随后,Google 于 2015 年 4 月领投 CoreOS 1200 万美元, 并与 CoreOS 合作发布了首个企业发行版的 Kubernetes —— Tectonic 。从此,容器江湖分为两大阵营,Google 派系和 Docker 派系。

两大派系的竞争愈演愈烈,逐渐延伸到行业标准的建立之争。

2015 年 6 月 —— Docker 带头成立 OCI

Docker 联合 Linux 基金会成立 OCI (Open Container Initiative)组织,旨在“制定并维护容器镜像格式和容器运行时的正式规范(“OCI Specifications”),围绕容器格式和运行时制定一个开放的工业化标准。

2015 年 7 月 —— Google 带头成立 CNCF

而战略目标聚焦于“云”的 Google 在同年 7 月也联合 Linux 基金会成立 CNCF (Cloud Native Computing Foundation)云原生计算基金会,并将 Kubernetes 作为首个编入 CNCF 管理体系的开源项目,旨在“构建云原生计算 —— 一种围绕着微服务、容器和应用动态调度的、以基础设施为中心的架构,并促进其广泛使用”。

这两大围绕容器相关开源项目建立的开源基金会为推动日后的云原生发展发挥了重要的作用,二者相辅相成,制定了一系列行业事实标准,成为当下最为活跃的开源组织。

Kubernetes 生态一统江湖

虽然这些年来 Docker 一直力压 rkt,成为当之无愧的容器一哥,但作为一个庞大的容器技术生态来说,Docker 生态还是在后来的容器编排之争中败给了 Google 的 Kubernetes 。

随着越来越多的开发者使用 Docker 来部署容器,编排平台的重要性日益突出。在 Docker 流行之后,一大批开源项目和专有平台陆续出现,以解决容器编排的问题。Mesos、Docker Swarm 和 Kubernetes 等均提供了不同的抽象来管理容器。这一时期,对于软件开发者来说,选择容器编排平台就像是一场豪赌,因为一旦选择的平台在以后的竞争中败下阵来,就意味着接下来开发的东西在未来将失去市场。就像当初 Android、iOS 和 WP 的手机系统之争一样,只有胜利者才能获得更大的市场前景,失败者甚至会销声匿迹。容器编排平台之争就此拉开帷幕。

2016 年 —— CRI-O 诞生

2016 年,Kubernetes 项目推出了 CRI (容器运行时接口),这个插件接口让 kubelet(一种用来创建 pod、启动容器的集群节点代理)能够使用不同的、符合 OCI 的容器运行时环境,而不需要重新编译 Kubernetes。基于 CRI ,一个名为 CRI-O 的开源项目诞生,旨在为 Kubernetes 提供一种轻量级运行时环境。

CRI-O 可以让开发者直接从 Kubernetes 来运行容器,这意味着 Kubernetes 可以不依赖于传统的容器引擎(比如 Docker ),也能够管理容器化工作负载。这样一来,在 Kubernetes 平台上,只要容器符合 OCI 标准(不一定得是 Docker),CRI-O 就可以运行它,让容器回归其最基本的功能 —— 能够封装并运行云原生程序即可。

同时,CRI-O 的出现让使用容器技术进行软件管理和运维的人们发现,相对于 Docker 本身的标准容器引擎, Kubernetes 技术栈(比如编排系统、 CRI 和 CRI-O )更适合用来管理复杂的生产环境。可以说,CRI-O 将容器编排工具放在了容器技术栈的重要位置,从而降低了容器引擎的重要性。

在 K8S 顺利抢占先机的情况下,Docker 在推广自己的容器编排平台 Docker Swarm 时反而犯下了错误。2016 年底,业内曝出 Docker 为了更好地适配 Swarm,将有可能改变 Docker 标准的传言。这让许多开发者在平台的选择上更倾向于与市场兼容性更强的 Kubernetes 。

因此,在进入 2017 年之后,更多的厂商愿意把宝压在 K8S 上,投入到 K8S 相关生态的建设中来。容器编排之争以 Google 阵营的胜利告一段落。与此同时,以 K8S 为核心的 CNCF 也开始迅猛发展,成为当下最火的开源项目基金会。这两年包括阿里云、腾讯、百度等中国科技企业也陆续加入 CNCF ,全面拥抱容器技术与云原生。

结语

从数十年前在实验室里对进程隔离功能的探索,再到如今遍布生产环境的云原生基础设施建设,可以说容器技术凝聚了几代开发者的心血,才从一个小小的集装箱发展到一个大型的现代化港口。可以预见的是,从现在到未来很长一段时间里,容器技术都将是软件开发和运维的重要基础设施。

虚拟化技术可以帮助CIO用比较少的硬件分配比较多的资源,但也会带来一大堆管理难题,这就需要CIO更加关注管理流程和工具。 [计世网独家]有了服务器虚拟化,就有可能在比较少的硬件资源上运行多个应用软件和 *** 作系统,这吸引了许多IT经理的目光。据弗雷斯特研究公司的近期调查显示,调查对象中,有四分之一对服务器进行了虚拟化处理,还有一些计划两年后对近一半的服务器进行虚拟化处理。据业界观察人士和IT经理声称,随着企业的IT队伍期望扩大服务器虚拟化技术的部署范围,很重要的一点就是,要敢于面对管理上的难题。
IDC公司的调研主任Stephen Elliot说:“虚拟化技术很容易让人着迷,IT部门部署虚拟机速度之快超出了管理水平。这项技术从一开始就应当在管理方面进行投入。”
对正在竭力管理虚拟机的人来说,下面是六个重要问题的答案:

一省略的技术运营主管Edward Christensen说:“你再也不是只要关心服务器外壳里面的部分,而是要担心这个设备里面的其他部分、需要什么资源。”
这家网上汽车公司使用VMware公司的产品,在开发及质量保证环境下,对惠普硬件系统上运行的服务器进行虚拟化处理。他又说:“过去你常认为‘我有一台配备两个处理器/16GB内存的服务器’,如今你却在想‘两个处理器和16GB内存只供我一人使用吗?还是某个虚拟机也占用或者需要这些资源?’”

二如何遏制散乱现象?

虚拟化技术提供了易于部署的优点,但这让IT经理们陷入了左右为难的处境。服务器配置起来越快捷,对服务器的需求似乎就越大,而这会迅速导致众多的虚拟机。
Adam Gray是位于加州圣巴巴拉的IT专业服务公司Novacoast的首席技术官,他说:“我们发现,每天不止一次地启用及停用新机器。许多这些机器是为了开发、测试及试运行而提供的。”
IT经理和业界观察人士认为,控制虚拟服务器散乱现象需要同样用于物理服务器部署环境的流程和审计,确保只有在需要时才配置机器。
马里兰州拉纳姆Merkle公司的IT基础设施经理Marc Kraus说:“公司规定,如果未经IT部门审批,别人就无权添加虚拟服务器。我们还每周进行扫描,以控制散乱现象。”
虽然基于策略的管理和清查工具可以帮助IT部门随时了解服务器的数量,但IT人员必须严格落实相应流程,防止虚拟服务器散乱危及部署项目的成功。
旧金山必百瑞律师事务所的网络服务和工程部门主管Albert Ganzon说:“大家知道,我们启用一台新的虚拟服务器后,一旦完成任务,就马上停用。我们必须防止服务器慢慢增多。”
Ganzon说,他正在部署VMware产品,目前有十多台虚拟服务器在运行。他领导的小组建立了“某种权力集中部门”:各业务部门必须向该部门正式提出服务器请求,以便控制未授权虚拟机数量激增的现象。他补充说:“这实际上向他们指出已有的资源,询问‘你果真需要另一台服务器吗?’”
缅因州不伦瑞克市鲍登学院的高级系统工程师Tim Antonowicz说,他利用基本的“完整性检查”(sanity check),防止VMware ESX虚拟服务器失去控制。他说:“如果有人请求一台新服务器,除了紧急情况,一定要确保你必须经过全面评估,才能确定这是否果真需要还是仅仅贪图方便。”
业界观察人士建议采用服务器生命周期管理流程,以便跟踪虚拟或者物理服务器的用途以及从启用到停用的状况。未能遏制随便部署的习惯会加大虚拟机管理方面的其他难题,比如补丁管理。
企业管理协会的Mann指出:“如果你不知道自己有多少机器或者多少机器已部署,给它们打上补丁也就无从谈起。”

三省略的Christensen说:“没错,我现有的管理工具管理虚拟服务器的效果与管理其他任何服务器一样好。不过区别在于,你可以使用工具查看并且 *** 纵整台机器,但对于虚拟机就没有这样的优势。环境的可视化呈现和良好的仪表板是管理虚拟环境的两大关键。”
如今出现了填补虚拟机管理这块空缺的新兴公司,譬如PlateSpin、Scalent Systems、Veeam和Vizioncore及另外几家公司。它们声称,传统厂商填补不了这块空缺。比如说,新兴公司侧重的一些方面就是识别在虚拟机上运行的应用软件,获得可见性,从而了解对虚拟机的请求及响应。创新的虚拟服务器管理工具可以帮助IT经理更快识别哪些虚拟机上的哪些应用软件运行不顺畅。
扬基集团支撑技术企业部的主管George Hamilton说:“选择新兴公司的产品自有其头痛问题;不过从短期来看,这可以帮你完成如今用管理工具无法完成的功能。不过,这些新兴公司总是有可能被你现有的管理厂商收购。”举例说,VMware在9月份就收购了虚拟管理新兴公司Dunes Technologies,以补充其自己的产品。
如果IT经理没有准备好购买管理虚拟环境的专门软件,他们也可以采取一些办法,让切实可行的传统技术更适合虚拟环境。
比如,Ganzon加大了投资Network General产品的力度,监控进出虚拟服务器的流量。他结合了Network General的流量分析功能和Compuware公司的ServerVantage软件的物理服务器性能指标。
他解释道:“我们有过这样的情况,Compuware软件报告服务器响应正常,但我们无法了解虚拟层,也无法看清处理请求的情况。Network General产品可检查数据包、寻找请求和确认,从而确保虚拟层没有出现延迟;服务器的运行状况正如Compuware报告的那样。”

四捆绑的工具有效吗?

大家一致认为,VMware或者Xen的虚拟机管理程序(hypervisor)捆绑的管理工具在大型虚拟环境中达不到要求。
Noel说“如果你的虚拟化产品提供商也是管理设备的主要提供商,那么必然会痛苦不堪。”比如说,虽然虚拟机管理程序提供的软件可以告诉IT经理有多少虚拟机在主机上运行,但提供不了多少有关应用软件及其性能的情况。她补充说:“记住服务器存在的惟一理由是,为业务应用软件提供顺畅运行所需的功能。”
虽然VMware的虚拟机管理程序提供的软件能够管理这种虚拟机管理程序及环境,但业界观察人士认为,这种软件充其量不过具备监测了解性能或者其他厂商产品的功能。
IDC的Elliot说:“我认为,IT经理必须确定‘够好’的工具是不是适用于管理大型环境。IDC预测,在接下来的三年,大多数IT部门的环境会有不止一种的虚拟机管理程序;这就会需要异构的虚拟服务器管理方案。”
另外,要是IT经理期望把部署的虚拟服务器从几十台扩展到几百台,那么如今可从虚拟化技术厂商获得的技术不会有同样好的效果。虽然预计虚拟化技术厂商会在将来提供不同的管理功能,但如今的工具满足不了大型的多厂商多站点网络的要求。
EMA的Mann说:“大多数虚拟化技术厂商存在固有的扩展性问题��它们正在着手解决,但它们的管理工具需要能管理有多个子网和多个站点的整个环境。目前,虚拟机管理程序提供商面对大型环境,无力执行管理任务。”
但这并不是说开始涉足虚拟化的IT经理就无法利用这些工具了。
鲍登学院的Antonowicz说:“ESX Server可以直接连接到VMware的管理套件Virtual Center。你会自动得到监控CPU、磁盘、内存和网卡等硬件资源的功能。可以衡量ESX主机及主机里面所放的虚拟机的这些指标。”
科霍斯纽约学区的网络管理员Mark DiPofi结合使用惠普和VMware各自服务器产品随带的集成无人值守(iLO)和管理工具以及Network General公司的Sniffer产品,跟踪可能由来自服务器环境的额外流量引起的网络带宽问题。如今他管理着约20个虚拟服务器,并没有觉得立即需要添加更多的管理工具。
DiPofi说:“我使用iLO来远程管理硬件;它能告诉我物理设备是否温度过高。 我还使用VMware进入ESX服务器的后门。就我们眼下的需求而言,服务器随带的管理工具很好用。”

五省略的Christensen说:“现在外面就有出色的工具;在微软发布工具集的同时,它们只会变得更好。”
其他人认为微软似乎打算把其虚拟机管理程序放在不同的层面上,这可能会使得VMware更加吸引一些人。
Antonowicz说:“微软的设计仍基于这种方案:运行在基本的Windows内核上。如果虚拟层放在正式的 *** 作系统内核上,微软无法从虚拟层得到同样的性能。在微软Virtual Server上运行的虚拟机仍被认为是运行在Windows服务器上的一种应用。只有使用VMware的ESX或者Xen,你才能得到真正的‘裸机’性能。”
业界观察人士认为:微软进入虚拟化技术市场后,市场格局无疑会随之变化。专家们认为,如今 *** 作系统中没有内置虚拟机管理程序的平台就是Windows;等微软进入虚拟化领域后,IT经理就要重新评估虚拟化技术战略。
IDC的Elliot说:“微软需要解决性能和可靠性方面的关键问题;如果它能搞定这两个因素,就完全有能力与VMware直接竞争。微软占有相当大的地盘,虽然它在某些方面处于落后,但在迅速攻城略地。所以将来的问题是,VMware的功能会不会远远胜过微软的产品、从而击败微软的低价位优势?”

六选择自由软件还是开源软件?

对环境规模小、IT预算少的IT经理来说,自由软件和开源软件常常可以满足他们的管理要求。
Hyperic和Veeam等公司发布了旨在管理虚拟环境的产品。Hyperic在去年发布了Hyperic HQ for VMware软件,提供了把该公司旗舰软件的管理范围扩大到虚拟环境的功能。这家开发商还编写了可集成到VMware的API和Virtual Center接口的代码,以便发现物理服务器和虚拟服务器,并且把虚拟实例集成到所有系统清单中。若有变化,软件就能发现,更新存储库,并且通知IT人员。HQ能够执行该公司所说的“物理到虚拟映射”:除了向IT经理告知虚拟机里面运行的 *** 作系统和应用软件外,还能告知虚拟机及相应主机。
拿Veeam来说:这家新兴公司依托其大获成功的自由软件,组建了商业软件公司。FastSCP 20 for VMware是一款自由软件性质的文件管理产品,可帮助客户移动虚拟机、把实例从一个服务器拷贝到另一个服务器。FastSCP最初在2006年10月发布,“已成为ESX文件管理领域事实上的标准,”Veeam的总裁兼CEO Ratmir Timashev如是说。
IT经理说,必要时,自由软件能符合需要。澳大利亚佩思Auracom Technologies公司的虚拟化技术顾问Mark Devlin就使用FastSCP,因为当初他需要虚拟化功能时,Veeam的这款软件是市面上惟一能满足他要求的工具。
Devlin说:“它是对ESX环境进行实时文件管理的最快办法;实际上,这个产品没有任何消极的方面��它其实会节省成本、降低人力成本、加快完成工作。”
其他人说,由于功能有限,这种低成本的替代方案在虚拟环境的使用寿命很短。
鲍登学院的Antonowicz说:“实际上没有哪款切实可行的自由软件解决方案管理得了VMware基础设施。由于VMware与物理服务器硬件有着紧密关系,自由软件产品想真正在这个层面上进行集成会很难。至于Xen虚拟化技术,因为它是开源的,所以只有少数几项基本的管理功能。不过要获得最宝贵的功能以及技术支持,这方面的最佳服务来自商业公司。”
EMA的Mann鼓励把开源软件派上用场,但要注意这一点:它们不是提供全面管理一大批虚拟服务器所需的惟一工具。他说:“你会需要多种解决方案,开源只是其中一种;你不该单单使用开源软件来管理整个环境。”
虽然他们使用传统的管理工具以及虚拟机管理程序捆绑的工具,其他业界观察人士却并不主张使用自由软件或者开源软件用于全面的虚拟服务器管理。
扬基集团的Hamilton说:“如果能填补现有管理工具的空缺,那么使用自由软件或者开源软件的风险确实很低。但让我试图把其管理范围扩大到部署的企业级虚拟环境,我会觉得不安。你不希望用自由软件或者开源软件管理过于庞大的环境。你认识到,它们满足不了所有要求。”
最后,业界观察人士提醒IT经理:管理物理服务器的问题到了虚拟环境不会消失��只会有增无减,而且会被系统之间的无形边界掩盖起来。IT经理说,事先认识到走虚拟化道路不会减轻管理负担,这有助于调整思路,以便管理大批虚拟机。
Antonowicz说:“管理虚拟机的道理与管理物理机一样。你仍得为所有虚拟机上的 *** 作系统打补丁;仍需要监控应用软件;仍需要维护。IT人员需要掌握另一套流程,但想想虚拟机所带来的好处,这种付出是值得的。”
(清风编译)

英特尔的信息技术部门具有着双重属性,它既是英特尔最新技术的实践者,本身也是经验丰富的技术输出者,其运营经验值得业界同行借鉴。在英特尔持续快速发展的背后,到底有着怎样高效运营的IT架构支撑着这个庞大的芯片帝国?

引领创新科技的英特尔同样也会遭遇信息化难题,但它有能力也有勇气率先迈出变革的步伐。11月4日,英特尔首席信息官、副总裁Diane Bryant在上海紫竹科学园接受了本报记者的独家专访,详细阐述了英特尔的数据中心整合计划,这将是支撑英特尔未来发展的战略性一步。

芯片帝国的后盾

在英特尔内部,计算应用主要分为四类,可以用“DOME”来概括――设计(D)、办公(O)、制造(M)、企业应用(E)。其中,半导体设计占用了大部分服务器资源,并且预期还将以每年15%~23%的速度不断增长;企业应用、办公、制造的服务器需求也在稳步增长;存储需求更是达到了平均每年40%以上的增长速度。这一切,都要依靠英特尔的数据中心来实现,这是英特尔大规模全球计算环境的核心。
分享一组惊人的数字:截至2008年2月,英特尔拥有116个数据中心,管理的服务器为77000台。在此之前的高峰时期,与英特尔的并购直接相关,英特尔的数据中心竟达到了140个,管理难度可想而知。尽管Diane Bryant领导的英特尔信息技术部门对英特尔的业务需求提供了有力支持,但他们也认识到,是时候制定一项全面的长期战略来规划数据中心的投资和容量了。一些中小规模数据中心面临散热、功耗或空间限制,而此时的英特尔已有足够的经验构建更经济高效的大规模、高密度数据中心,无需再逐个改造。同时,借助一系列技术手段,英特尔可以在全新数据中心中实现在多个计算领域灵活分配资源,从更高的层面上规划容量,并且将不同部门为满足各自应用需求累计的400多个不同的参考设计标准化,这也是有效推进绿色IT的路径。
英特尔的核心竞争力之一是大规模而且高效率的工厂。在产品更新换代时,它可以针对大批量生产高效调整,从而保证供货周期。而通过精确复制(Copy Exactly)战略,英特尔分布于全球的半导体工厂几乎可以做到多厂一面,这样就可以迅速响应英特尔的业务变化。英特尔数据中心效率核心小组在今年年初撰写的《英特尔信息技术白皮书》中指出,“我们的最终目标是像半导体工厂那样运行数据中心环境,以同样高的效率和相应能力来满足业务需求。”同时,通过数据中心的全面规划,英特尔信息技术部门还预计节省10亿美元的运营成本。

八年战略进行时

围绕这一目标,英特尔信息技术部门已着手制定一项企业范围的八年战略,并已经开始有序推进。其核心是改造英特尔位于全球的数据中心环境,重在进行标准化,提高计算利用率,并减少数据中心的数量。保证这项计划顺利推进成为了Diane Bryant肩上的一项重任。“我们从2007年开始进行数据中心整合项目,当时有140个数据中心,现在已经整合到了80个,未来可能还会整合到50个甚至40个。这些数据中心将形成英特尔分布在全球的8个战略节点。”
位于亚洲的战略节点将设在上海。“8个战略节点选址的出发点就是必须离核心业务要近,比如有大规模设计中心或者占据较高业务比例的地方。同时在每个战略枢纽之下还设有多个高效率数据中心,并不是一个战略节点就是一幢建筑。”Diane Bryant介绍说,工程计算占用80%的服务器资源环境,需要高性能大容量的网格,此时高使用率的高性能计算环境非常重要,而且技术人员之间的交流互动非常密集,他们需要服务器能做到快速响应,这是选址考虑的关键。另外20%的服务器资源主要用于企业应用,这个环境主要是通过虚拟化来提高使用效率。“行业平均利用率大概只有15%,我们希望借助虚拟化技术把利用率提高到50%~60%。” 完成了战略节点部署之后,英特尔基本形成了一个面向内部用户的云计算解决方案。“我们还要确保的就是其安全性,而且未来也希望在企业运用的范围之内,确保应用和工作负载更加顺畅地在整个架构之间流动。”
这项宏伟计划将在8年时间内完成,英特尔数据中心的服务器更新换代的周期为4年。“实现数据中心的高效率是我们的最终目标,数据中心整合是其中的重要部分,是帮助我们实现数据中心高效率的方法。”Diane Bryant说,实现这一目标要综合采用很多技术手段,比如服务器整合、虚拟化技术、数据中心能耗管理,以及整个数据中心的冷却、能耗、布局等,并最终提交一个更有效的数据中心解决方案,使得英特尔整个跨全球数据中心的基础设施网络有效运作。
据Diane Bryant介绍,这项计划主要分三步完成:第一步是加速服务器更新换代,英特尔现有的四核处理器以及其他节能、高能效技术可以做到使服务器的每瓦性能不断提高,而且需要数据中心的空间占用也会更小;第二步是虚拟化,英特尔的硬件平台已经具备了优秀的虚拟化支持能力,英特尔数据中心借助虚拟化技术进一步充分利用仍在不断增加的计算能力,把使用效率提高,并且通过网格计算,消除物理、地理和部门的界限,使得服务器共享成为可能。第三步就是数据中心整合了,英特尔已经在使用一些衡量指标来判断数据中心的效率,将关闭那些效率低、规模小的数据中心。” Diane Bryant着重强调,“数据中心最终达到的效率指标更加重要,而不是数据中心的绝对数量,效率是第一位考量的对象。”

新技术抢鲜实践

Diane Bryant曾经在DEG(数字企业事业部)担任重要职位,这个部门面向企业级用户,以服务器业务为主。“我以前的主要工作就是与财富500强企业的CIO进行沟通,了解他们存在哪些难题,希望实现什么目标,以及英特尔的技术怎么能为他们提供更多价值。”履新英特尔CIO职位之后,Diane Bryant的角色和视角都从IT技术开发者转向了IT技术的应用实践者。近水楼台,由Diane Bryant领导的英特尔信息技术部门也就理所当然地成为了英特尔最新技术的试验田。
在英特尔信息技术部门内部,与运维部门并列的还有开发部门。信息技术部门采用的产品就是经过这个部门充分论证的,他们会考量市场上的新技术,并与内部需求相结合,以求证这些技术和产品应用的效果。这些新技术当然有相当一部分就是英特尔面向数据中心提出的新技术。“我们部门在英特尔内部就是高效、绿色计算技术的最终用户。通过使用这些新技术,能为我们的业务带来更多战略价值,或者说我们是作为一个载体,来证明英特尔倡导的新技术具有更强的价值。”Diane Bryant介绍说,英特尔信息技术部门应用最新的处理器技术加速了服务器更新,并率先且广泛采用了虚拟化、SSD、刀片服务器等大量IT前沿技术和产品。同时,他们还在使用一项Low Power Manager技术。这种集成的能源监控和管理应用,可以针对某个服务器动态地分配能源并控制发热量,基于服务器工作负载的调控使得数据中心的电力使用实现最优化。通过诸如此类的新技术应用,来适应新一代数据中心对高能效、高性能、高效率的需求。
从这个角度来说,英特尔的信息技术部门是新技术的实践者,因为该部门基于事实的论证已经充分证明了这些技术对于数据中心用户的业务是有价值的。而从另一个角度来看,这个部门本身也是新技术的输出者。英特尔信息技术部门同时也开发出一些如新式热量回收系统、新式IT基础架构建设等方面的成果,并应用于俄勒冈高密度数据中心这样的新建数据中心,积累了大量数据中心整合的优秀理念和做法。英特尔信息技术部门与同行之间也要进行定期交流,这就为英特尔从技术到实践的全方位输出提供了可信平台。把英特尔的经验和教训分享给这些用户,他们就可以少走很多弯路。

整合见显著成效

尽管以数据中心整合为代表的英特尔效率提升计划仍然处于持续发展阶段,但从目前情况来看,在网格计算、企业服务器整合与虚拟化领域,英特尔信息技术部门已经取得了显著成效。面向设计的网格计算使得英特尔自2006 年以来,服务器利用率提高了11% ,从而使英特尔在 2007 年资本并购中节省资金超过3000万美元,在 2008年资本并购中节省资金约7700万美元。目前,大约40%的批处理作业都在远程运行。英特尔信息技术部门开发了多种工具来实现这一目标,包括一个可为遍布多个数据中心的服务器池分配工作的调度程序,以及可在30分钟内为多达100 台服务器自动配置 *** 作系统的软件等。在提高利用率的同时,还进一步减少了许多项目的吞吐时间,这将帮助设计小组按时或提前完成项目。
而在企业服务器整合与虚拟化方面,英特尔已经着手将企业计算工作负载整合,即将15~20台旧服务器的工作负载整合到基于多核至强的全新虚拟化服务器之上的虚拟机中。这样的整合过程使服务器数量减少约1800台,并且预留出一定的扩展空间。英特尔还验证了虚拟化的主要运营目标,目前已经在一台物理机上托管11台虚拟机,并将工作负载从一台物理机转移到另一台物理机来执行预防性维护。同时,英特尔还在尝试更迅速地提供新的应用实例,以便更快地响应业务需求。

成本控制的学问

虽然英特尔在IT基础架构方面的投资很下血本,每年的信息化预算达到了13亿美元左右,支撑着这个部门的高速运转。但毫无疑问,信息技术部门在提供支撑企业运营及未来发展的战略价值基础上,还应该缩减长期的运营成本,因为它并非是单纯的成本中心的概念。实现这样的目标也是Diane Bryant和她领导的信息技术部门的价值所在,他们将通过多种途径来解决各部分的成本压缩问题。数据中心无疑是节省开支的重点,这部分开支大约要达到9亿美元,占总体开支的比重最大。
Diane Bryant表示,“英特尔信息技术部门去年、今年和明年的预算是基本持平的,不会有太大波动,我们的目标就是在预算基本保持不增不减的状态之下,把维持日常业务运作的IT投入减少,从而把节约下来的成本用于投入一些更具有战略性意义的IT项目,如Business Intelligence(商业智能)等应用来支持英特尔的未来业务发展,并通过技术手段进一步减少供应链或者生产制造这部分的成本。” Gartner的调查结果显示,行业里平均67%的IT预算都用于维护业务的日常运作。对英特尔来讲,正在进行的大规模数据中心整合,提高数据中心效率,就是希望把数据中心日常维护的这部分成本降下来,“我们的目标是达到现在开支的70%左右”。
硬件的成本节省已经逐步实现,比如服务器更新/撤除策略的成功实施将降低2007~2014年间的现金成本,降幅约为238亿美元。而从数据中心的TCO角度来看,软件成本占据的比例也很高,大约是整体成本的43%左右,相当于服务器与存储成本的两倍。英特尔也同样在应用虚拟化等技术来实现降低软件应用方面的开支。而随着英特尔数据中心始终向共享标准服务迈进,远离定制解决方案,英特尔也将提供有关其计算环境性能与成本的更多详细信息。
在金融海啸席卷全球的时刻,CIO对于成本和投资的考量自然也比以往更为慎重。Diane Bryant认为,在经济大形势遇到困境时,IT部门的投资不应该因此减少,“我们的经验是,在困难的时候,IT部门反而是投资最后被削减和减少的部门,我预见企业未来在IT方面的投入应该不会减低。”因为IT目前仍然是一种有效的技术手段,可以为用户提升生产效率和运营效率,并为未来经济复苏后的发展做好先期准备。“我们在实施数据中心效率提高项目的同时,还会不断进行技术投入,也会不断实施新的IT项目。”

数据中心的未来

从目前的发展状况来看,现阶段的数据中心应该模块化,具有更大的灵活性已经成为业界共识。那下一代的数据中心将是什么样的?英特尔信息技术部门将给数据中心用户提供哪些建议?Diane Bryant表示, “我们希望下一代数据中心的服务器性能继续不断提高;与此同时,要能降低能耗,实现运营成本缩减,并且充分利用灵活的虚拟化技术来提高服务器的整体使用效率。”
动态分配负荷则被Diane Bryant认为是未来提升数据中心效率的重要趋势之一。“不管你把它称之为虚拟20还是其他,这项技术的关键是针对工作负载分配电力,或者根据不同电力来进行动态资源分配,而且这一点在设计数据中心时就必须考虑到。”Diane Bryant解释说,在设计阶段,肯定要把最差的情况考虑进去。比如最高负荷会达到什么程度,或者最高温度能达到多高。“在未来,我觉得要让数据中心效率更高,动态分配资源非常重要。比如数据中心的某个位置使用效率很高并导致过热,那就可以动态地把这些负荷转到其他温度低的位置。”
对于那些正处于数据中心筹建阶段的中国用户,Diane Bryant建议,英特尔位于俄勒冈的数据中心项目可以称得上是高效率数据中心的典范,其建设经验可供参考。同时,未来是不是能获得更多电力,是数据中心扩展要考虑的关键要素,计算密度增加势必要造成电力能耗水涨船高。而container(集装箱)数据中心也许会提供一个新思路,即固定空间、固定能耗管理的前提下部署计算能力的集装箱式移动数据中心,这也是英特尔正在论证的一项技术。“到底是大规模的数据中心合适,还是container数据中心更适用,关键要取决于用户的需求到底是什么,愿意一次性或者有能力投入多少成本。” Diane Bryant表示,“从技术角度来讲,未来每个数据中心其实能提供的计算能力增强是非常明显的。技术将实现未来在同样空间里能进行的计算密度是不断增加,或者做同样工作所需的空间进一步减少。”

相关链接:未来一年的后续步骤
数据中心整合
在最终制定数据中心整合计划的同时,还将构建一个资产与应用库存,以优化并管理整体环境。英特尔将根据大量因素,包括业务价值以及实现关闭的简易程度来划分数据中心关闭的优先级。此外,还试图将数据中心重新用作实验室,从而避免产生建筑或租赁费用。
网格计算
英特尔计划将利用率从当前的66%进一步提高至80%,从而可能额外节省数千万美元。此外,还计划将设计批处理计算整合到三个数据中心。与此同时,英特尔还将通过把某些重新配置能力集成到调度程序中,来进一步优化根据需求重新配置服务器的能力。预计这样将能使英特尔通过针对输入工作负载的需求定制中枢服务器池的配置,来更快地响应需求变化。
服务器及存储优化
继续把工作负载整合到全新多核英特尔至强处理器中,同时对应用和服务器性能进行说明,从而为更广泛的整合奠定坚实基础。英特尔将对标准化参考平台上的全新工作负载进行验证,通过融合用于跟踪物理服务器上虚拟机的部署与迁移的工具和流程,进一步提高对虚拟化服务器的支持力度。英特尔还计划在所有计算领域中部署水平共享存储服务,以提高支持人员对存储容量的比率,有效地提高信息技术部门的支持能力。
应用与工作流特征
全面、正式地介绍企业应用环境对于数据中心整合计划至关重要。采用相关工具来分析系统与网络层次的应用行为,并且开发一些流程来全面了解和记录应用行为。在对各个应用进行概要分析之后,下一步将是介绍整个工作流。目标是全面了解整套应用及其从属关系,以便确切了解将应用迁移到不同的数据中心将会对工作流造成何种影响。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/13217475.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-06-22
下一篇 2023-06-22

发表评论

登录后才能评论

评论列表(0条)

保存