三台服务器可为VMWare Workstation中的三个虚拟机,注意打开CPU虚拟化选项
关于 selinux , 可参考 getsebool -a 中的开关
在国内,一般直接关掉防火墙和selinux,但从安全角度来说,强烈不建议这样做
至此,其他服务器安装时,都是远程使用ntp服务器中的yum仓库进行安装,当需要安装多个节点时,会特别方便
本文详细介绍了Openstack的网络原理和实现,主要内容包括:Neutron的网络架构及网络模型还有neutron虚拟化的实现和对二三层网桥的理解。
一、Neutron概述
Neutron是一个用Python写的分布式软件项目,用来实现OpenStack中的虚拟网络服务,实现软件定义网络。Neutron北向有自己的REST API,中间有自己的业务逻辑层,有自己的DB和进程之间通讯的消息机制。同时Neutron常见的进程包括Neutron-server和Neutron-agent,分布式部署在不同的 *** 作系统。
OpenStack发展至今,已经经历了20个版本。虽然版本一直在更替,发展的项目也越来越多,但是Neutron作为OpenStack三大核心之一,它的地位是不会动摇的。只不过当初的Neutron也只是Nova项目的一个模块而已,到F版本正式从中剥离,成为一个正式的项目。
从Nova-Network起步,经过Quantum,多年的积累Neutron在网络各个方面都取得了长足的发展。其主要的功能为:
(1)支持多租户隔离
(2)支持多种网络类型同时使用
(3)支持隧道技术(VXLAN、GRE)
(4)支持路由转发、SNAT、DNAT技术
(5)支持Floating IP和安全组
多平面租户私有网络
图中同时有VXLAN和VLAN两种网络,两种网络之间互相隔离。租户A和B各自独占一个网络,并且通过自己的路由器连接到了外部网络。路由器为租户的每个虚拟机提供了Float IP,完成vm和外网之间的互相访问。
二、Neutron架构及网络模型
1、Neutron架构
Neutron-sever可以理解为类似于nova-api那样的一个专门用来接收API调用的组件,负责将不同的api发送到不同Neutron plugin。
Neutron-plugin可以理解为不同网络功能实现的入口,接收server发来的API,向database完成一些注册信息。然后将具体要执行的业务 *** 作和参数通知给对应的agent来执行。
Agent就是plugin在设备上的代理,接受相应的plugin通知的业务 *** 作和参数,并转换为具体的命令行 *** 作。
总得来说,server负责交互接收请求,plugin *** 作数据库,agent负责具体的网络创建。
2、Neutron架构之Neutron-Server
(1)Neutron-server的本质是一个Python Web Server Gateway Interface(WSGI),是一个Web框架。
(2)Neutron-server接收两种请求:
REST API请求:接收REST API请求,并将REST API分发到对应的Plugin(L3RouterPlugin)。
RPC请求:接收Plugin agent请求,分发到对应的Plugin(NeutronL3agent)。
3、Neutron架构之Neutron-Plugin
Neutron-plugin分为Core-plugin和Service-plugin。
Core-plugin:ML2负责管理二层网络,ML2主要包括Network、Subnet、Port三类核心资源,对三类资源进行 *** 作的REST API是原生支持的。
Service-plugin:实现L3-L7网络,包括Router、Firewall、。
4、Neutron架构之Neutron-Agent
(1)Neutron-agent配置的业务对象是部署在每一个网络节点或者计算节点的网元。
(2)网元区分为PNF和VNF:
PNF:物理网络功能,指传统的路由器、交换机等硬件设备
VNF:虚拟网络功能,通过软件实现的网络功能(二层交换、三层路由等)
(3)Neutron-agent三层架构如下图:
Neutron-agent架构分为三层,北向为Neutron-server提供RPC接口,供Neutron server调用,南向通过CLI协议栈对Neutron VNF进行配置。在中间会进行两种模型的转换,从RPC模型转换为CLI模型。
5、Neutron架构之通信原理
(1)Neutron是OpenStack的核心组件,官网给出Neutron的定义是NaaS。
(2)Naas有两层含义:
对外接口:Neutron为Network等网络资源提供了RESTful API、CLI、GUI等模型。
内部实现:利用Linux原生或者开源的虚拟网络功能,加上硬件网络,构建网络。
Neutron接收到API请求后,交由模块WSGI进行初步的处理,然后这个模块通过Python API调用neutron的Plugin。Plugin做了相应的处理后,通过RPC调用Neutron的Agent组件,agent再通过某种协议对虚拟网络功能进行配置。其中承载RPC通信的是AMQP server,在部署中常用的开源软件就是RabbitMQ
6、Neutron架构之控制节点网络模型
控制节点没有实现具体的网络功能,它对各种虚拟设备做管理配合的工作。
(1)Neutron:Neutron-server核心组件。
(2)API/CLI:Neutron进程通过API/CLI接口接收请求。
(3)OVS Agent:Neutron通过RPC协议与agent通信。
控制节点部署着各种服务和Neutron-server,Neutron-server通过api/cli接口接收请求信息,通过RPC和Agent进行交互。Agent再调用ovs/linuxbridge等网络设备创建网络。
7、Neutron架构之计算节点网络模型
(1)qbr:Linux Bridge网桥
(2)br-int:OVS网桥
(3)br-tun:OVS隧道网桥
(4)VXLAN封装:网络类型的转变
8、Neutron架构之网络节点网络模型
网络节点部署了Router、DHCP Server服务,网桥连接物理网卡。
(1)Router:路由转发
(2)DHCP: 提供DNS、DHCP等服务。
(3)br-ex: 连接物理网口,连接外网
三、Neutron虚拟化实现功能及设备介绍
1、Neutron虚拟化实现功能
Neutron提供的网络虚拟化能力包括:
(1)二层到七层网络的虚拟化:L2(virtual Switch)、L3(virtual Router 和 LB)、L47(virtual Firewall )等
(2)网络连通性:二层网络和三层网络
(3)租户隔离性
(4)网络安全性
(5)网络拓展性
(6)REST API
(7)更高级的服务,包括 LBaaS,FWaaS,aaS 等
2、Neutron虚拟化功能之二层网络
(1)按照用户权限创建网络:
Provider network:管理员创建,映射租户网络到物理网络
Tenant network:租户创建的普通网络
External network:物理网络
(2)按照网络类型:
Flat network:所有租户网络在一个网络中
Local network:只允许在服务器内通信,不通外网
VLAN network:基于物理VLAN实现的虚拟网络
VXLAN network:基于VXLAN实现的虚拟网络
3、Neutron虚拟化实现功能之租户隔离
Neutron是一个支持多租户的系统,所以租户隔离是Neutron必须要支持的特性。
(1)租户隔离三种含义:管理面隔离、数据面的隔离、故障面的隔离。
(2)不同层次租户网络的隔离性
租户与租户之间三层隔离
同一租户不同网络之间二层隔离
同一租户同一网络不同子网二层隔离
(3)计算节点的 br-int 上,Neutron 为每个虚机连接 OVS 的 access port 分配了内部的 VLAN Tag。这种 Tag 限制了网络流量只能在 Tenant Network 之内。
(4)计算节点的 br-tun 上,Neutron 将内部的 VLAN Tag 转化为 VXLAN Tunnel ID,然后转发到网络节点。
(5)网络节点的 br-tun 上,Neutron 将 VXLAN Tunnel ID 转发了一一对应的 内部 VLAN Tag,使得 网络流被不同的服务处理。
(6)网络节点的 br-int 上连接的 DHCP 和 L3 agent 使用 Linux Network Namespace 进行隔离。
4、Neutron虚拟化实现功能之租户网络安全
除了租户隔离以外 Neutron还提供数据网络与外部网络的隔离性。
(1)默认情况下,所有虚拟机通过外网的流量全部走网络节点的L3 agent。在这里,内部的固定IP被转化为外部的浮动IP地址
(1)Neutron还利用Linux iptables特性,实现其Security Group特性,从而保证访问虚机的安全性
(3)Neutron利用网络控制节点上的Network Namespace中的iptables,实现了进出租户网络的网络防火墙,从而保证了进出租户网络的安全性。
5、Neutron虚拟化设备
(1)端口:Port代表虚拟网络交换机上的一个虚拟交换机端口
虚拟机的网卡连接到Port上就会拥有MAC地址和IP地址
(2)虚拟交换机:Neutron默认采用开源的Openvswitch,
同时还支持Linux Bridge
(3)虚拟路由器VR:
路由功能一个VR只属于一个租户,租户可以有多个VR一个VR可以有若干个子网VR之间采用Namespace隔离四、Neutron网桥及二三层网络理解
1、Neutron-Local-Bridge
仅用于测试;网桥没有与物理网卡相连VM不通外网。
图中创建了两个local network,分别有其对应的qbr网桥。Vm123的虚拟网卡通过tap连接到qbr网桥上。其中2和3属于同一个network可以通信,1属于另一个网络不能和23进行通信。并且qbr网桥不连物理网卡,所以说local网络虚拟机只能同网络通信,不能连通外网。
2、Neutron-Flat-Bridge
Linux Bridge直接与物联网卡相连每个Flat独占一个物理网卡配置文件添加响应mappingFlat网络是在local网络的基础上实现不同宿主机之间的二层互联,但是每个flat network都会占用一个宿主机的物理接口。其中qbr1对应的flatnetwork 连接 eth1 qbr2,两个网络的虚机在物理二层可以互联。其它跟local network类似。
3、Neutron-VLAN-Bridge
在基于linux bridge的vlan网络中,eht1物理网卡上创建了两个vlan接口,11连接到qbr1网桥,12连接到了qbr2网桥。在这种情况下vm通过eth11或者eth12发送到eth1的包会被打上各自的vlan id。此时vm2和vm3属于同一个network所以是互通的,vm与vm2和vm3不通。
4、Neutron-VXLAN-Bridge
这个是以Linux bridge作agent的Vxlan网络:
Vxlan网络比Vxlan网络多了个VXLAN隧道,在Openstack中创建好内部网络和实例后,agent就会在计算节点和网络节点创建一对vxlan vtep组成隧道的两个端点。
Vxlan连接在eth0网口。在网络节点多了两个组件dhcp 和router,他们分别通过一对veth与qbr网桥连接在一起,多个dhcp和路由之间使用namesapce隔离,当vm产生ping包时,发往linux 网桥qbr1,通过网桥在vxlan12上封装数据包,数据通过eth0网卡出计算节点到网络节点的eth0,在vxlan12解包。到达路由器之后经过nat地址转换,从eth1出去访问外网,由租户网络到运营商网络再到外部网络。
5、Neutron-VLAN-OVS
与Linux bridge不同,openvswitch 不是通过eth11 eth12这样的vlan接口来隔离不同的vlan,而是通过openvswitch的流表规则来指定如何对进出br-int的数据进行转发,实现不同vlan的隔离。
图中计算节点的所有虚拟机都连接在int网桥上,虚拟机分为两个网络。Int网桥会对到来的数据包根据network的不同打上vlan id号,然后转发到eth网桥,eth网桥直连物理网络。这时候流量就从计算节点到了网络节点。
网络节点的ehx int网桥的功能相似,多了一个ex网桥,这个网桥是管理提前创建好的,和物理网卡相连,ex网桥和int网桥之间通过一对patch-port相连,虚拟机的流量到达int网桥后经过路由到ex网桥。
6、Neutron-VXLAN-OVS
Vxlan的模型和vlan的模型十分相似,从表面上来看,他俩相比只有一个不同,vlan对应的是ethx网桥,而vxlan对应的是tun网桥。
在这里ethx和tun都是ovs网桥,所以说两者的差别不是实现组件的差别而是组件所执行功能的差别,ethx执行的是普通二层交换机的功能,tun执行的是vxlan中的vtep的功能,图中俩tun对应的接口ip就是vxlan的隧道终结点ip。所以说虚机的数据包在到达tun网桥之前是打的是vlan tag,而到达tun之后会发生网络类型的转换,从vlan封装为vxlan然后到达网络节点。而之前的vlan类型的网络,虚机数据包的类型一直都是vlan。
7、物理的二层与虚拟的二层(VLAN模式)
(1)物理的二层指的是:物理网络是二层网络,基于以太网协议的广播方式进行通信。
(2)虚拟的二层指的是:Neutron实现的虚拟网络也是二层网络(openstack的vm机所用的网络必须是大二层),也是基于以太网协议的广播方式进行通信,但毫无疑问的是该虚拟网络是依赖于物理的二层网络。
(3)物理二层+虚拟二层的典型代表:VLAN网络模式。
8、物理的三层与虚拟的二层(GRE模式与VXLAN模式)
(1)物理三层指的是:物理网络是三层网络,基于IP路由的方式进行通信。
(2)虚拟的二层指的是:Neutron实现的虚拟网络仍然是二层网络(openstack的vm机所用的网络必须是大二层),仍然是基于以太网的广播方式进行通信,但毫无疑问的是该虚拟机网络是依赖于物理的三层网络,这点有点类似于的概念,根本原理就是将私网的包封装起来,最终打上隧道的ip地址传输。
(3)物理三层+虚拟二层的典型代表:GRE模式与VXLAN模式。
/openshitsh start|stop|restart各(或者全部)Openstack组件进行启,停止,重启 *** 作
/openshitsh install|uninstall|download
Openstack各组件进行 安装,卸载,载包 *** 作
/openshitsh config
配置组建建立数据库, 原先配置文件config-backup文件夹按照间备份起,使用rollbacksh脚本便滚配置文件改
/openshitsh clean
清除服务数据库, 若服务问题直接清掉数据库重新config
接我使用OpenShitUbuntu1404部署OpenStack几要求:
1 Ubuntu1404区定要足够空间OpenStack创建实例候使用区空间,空间够则创建实例测试用Ubuntu1404100G,足够使用
2 建议新装ubuntu区装神马DevStack没装功堆垃圾留系统库再用OpenShit功意思
说现始
1安装git, 使用git载openshit
git clone
2修改配置文件settingconf
面密码:数据库密码,服务密码默认更改,改没
改变网络配置配置文件内IP值都设置称自IP, 网卡设置自网卡(默认eth0)
3配置文件修改完始安装
/openshitsh --all install
命令 问否需要配置软件源, 第使用openshit请选择y, 所命令写:
echo y | /openshitsh --all install
4段间安装完,请输入
/openshitsh --all config
根据settingconf值修改各组件配置文件及数据库配置
5完
运行source admin-envsh; nova service-list 查看服务状态若都up安装功
浏览器内打 即看Openstack管理界面输入密码登陆
现OpenStack功部署Ubuntu1404服务器
功运行实例,我需要制作并传镜像, 配置网络,启实例
制作ubuntu14 server 镜像
1 制作镜像
qemu-img create -f qcow2 ubuntuimg 20G
kvm -cdrom ubuntu-1404-server-amd64iso -drive file=ubuntuimg,if=virtio,index=0 -boot d -net nic -net user
直接光盘安装ubuntu14-server 装行
2传镜像
openshit目录 执行 source admin-envsh
执行
glance image-create --name "ubuntu" --file ubunutimg --disk-format qcow2 --container-format bare --is-public True --progress
进度条快速滚,传完
3 创建网络
openshit目录 执行 source admin-envsh (前面执行用执行)
执行
nova network-create v-net --bridge br100 --multi-host T --fixed-range-v4 10010/29
v-net网络名字 10010/29 网段要配主机数量 要设置网段跟本网段,否则蛋疼超乎想象
执行
nova net-list
看刚才创建网络
4 创建实例
web管理端 镜像 栏内 点 运行 即创建实例 (配刚才创建网络ip址)
点击控制台,通vnc看虚拟机屏幕
问题 虚拟机主机能互相ping通(需要关掉防火墙),访问外网,能哪没设置
OpenShift 与 OpenStack 都是在 2010、2011 年左右创建的,用于构建可扩展云平台的开源技术,两者都用于在混合云环境中构建可扩展系统。从历史来看,OpenStack 的存在时间要比 OpenShift 长。这两个项目的演变代表了从虚拟机到应用程序容器的转变。
OpenShift 是 Paas(平台即服务)模式,主要在 AWS、Google Cloud Platform 等现有云服务之上运行,用于开发和 *** 作容器化应用程序。用户可以自己提供、 *** 作和监控应用程序与服务,并专注于优化开发和 DevOps 工作流。而 OpenStack 具有更深层次的抽象概念,OpenStack 是一种 Iaas(基础设施即服务),可用于将现有服务器转换为云服务。该平台用于构建基于分布式硬件的虚拟化云基础设施,配置具有 CPU 内核和 RAM 的虚拟机,以及虚拟网络和分布式存储。
在容器虚拟化技术成为现在虚拟化主导地位的当下,因为 OpenShift 和 OpenStack 这两种技术互不干涉彼此独立,所以通常两者结合使用。比如 OpenShift 可以建立在 OpenStack 之上,由 OpenStack 构筑服务器基础设施,而 OpenShift 则作为第三方 API 服务存在。也可以在单个应用中同时使用。OpenShift 还可以直接部署在 OpenStack 平台上搭建的云服务中。
OpenShift 与 OpenStack 相结合可以完整涵盖从配置虚拟化硬件到开发和 *** 作容器化应用程序,能够有效降低客户的设置成本,提高现有工作流程的效率和生产力,确保应用程序的可扩展性。因此 OpenShift 和 OpenStack 被广泛用于实施混合云的战略,很受大型全球组织的欢迎。
下面我们来详细看看这两种技术的优缺点,以及常见的部署场景。
OpenStack 是一个用于构建可扩展云环境的开放平台。它的核心功能是提供和分配计算、网络和大容量存储。除了 API 之外,还有一个 Web 界面可用于管理系统。
除了资源供应,OpenStack 还提供其他功能,包括用户身份管理、DNS 入口管理和管理 VM 镜像的服务。更方便的是,单独的功能被封装为了单独的组件。当然在使用时并非所有的组件都必须部署,下面我们简单介绍一些比较常用的组件:
OpenStack 适合在分散式计算硬件上构建云基础设施。结合 OpenShift 或类似的 K8s 管理解决方案,VM 和基于容器的应用程序可以并行运行。其中带有“Magnum”组件的容器虚拟化构成了其原生功能范围的一部分。
OpenStack 的优势和缺点
OpenStack 能够帮助企业基于现有技术来构建自己的云基础架构,可以节省大量的成本。同时因为单独组件的特性,让公司可以根据需求进行灵活配置。这些都是让大家选择 OpenStack 的原因,当然最重要的是 OpenStack 是免费提供的开源软件。
不过 OpenStack 也有一些缺点,最明显的是因为软件的复杂性,即整个软件包括大量单独的组件,必须单独配置。这让安装 OpenStack 变得极具挑战性。同时因为社区贡献的文档可能追不上技术的快速发展,所以更新迭代会比较慢。当然了,工程师可以通过与专家或技术合作伙伴合作来解决问题。不过此类服务可能会产生额外费用。
OpenShift 用于构建分布式、可扩展的应用程序和开发环境。该软件提供了一个完整的执行环境,可以在其中部署、执行、管理和编排容器。集成工具简化了现代开发和部署的工作流程。OpenShift 一般作为企业的平台即服务 (PaaS)、软件即服务 (SaaS)和容器即服务(CaaS)解决方案被使用。但是 OpenShift 偏向于大型企业组织,对于单个开发人员来说可能过于复杂。
OpenShift 使用特殊的 K8S 发行版,可以跨云和基础设施边界部署,实现同样的用户体验。K8S 的核心功能由安全和监控功能补充,并基于集中式策略管理。其中 Operator 是一种打包、部署和管理 K8S 原生应用程序的方法。K8S 原生应用程序是既部署在 K8S 上又使用 K8S API 和 kubectl 工具管理的应用程序。通常,OpenShift 中的 Operators 用于实现:
OpenShift 的优势和缺点
使用 OpenShift 的最大优势之一是能够在混合云环境中运行软件,还可以加快开发工作流程,大大缩短开发时间。另一方面是高度安全性。防止网络入侵和数据泄露对于公司至关重要。端到端授权和身份验证限制了用户访问系统中不同的区域,有助于更好地进行数据保护。
当然,OpenShift 也存在一些缺点。它仅支持在 Red Hat 的特殊 *** 作系统上运行,例如 Red Hat Enterprise Linux CoreOS(RHCOS)和 Red Hat Enterprise Linux(RHEL)。安装也是相对复杂的。由于严格的安全设置,并非所有 Docker Hub 容器都可以在 OpenShift 下使用。
作为助力企业完成虚拟化的重要两种手段,OpenShift 与 OpenStack 都被各大企业广泛使用。也是开发者们在开发系统和平台时必定会遇到的,希望这篇文章能对你了解二者有所帮助。
云计算有IaaS(Infrastructure as a Service,基础架构即服务),PaaS(Platform as a Service,平台即服务),SaaS(Software as a Service,软件即服务)三种基本模型。1IaaS:提供最底层的IT基础服务,包括处理能力,存储空间,网络资源等,用户可以从中获取硬件或者虚拟化硬件资源(包括luo机或者虚拟机),之后可以给申请到的资源安装 *** 作系统和其它应用程序。一般面向IT管理人员。
IaaS通常分为三种用法:公有云,私有云和混合云
2PaaS:是已经把安装好开发环境的系统平台作为一种服务通过互联网提供给用户。用户可以在上面安装其它应用程序,但不能修改已经安装好的 *** 作系统和运行环境。一般面向的是开发人员。需要了解平台所提供环境下的应用开发和部署。
简单的说,PaaS平台是指云环境中的应用基础设施服务,也可以说是中间件即服务
3SaaS:可以直接通过互联网给用户提供软件和应用程序服务。用户通过租赁的方式获取安装在厂商或者服务供应商那里的软件。一般面向普通用户,最常见的是提供给用户一组账号和号码。
用户不用再购买软件,而是向提供商租用基于Web的软件,来管理企业经营活动,不用对软件进行维护,提供商会全权管理和维护软件,同时也提供软件的离线 *** 作和本地数据存储
什么是Openstack
Openstack是一个由NASA(美国国家航空航天局)和Rackspace合作研发并发起的项目
OpenStack是一套IaaS解决方案
OpenStack是一个开源的云计算管理平台
以Apache许可证为授权竞争关系。
云服务器ECS(Elastic Compute Service)是阿里云提供的性能卓越、稳定可靠、d性扩展的IaaS(Infrastructure as a Service)级别云计算服务。云服务器ECS免去了您采购IT硬件的前期准备,让您像使用水、电、天然气等公共资源一样便捷、高效地使用服务器,实现计算资源的即开即用和d性伸缩。阿里云ECS持续提供创新型服务器,解决多种业务需求,助力您的业务发展。
OpenStack支持几乎所有类型的云环境,项目目标是提供实施简单、可大规模扩展、丰富、标准统一的云计算管理平台。OpenStack通过各种互补的服务提供了基础设施即服务(IaaS)的解决方案,每个服务提供API以进行集成。OpenStack云计算平台,帮助服务商和企业内部实现类似于 Amazon EC2 和 S3 的云基础架构服(Infrastructure as a Service, IaaS)。OpenStack 包含两个主要模块:Nova 和 Swift,前者是 NASA 开发的虚拟服务器部署和业务计算模块;后者是 Rackspace开发的分布式云存储模块,两者可以一起用,也可以分开单独用。OpenStack除了有 Rackspace 和 NASA 的大力支持外,还有包括 Dell、Citrix、 Cisco、 Canonical等重量级公司的贡献和支持,发展速度非常快,有取代另一个业界领先开源云平台 Eucalyptus 的态势。华为要做公有云?
2015年4~5月间,华为要做公有云的传闻令国内的云厂商颇为惊讶,消息一度令媒体兴奋了好一阵时间。7月30日,华为在北京正式对外宣布其云服务战略,只不过“公有云”的名字再没有被提及。这是自2010年华为首次发布 云计算 战略以来的另一个重要节点。
在7月30日的发布会上,华为轮值CEO徐直军表示:“云服务正在成为企业IT的新模式,这已经成为产业界的共识。为了满足企业市场客户与合作伙伴在网络时代的新需求,华为决定推出企业云服务,这是华为ICT产品和解决方案的自然延伸。”目前华为在全球已部署了255个云数据中心,云计算虚拟机超过70万个。此外,华为在全球拥有5个云计算研发中心,相关的研发人员超10000人。
9月18日,一年一度的华为云计算大会(HCC2015)在上海世博中心开幕。美国《连线》杂志的Kevin Kelly在主题演讲中表示,云就是未来。他预言,2020年,将有60%的应用运营在云上,全球现有的9000多家云计算公司已经为人类提供了各种各样的产品和服务。
徐直军指出,企业的IT 架构 要云化不是一件容易的事情,需要全生态链的共同努力。公有云显然并不是华为的优先选择,与运营商合作才是最好的方式。华为IT产品线总裁郑叶来则进一步阐述了华为云计算的概念,即虚拟化纪元是Cloud 10的特征,以资源为核心则是Cloud 20的表现,以及以应用为核心的Cloud 30将是未来云计算的趋势。
全面拥抱 OpenStack
在本年度的华为云计算大会(HCC2015)上,华为发布了基于OpenStack的云 *** 作系统 FusionSphere 60,任何基于社区版本的第三方应用无需改动都能运行在FusionSphere上。在笔者看来,FusionSphere 60在网络部分对 SDN 技术的集成管理是值得关注的部分。此外,基于OpenStack的跨数据中心云灾备解决方案也一并推出。
华为云计算首席架构师顾炯炯在接受InfoQ采访时表示,目前全球有300多家厂商参与OpenStack贡献,华为从G版本开始参与社区,在最新L版本(受访时)中的综合贡献排名第六,而三年前华为的排名只不过是第二十名。FusionSphere坚持开放原则,即拥抱开源、高于开源、回馈开源。在19日的开源与云应用主题论坛上,顾炯炯详细介绍了华为的公有云架构设计,听众云集以至于笔者未能挤进会场只好站在门外听完顾大师的演讲。顾炯炯在演讲中透露,除了全面拥抱OpenStack,华为FusionSphere还基于开源的Cloud Foundry集成了DevOps技术支持。作为华为三大软件之一,FusionSphere实现了与华为硬件的解耦,并通过了全球300多家主流硬件厂商的兼容验证。
在开源社区版本的基础上,华为FusionSphere系统做了如下产品化增强:
HA framework:解决OpenStack管理进程存在单实例单点故障的问题。支持OpenStack的服务多实例负荷分担方式部署,单个物理服务故障的时候不影响OpenStack功能的使用。
Auto Deployment:数据中心内的所有物理服务器都可以被自动化的安装并纳入云资源池管理。安装服务通过PXE方式将Hypervisor、OpenStack等必须的云平台软件包按照配置部署到对应的物理服务器中。实现整个云平台的快速安装和快速扩容。
Smooth upgrade:提供采用UI界面的升级工具实现全系统的平滑升级。升级过程中通过将虚拟机从被升级节点迁移到其它节点的方式保证虚拟机业务不中断。
Log & Monitor:提供全系统的 *** 作日志记录与性能监控功能。监控全系统的物理服务器性能数据和虚拟机的性能数据。
API proxy:通过API proxy实现OpenStack内部管理网络与外部网络的隔离,提升openStack服务的网络安全性。
Backup:提供全系统的管理数据备份功能。包括OpenStack的所有管理数据的备份和FusionMananger管理数据的备份功能。
除了在OpenStac外围做了产品化增强,华为还在OpenStack和KVM里面针对NFV做了功能增强,如资源调度功能、性能优化、高可用HA。
网络、存储以及容器
网络与存储目前仍然是云计算最赚钱的业务,2015年6月,IDC报告显示华为存储全球收入增长率连续七个季度第一。在今年的华为云计算大会(HCC2015)上,华为联合QLogic基于25Gb以太网技术联合发布了横向扩展文件存储系统。通过收购博通的NS2技术,QLogic在以太网市场的占有率达到了26%之多。华为存储产品线副总裁肖苡在接受媒体采访时认为,未来高端存储介质将走向SSD,海量数据必然会影响企业数据存储的架构,数据中心横向扩展将面临更大的挑战。数据中心建设对以太网技术的要求也从10Gb这个量级提高到100Gb的量级。QLogic亚太区资深首席产品经理陈介颂在演讲中表示,25Gb技术将使带宽和性能提升25倍,同时端口成本降低50%,通过线性扩展系统整体带宽可达400GB/s,这对高负载I/O的用户来说是一个令人眼前一亮的提升。此外,采用RoCE协议也大大降低了CPU负载和网络延时。当然,这些高性能需要华为硬件设备的支撑。
华为企业核心网解决方案总经理杨军在接受媒体采访时表示,企业云通信在快速增长,占比将从2015年的20%增长到2019年的50%,市场规模超过200亿元。华为企业云通信支持SaaS和PaaS两个层面的服务,企业可以在公有云或者自己的私有云上部署。作为较早支持NFV的厂商,华为凭借长期以来运营商市场的经验,可以通过定制化解决系统对接、集成和升级等等问题。华为企业BG UC&C MKT与解决方案销售部部长林明则指出,随着互联网服务的边界越来越模糊,未来云通信的发展将基于统一的基础,通信的可靠性、稳定性需求会越来越高,针对横向扩展的问题,目前的SDK是一个过渡方案。华为做的事情总结起来有两点,即向上开放API,向下开放SDK。
当笔者问到对容器技术的支持时,华为云计算首席架构师顾炯炯表示,随着IT业务越来越互联网化,应用d性问题其实并没有非常好的被解决。华为会考虑将 Docker 与OpenStack相结合,华为有一个开源项目作为Docker调度与编排的引擎,可以实现在基础设施层面对容器管理的自动化。这跟OpenStack基础设施云服务形成一个优势互补整体解决方案。因此,容器与 微服务 将在未来一段时间呈现并存的关系。当笔者追问华为容器云服务的进展时,顾大师表示今年年底华为将发布一个在线 测试 版的容器服务。OpenStack是一个开源平台,可让你构建在商用硬件上运行的基础架构即服务(IaaS)云。OpenStack背后的技术由一系列项目组成,这些项目为云基础架构解决方案提供了各种组件。它可以处理数据中心内的大量存储和网络资源,既可以作为单独的云,也可以作为外部的公有云。
要管理OpenStack云基础架构,需要管理各个云服务的配置。OpenStack的主要优势在于它的水平可伸缩性,因此添加网络和存储可随着时间的推移来扩展云更加方便。
云可伸缩性的关键部分是建立和运行云,并因此进行扩展所需的时间价值,以及降低运营成本。为此,需要一个集成了配置管理系统的自动化部署和配置基础结构。许多开源工具可用于安装,管理和运行OpenStack云。
Chef是一个自动化框架,无论基础结构如何,它都可以轻松地将服务器和应用程序设置到任何实际,虚拟或云中。Chef是仅专注于其开发者用户群的产品。
它使用Ruby作为一种编程语言,并包含一个可搜索的门户,可以在其中获取社区贡献的技术。Chef自动执行管理配置,以确保正确且一致地配置系统。
Chef具有基于代理的架构,该架构在由中央主代理领导的情况下涉及每个VM或服务器实例上的客户端。Chef还以大量cookbook和文档形式获得广泛支持。它的一些功能包括:
Ansible是基础结构自动化工具,它支持配置系统,部署软件以及设置更高级的IT密集型任务,例如在安装更新时保持一致的部署和零停机时间。Ansible OpenStack模块可用于管理各种云 *** 作。
Ansible不仅仅是简单的部署。Ansible的主要目标是简单和易用。它进一步着重于安全性和可靠性。Ansible提供了用于设置和管理OpenStack的强大工具-可以配置,配置和部署应用程序,并且可以在云之上运行。
它基于简单的无代理架构,因此无需在安装前配置VM或工作站。Ansible通常可以通过命令行与他们合作。它的一些功能包括:
Fuel是系统管理员基于GUI的工具,用于设置和管理OpenStack云。Fuel是OpenStack的上游项目,专注于自动化OpenStack和一系列第三方选项的部署和测试。
Fuel自动检测从网格连接的所有虚拟节点。它由几个单独的组件组成。某些组件也可以与Fuel分开单独使用,而无需进行任何修改,而某些组件的调整很少。以下是其一些功能。
Puppet可以在整个生命周期内计划,升级和管理节点。所有模块和配置均使用基于Ruby或Ruby本身的特定于Puppet的语言来制作,因此,将需要编程专家来扩展系统管理技能。它涉及Web UI和报告工具。
Puppet Enterprise允许使用主服务器上存在的预构建模块对节点进行实时管理。报告工具得到了全面的开发,提供了有关代理如何执行以及进行了哪些更改的深入详细信息。它的一些功能包括:
Compass用于OpenStack的自动化部署和管理。它降低了复杂性,并控制了数据中心服务器管理中的各种错误。它支持从裸机金属节点引导与任何云平台相关的服务器池。
Compass可协助系统管理员确定硬件,部署 *** 作系统和管理程序,并提供全面的配置管理。其他一些功能如下。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)