NFV即Network Functions Virtualization(网络功能虚拟化),就是将传统的CT业务部署到云平台上(云平台是指将物理硬件虚拟化所形成的虚拟机平台,能够承载CT和IT应用),从而实现软硬件解耦合。
NFV的本质: 络设备的IT化和云化
在NFV架构下,以下哪些是IMS切新平台及虚拟化的价值? abc
A 推动TTM大幅下降(Time To Market)
B 降低CAPEX/OPEX
C 提升网络灵活性和开放性
D 增加IMS系统新特性XXXXXXXXX
cordless telephone CT
VXLAN隧道支持跨数据中心建立
SDN云数据中心场景使用VXLAN作为转发隧道,对于BUM报文设备不会向所有的VXLAN隧道泛洪。
VXLAN集中式网关不适合大型的数据中心。
VXLAN隧道支持跨数据中心建立
在SDN云数据中心场景中,AC控制器通过什么协议向underlay网络中的设备下发配置? Netconf
在SDN云网一体化场景中,AC控制器通过什么协议和OpenStack的Neutron实现对接? Restful
BUM(Broadcast 广播,unknown unicast, multicast)报文
01 SDN概述与发展趋势
8SDN网络与传统IP网络的区别?
SDN利用控制转发相互分离从架构上解决根本问题:让网络敏捷起来,更快的部署新业务与快速定位故障点。采用资源集中和统一调度、能力开放的策略;让软件来干硬件的活;
02 DCI: Data Center interconnect, 用于数据中心的互联网络
1什么是DCI?
未来超过80%的业务将部署在云上 我们云数据中心需要基于用户体验进行层次化布局,而网络则需要以数据中心为中心组网进行重构,在这样的大背景下,DCI网络孕育而生。
DCI:Data center interconnect 指的是用于数据中心之间互联的网络,实现以数据中心为中心组网的基础承载网。
2为什么需要新建DCI网络?
高扩展性、低成本 资源丰富 温度适宜等条件使得云数据中心建设位置要求
某运营商新建大型云数据中心与传统骨干网位置不重合
云业务对网络要求
1云计算对时延有非常严格的要求,如跨DC同步计算、虚拟机热迁移等业务要求都在10ms以下
2 DC间流量具有突发性和不均衡性,需采用SDN计数进行实时智能调控,而现有网络复杂。新技术难部署。
------很难重用现有骨干网,需要新建DCI网络。
3给予SDN的DCI方案总览
顶层端到端协同,实现包含DC云与DC承载网的云网资源的一站式提供和端到端业务自动化协同发放。总的来说在多地区 多运营商部署多个数据中心的方式 目前已经成为了互联网行业普遍认可的最有效的解决用户覆盖提高用户业务体验的方案,建设并运营一张安全可靠、可灵活调度的多数据中心互联网络(DCI网络),也成为了各大互联网公司在基础架构方面的工作之重,DCI建成后 可以为宽带 4/3G用户提供更好的访问体验外另一方面可以为互联网公司政府企业客户的云提供给更好的承载服务。
现在DCI面临的实际问题:网络不灵活难以跟住业务快速迭代的步伐、链路利用率较低 以及居高不下的OPEX压力等。华为SDN DCI 整体解决方案可以支撑云数据中心业务的端到端的运营,整体架构包括承载层和控制层,需要在网络基础承载层上引入部署SDN的控制层,
控制层是网络的业务发放管理平台和网络智能控制中心,该层主要功能部件为:
业务发放平台:提供业务自动化入口实现租户业务自助发放以及网络资源状态的可视个运维管理入口
业务协同平台:DCI业务需求分解和DC和IDC的协同实现端到端的跨控制器资源的协同分解
云平台:接受业务发放平台的业务分解,进行DC运业务分解和协同,实现DC的内存储 计算和网络的协同
DC控制器:接受OpenStack业务分解同一控制DC的NVE和VxLAN GW 实现DC内网络自动部署和控制
DCI控制器:接受业务协同平台资源的分解,实现Underlay网络部署的自动化和网络流量的智能优化
流量采集工具、调优策略的输入、流量采集组件可以基于端口TE隧道进行流量采集和分析并提供网络流量可视化界面
DCI骨干网解决方案承载层是租户业务的承载实体负责跨DC网络的连接以及业务宽带和SLA保证,骨干网支持VxLAN技术提供了大二层组网的能力,能够跨越广域网和多个物理DC构建Vdc网络,实现跨区域的资源节点的互备和虚机动态迁移,有效提升了DC云资源的利用效率,骨干网部署业界广泛使用的MPLS TE流量工程技术为租户业务提供端到端的宽带保证,提升了网络资源的利用效率,特别是提供了基于租户和业务的差异化的服务能力,网络承载支持采用Overlay技术,Overlay业务网络基于云业务驱动支持快速的业务开通 Underlay物理网络按需提供网络资源,实现端到端的SLA保障和智能流量的优化,目前IP Core网络中存在如下一些流量调整需求:实现IGW出口、DC出口的流量均衡 降低不同ISP网间费用的结算 提升VIP用户体验 针对这些需求 当前主要依赖于手工调整BGP路由策略 :
1监控链路带宽利用率
2识别出需要调整的流
3基于流制作BGP策略下发给设别
4循环 *** 作,直到流量符合期望目标的要求
4 智能流量调优方案:RR+方案
手工方法不能实时调整,耗时长、配置和维护复杂问题,RR+方案用于解决这问题。
RR+方案在IP core现网中加入SDN Controller,实现集中控制,智能化调优
RR+可以带来什么?
1最大化IGW带宽利用率均衡链路间流量的分布,降低网间结算费用,不同客户提供不同SLA服务
2自动调整流量,取代复杂的手工 *** 作
3基于标准BGP通讯,可以和现网设备平滑兼容。
5什么时PCE+方案 Path Computation Element
路由转发用最短路径算法不考虑带宽,存在利用率低的问题 PCE+为了解决这一问题
PCE+通过在网络中部署PCE server(就是SDN Controller),使用StatefulPCE技术,为 MPLS TE LSP集中算路。
使网络带宽资源使用尽量达到最优。该架构方案中需要新部署的网元是PCE Server,转发设备为 PCE Client。PCE Client需要计算LSP时会向PCE Server发出计算请求,server计算后结果反馈给client,client然后进行LSP隧道建立。
思考:什么是DCI
DCI即Data center interconnect 指的是用于数据中心之间互联的网络 DCI网络正是实现“以数据为中心的中心组网”的基础承载网。
03 文档 SDN网络解决方案
NFV (Network Function Virtulization)采用虚拟化技术,将传统电信设备的软件和硬件解耦,基于通用计算、存储、网络设备实现电信网络功能,提升管理和维护效率,增强系统灵活性
SDN关键特征:集中控制、优化全局效率;开放接口、加快业务上线;网络抽象,屏蔽底层差异
NFV关键特征:上层业务云化, 底层硬件标准化,分层运营,加快业务上线与创新
nfv —> 4-7层
sdn —> 1-3层 物理、数据、网络
SDN主要技术流派:ONF (Open networking foundation), IETF, 大T
PCEP(Path Computation Element Protocol)协议
ONOS --> Open-Source SDN Stack --> ONF
OpenDaylight --> IETF --> Cisco, 基于XML Schema实现SDN
华为是NFV担任职位、贡献文稿最多的Vendor
RAN:无线接入网(Radio Access Network)
可以利用华为私有MSCP(类似OPENFLOW)进行南向设备的控制
基于MBH虚拟接入解决方案,简化运维
01NFV技术概述与发展趋势
1CT当前面临的结构性挑战
增收方面:用户饱和,传统业务下滑
节流方面:CT投入成本下降,IT部分的投入从2002年6%增加到2013年13%,
创新方面:CT界一年5个创新 IT界32000倍
商用速度:CT每个月6个上市 IT每小时12个
什么是NFV?
NFV (Network Function Virtualization) 网络功能虚拟化,ETSI组织下组建的。
希望通过采用通用服务器 交换机和存储设备实现传统电信网络的功能。通过IT的虚拟化技术,许多类型的网络设备可以合并到工业界标准中,servers switchs storages 需要用软件实现网络功能并能在一系列工业标准服务器硬件上运行,可以根据需要迁移,实例化部署在网络的不同位置而不需要部署新设备,需要大容量Server存储和大容量以太网 不同应用以软件形式远程自动部署在统一的基础设施上。
三个关键点:软硬件解耦 开放 自动化
2NFV将IP基因融入电信网络
传统电信网软硬件绑定,更新困难,管理维护困难。采用虚拟化技术和云计算的网络,硬件采用标准的服务器 存储设备和交换机,虚拟化之后 上层业务通过软件形式运行在统一的标准的硬件基础之上 。
虚拟化后的网络好处:易于更新、硬件通用化支持异构,资源归一 简化管理与运维
3NFV正走向成熟
2015~2016年稳步爬升 趋于成熟
1NNFV生态系统:
ETSI在2012年成立了 NFV ISG来研究网络功能虚拟化
随后,涌现了一批NFV的开源组织,比如OPNFV,OpenStack
NFV产业联盟,秉承开发、创新、协同、落地的宗旨,集多长家和合作伙伴进行联合创新,成为开放联盟的引领者。
2NFV框架
NFV框架主要包括3大组件:NFVI、VNF、和MANO解释:
框架中最底层的是硬件,包括计算、存储、和网络资源
往上的云 *** 作系统,完成虚拟化和云化的相关的功能,硬件和云 *** 作系统成为NFVI。
I指的是instruction,设施的意思,这些设都是有VIM来管理。
在往上是虚拟网路功能,比如vIMS提供IMS的语音业务,vEPC提供4G的数据网络功能。
虚拟网络功能由VNFM来管理,提供VNF的声明周期管理。
在往上是网络管理层及网管,网管我们可以配套NFVO进行网络业务生命周期的管理
3NFV三大组件的关键要求
1组件MANO:包括NFVO(网络业务生命周期管理)、VNFM和VIM,
要求VNFM适配不同厂商NFVO和VIM;并且MANO系统(NFVO+VNFM+VIM)应该尽量减少对现有的OSS/BSS的冲击。比如要求MANO支持和现有传统平台(如U2000)的对接
2组件VNF(虚拟化网络功能):要求它可以运行在不同厂商的NFVI;
对应传统的电信业务网络,每个物理网元映射为一个虚拟网元VNF。
3组件NFVI-云 *** 作系统要求优选基于OpenStack的云 *** 作系统
将物理计算/存储/交换网络资源通过虚拟化计算转换为虚拟的计算/存储/交换网络资源
4组件NFVI-硬件
要求它优选具有虚拟化辅助功能的芯片的COTS
同时具备高IOPS与高可靠性的磁阵
低RAID等级的磁阵建议冗余组网
03 FV关键能力
4.高可靠性
应用层、云 *** 作系统层、硬件层都有相应的冗余机制。
应用层高可靠性可以通过主备和负荷分担方式实现主备VM之间的冗余。确保应用层会话0中断,99999%的可用性。
云 *** 作系统的可靠性可以通过虚拟机快速重建冗余机制来实现。
硬件层高可靠性主要通过族化以及物料冗余机制来实现计算、存储、网络等硬件设备的冗余
硬件层、VM层、业务层各层可靠性各自独立,高度互补确保整体可用性。
5高性能
NFV业界最权威的评估公司SPECvirt。华为的FusionSphere性能得分为46,排第一。
呼叫处理方面华为的FusionSphere比第二名的Vmware高17%。
高性能技术的关键技术:NUMA亲和性、CPU绑定、DPDK、透明巨页、虚拟中断优化等
6NFV存在的问题
(1)标准不成熟,技术架构实现上有分歧;
(2)多供应商、集成复杂。
(3)部件兼容性风险大。
(4)NFV工程难度大。
(5)网络功能虚拟化技术滞后
(6)虚拟化可靠性不足。传统电信要求99999%可靠性
1前端本地开发环境需要配置代理:
在项目路径下创建 vueconfigjs ,内容如下:
const path = require('path');
moduleexports = {
// publicPath:'>您需要安装Flash播放器,流媒体服务器软件
基于流协议(RTP / RTSP,MMS,RTMP,等)的流媒体服务器软件的主要功能的视频文件传输到客户端的在线观看,视频采集,压缩,软件接收实时视频流,实时流媒体协议的客户端。
典型的流媒体服务器的Microsoft Windows媒体服务(WMS),它使用MMS协议接收和发送视频使用Windows Media Player(WMP)的前端播放器,RealNetworks公司的Helix服务器,RTP / RTSP协议,接收和发送视频播放器的前端,Adobe公司的Flash媒体服务器使用RTMP(RTMPT / RTMPE / RTMPS)协议接收和发送视频,Real播放器,Flash播放器,播放器的前端。这是值得注意的,Adobe公司的Flash播放器(点击官方数据的普及的闪存播放器安装容量已达到99%以上),越来越多的网络视频开始到使用Flash播放器的播放器前端,所以越来越多的企业开始采用Flash播放器兼容的流媒体服务器,并开始消除其他类型的流媒体服务器。 Flash播放器,除了Adobe Flash媒体服务器,流媒体服务器有一个用Java编写的名为Red5的开源软件,在中国制造的有一个叫Ultrant的Flash Media Server的软件,说是很不错的,最新版本的到版本187,可以下载一个免费的社区版。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)