浪潮信息为什么选择发力高端存储?

浪潮信息为什么选择发力高端存储?,第1张

浪潮信息对自身、对产品都有着更高的要求,虽然业界普遍认为,选择高端存储就好比选择“从北坡攀登珠峰”,充满困难与挑战,但浪潮信息还是早在2015年就锁定高端存储赛道,并坚守高端品质推动存储产品快速迭代,完成多次存储全平台升级。事实证明,浪潮信息的眼光是极其精准的,目前各行各业对高品质数据基础设施的需求持续增长,而浪潮信息高端统一存储产品已在金融、通信、能源等领域广泛应用,得到了市场的充分认可。

虚拟化、云计算、大数据是否会改变高端存储技术与应用的发展之路?比较各主流厂商已经推出的高端存储产品以及云存储产品,我们已经可以摸清高端存储未来的发展脉搏:集成化、智能化、高可扩展性、低成本是创新的核心。

无论是构建大型私有云系统,还是公共云系统,毫无疑问都需要更加庞大、集成度高、智能化、扩展灵活以及整体拥有成本更低的存储系统。这将在某种程度上刺激高端存储的快速发展。事实证明,在云计算时代来临之际,包括EMC、惠普、HDS、IBM、戴尔、NetApp等在内的许多存储厂商已经积极行动起来,在高端存储上进行了多种创新,并逐渐向云计算靠拢。
换个角度看高端存储
IDC预测,到2012年,全球85%的新应用将会针对云环境进行特别设计。虚拟化和云应用的敏捷性需要通过将多个存储系统连为一体而实现。存储的融合可减少不必要的虚拟化设备层,从而达到简化数据中心架构,降低采购和管理成本以及业务风险的目标。
惠普亚太及日本地区副总裁、存储产品部总经理Mike Prieto表示:“20年前的存储系统架构并非为动态的IT即服务而设计,它迫使企业采用昂贵且效率低下的插件式虚拟化方式。今天,适合云计算需求的存储一定要能够应对不间断的、不可预测的、多租户的环境,同时还可以提高效率,降低成本,实现智能化的管理。”
对于高端存储来说,大容量、高性能固然重要,但是面对多变的业务需求、无处不在的风险以及迅猛增加的数据量,企业更需要从业务的角度出发去考虑存储系统的构建。日立数据系统(HDS)提出的存储经济学的理论为用户采购和部署存储系统提供了一个新思路。存储经济学的核心是,用户应该站在整个数据中心的角度去考虑存储的部署,并以高效、低成本和节能环保为衡量指标。
将虚拟化进行到底
虚拟化是实现云计算目标的必经之路。IBM、EMC、HDS、惠普等都将虚拟化技术作为高端存储发展的根基。IBM系统与科技部存储产品部大中华区总经理黄建新表示:“新型企业数据中心将是虚拟化和高效管理的中心。企业将使用以Web为中心的云所采用的某些工具和技术,通过高效且共享的基础架构,对新的业务需求迅速做出反应,实时解析大量信息,同时根据实时数据做出明智的业务决策。”IBM XIV存储系统、EMC Symmetrix VMAXe、HDS VSP等都以存储虚拟化技术为依托,并且不断对虚拟化技术进行改进。
满足云计算应用需求的高端存储应该具备以下特征:具有强大的横向扩展能力,这对于应对不可预见的存储增长以及存储资源的灵活分配具有十分重要的意义;具有分层存储能力可以实现存储的优化,进而降低存储的整体拥有成本;具有高级的智能化管理功能,可以简化存储的架构和管理,方便 *** 作,软件在其中起到了十分重要的作用;具有其他高端功能,比如精简配置功能、本地及远程复制技术、虚拟化功能等。
技术、市场双提升
过去,高端存储市场的发展一直平较平稳。随着云计算、大数据等概念的兴起,高端存储技术面临着加速创新的挑战,而高端存储市场的竞争也在逐渐加剧。一方面,存储厂商加大了自主研发的力度;另一方面,包括EMC、IBM、惠普、戴尔等在内的厂商开始大肆并购,惠普收购3PAR、戴尔收购Compellent就是例证。当前,大多数存储厂商将主要精力放在私有云上,但是随着人们对云计算应用的接受程度逐渐提高,高端存储将在公有云方面有更多用武之地。云计算时代的到来还促进了厂商之间的联合,比如EMC与VMware、思科联合推出了Vblock云计算方案,NetApp与VMware、思科联合推出了FlexPod云计算方案。进入云计算时代,高端存储的创新将走向深入。
高端存储也需要细分
历史沿革
多年以来,EMC Symmetrix系列一直是高端存储市场的风向标。从1990年EMC推出第一款集成缓存磁盘阵列Symmetrix 4400到开创企业级存储新定义的Symmetrix 8000,从采用创新性的直连矩阵体系架构的Symmetrix DMX-1到专为虚拟数据中心构建的Symmetrix VMAX,Symmetrix以持续的技术创新一直引领着高端存储的技术发展潮流。
基于直连矩阵体系架构的Symmetrix DMX系列,经过4代的发展,在容量、性能、安全性、简化管理、分层存储、虚拟化等方面已经到达了一定的高度。进入云计算时代,全新的Symmetrix VMAX系列已经超越了Symmetrix DMX系列的高度。
基于虚拟矩阵架构的Symmetrix VMAX存储系统成了虚拟数据中心的存储核心。它凭借基于虚拟化的大量新增功能以及FAST(全自动存储分级)技术等,在不断增强系统整体性能的同时,还能大大简化存储系统的配置 *** 作。
2011年7月,EMC推出了Symmetrix VMAX的入门级产品Symmetrix VMAXe,进一步拓展了EMC高端存储的覆盖面。
技术亮点
作为高效、可信、智能的存储典范,Symmetrix VMAXe被EMC当成加速企业云之旅的重要工具。
Symmetrix VMAXe是为虚拟化、云计算和关键任务IT环境设计的产品。它采用与Symmetrix VMAX相同的虚拟矩阵架构和创新的软件。
Symmetrix VMAXe采用新的基于英特尔多核处理器的引擎设计和密集封装,使用单相电源,最多可以扩展至4个引擎,支持超过1000个硬盘和闪存盘。Symmetrix VMAXe还支持FAST VP(支持虚拟池的全自动存储分层)和EMC TimeFinder本地复制软件,其内置的EMC虚拟配置(Virtual Provisioning)软件可以让用户在几分钟内完成Symmetrix VMAXe的配置。
Symmetrix VMAXe系统还实现了与EMC RecoverPoint复制软件的内置集成,可在VMAXe与EMC其他的存储产品或非EMC的存储系统之间实现连续数据保护(CDP)以及连续本地复制(CLR)和连续远程复制(CRR)。
Symmetrix VMAXe提供领先的简化虚拟计算环境管理的软件,包括EMC Symmetrix管理控制台、性能分析器和EMC PowerPath SE自动路径故障转移软件,可以提高系统的可用性。
随着云计算应用的逐渐普及,数据量迅速增加。在技术人员、数据中心空间和预算有限的情况下,企业在存储和管理数据方面的负担越来越重。
Symmetrix VMAXe可以提供更高的存储自动化水平、简化的管理和配置、可扩展的性能以及本地及远程复制功能,并且可以支持成千上万个虚拟机,从而帮助企业更好地应对云计算的挑战。
公用存储变身融合存储
历史沿革
十多年前,3PAR公司已经拥有了公用存储,而公用存储与今天人们津津乐道的云存储可谓一脉相承。随着2010年底惠普成功收购3PAR,3PAR公用存储变成了惠普开拓高端存储以及云存储市场最有力的武器。
惠普拥有完整的传统存储产品线,包括低端的MSA系列、中端的EVA系列以及高端的XP系列。在收购3PAR并积极转向云存储之后,惠普仍然保留了MSA、EVA、XP等传统存储产品线,只是将所有存储产品进行了重新命名。从市场宣传到渠道推广再到行业应用,3PAR云存储无疑成了惠普存储的重中之重。
与由MSA、EVA、XP组成的传统存储产品线不同,由HP 3PAR、HP LeftHand、HP IBRIX等这些收购来的产品组成的存储产品线表明,惠普在迎接云计算、非结构化数据处理、iSCSI存储这些全新挑战时能够随需应变。
HP 3PAR云存储是惠普融合存储战略的一个重要棋子。2011年9月,惠普在推出全新的HP P10000 3PAR V系列存储系统的同时,还发布了HP Peer Motion存储软件。HP Peer Motion适用于HP LeftHand和3PAR存储系统。在虚拟化和云计算环境中,HP Peer Motion可以在磁盘系统间灵活实现应用负载的转移和透明监控。
技术亮点
HP P10000 3PAR V存储系统是惠普收购3PAR后首次推出的新产品。HP P10000 3PAR V系列包括两个型号――V400和V800。从最早的F系列到T系列再到现在的V系列,HP 3PAR在中高端存储这一产品段变得更加完善。
HP P10000 3PAR V系列是一款功能强大的关键业务存储系统,能在单个高性能存储系统上同时支持不可预测的和多租户的工作负载。在云计算时代,工作负载的多样性和不可预见性对用户来说是一个应用难题。HP P10000 3PAR V采用的Gen4 ASIC设计以及强大的横向扩展能力和联合工作负载均衡功能,能够保证在不影响整个系统生产效率的情况下无中断地重新分配工作负载,从而有效应对不可预测的环境。当系统资源增加时,用户可一键实现存储系统内所有数据的均衡,从而提升存储系统中所有卷的性能和可用性。
全球许多知名的公有云服务提供商都采用了HP 3PAR云存储系统,其中一个很重要的原因是,HP 3PAR可以支持多租户的应用环境,有效保证多个不同租户的安全。HP P10000 3PAR V提供的端口连接数量和磁盘资源是上一代3PAR系统的15倍,性能提高3倍。
HP 3PAR系列是最早采用自动精简配置技术的。它不仅可以实现自动精简,而且可以实现持续精简和存储空间的回收。HP P10000 3PAR V创新的Fat-to-Thin功能,可以让客户快速地把数据转移到更高效的精简配置卷上,从而提高容量利用率。它还采用了全新的“纳米回收”引擎,能够以小增量的方式验证并回收未用的存储空间。
存储平台迈入三维扩展时代
历史沿革
日立数据系统(HDS)在存储方面最核心的技术是虚拟化。从中端存储产品(甚至包括一些入门级产品)到企业级的高端存储产品,HDS一直将虚拟化技术贯穿始终。虚拟化是云计算的第一步。HDS从存储虚拟化走到云存储,可以说是水到渠成。与惠普、IBM等厂商同时拥有传统存储产品与云存储两条相对独立的产品线不同,从传统存储到云存储,HDS是一条线贯穿,底层技术的核心仍然是虚拟化,只不过在其上又增加了许多符合云应用需求的技术和功能,比如三维扩展功能以及智能管理技术等。
从具有代表性的传统的高端存储Hitachi Universal Storage Platform(USP)和Hitachi Universal Storage Platform V(USP V)发展到Hitachi Virtual Storage Platform(VSP),HDS在存储虚拟化技术方面不断革新,而VSP带来的三维扩展的理念引领了高端存储的发展潮流。2011年初,HDS又推出了创新的云计算方案――Hitachi Unified Compute Platform (UCP),从而完成了从存储平台向云计算平台的过渡。
技术亮点
VSP是HDS从传统存储向云计算过渡的一个转折性产品。VSP的最大创新之处在于首次提出了三维扩展的理念。
VSP具有允许单一存储系统同时进行纵向、横向和纵深扩展的能力,可以灵活满足用户对性能、容量、连接性和虚拟化的需求。具体来说,纵向扩展即在单一单元中增加处理器、连接性和容量,从而优化开放系统与大型机环境的性能;横向扩展存储系统可以满足不断提升的服务器对计算能力和容量的需求;纵深扩展即通过虚拟化将先进功能扩展至多厂商的存储环境,从而提高存储资产的投资回报率。
三维扩展带来的另一个重要改变是Hitachi Command Suite管理工具集的应用。Hitachi Command Suite可以智能化地对由虚拟机、主机服务器、网络和存储构成的整个虚拟数据基础设施进行管理。它不仅可以从存储的角度进行管理,而且可以从所有数据存储层的业务应用角度进行统一管理。
VSP通过采用基于控制器的存储虚拟化、动态预配置和单一界面管理等高效技术,可以帮助企业解决紧迫的业务问题,同时降低总体拥有成本。VSP的高密度设计可以让用户更加有效地利用能源、冷却系统和基础设施,减少能耗和占地空间。
与USP V相比,VSP的密度提高40%,能耗降低40%,其动态预配置功能可将存储系统的利用率提高40%,总体拥有成本降低20%~35%。
横向扩展与智能化缺一不可
历史沿革
IBM拥有一条非常完整的传统存储产品线――DS系列,其中的高端存储产品是DS8000系列。2008年,IBM收购了以色列的XIV公司,从而获得了区别于DS8000的一个新的高端存储系列产品XIV。那时,云计算、大数据这些概念还没有出现。基于独特的网格存储架构的XIV与IBM DS产品家族放在一起,让人感觉有些另类。
现在回过头来再看IBM对XIV的收购,我们不得不佩服IBM有先见之明。如今在企业级存储领域,XIV已经可以与DS8000并驾齐驱,两者可以实现优势互补。DS8000可以满足传统用户对于大容量、高性能的需求,而XIV可以满足企业级客户对存储的横向扩展能力以及智能化管理的需求。
XIV凭借自身在网格存储、虚拟化、智能化以及横向扩展方面的独特优势,可以更好地满足云计算用户的需求。
技术亮点
IBM XIV是一种多用途的高端磁盘存储解决方案,其创新的网格架构能为客户提供卓越的性能和高可扩展性,同时又能大大降低成本和复杂性。
IBM XIV包含自动化数据部署功能,并且内置虚拟化和精简配置功能,可以在不影响系统性能的情况下提高整个系统的利用率。IBM已在全球范围内交付了4500多套XIV系统。
IBM第三代XIV存储系统的速度与前一代产品相比提高了4倍,同时还配备了改良型的管理软件,使用起来更加简单。第三代XIV可以优化数据库、电子邮件、联机事务处理和ERP等多种应用的存储性能。
凭借虚拟化的网格架构,第三代XIV可以更好地支持虚拟服务器环境。据IBM的统计,目前超过70%的XIV系统运行着VMware工作负载。此外,IBM第三代XIV还擅长处理与日俱增的大数据信息。
IBM第三代XIV在技术方面的改进主要包括以下几方面:支持InfiniBand和8Gbps FC端口,具有更大的内存容量;具有增强的集中式XIV多系统管理功能;新增的用于VMware vCenter服务器的可免费下载的XIV Plugin v25插件,能够提供与XIV、IBM Storwize V7000和IBM SAN Volume Controller(SVC)相关的信息。
IBM第三代XIV还可以支持固态硬盘(SSD),为计算密集型工作负载增加多达75TB的内存容量。
IBM XIV已经被整合到了IBM的产品组合之中。目前,IBM XIV可以支持多款IBM产品,包括IBM SVC、IBM Tivoli Storage Productivity Center、FlashCopy Manager、ProtecTIER重复数据删除技术以及IBM 高扩展型网络连接存储(SONAS)和IBM SmartCloud。

最佳回答:回答是:在一般情况下,传统集中式数据利用高端硬件设备保证数据可靠性对。3394
1 传统集中式数据库面临的挑战
优势:
成熟稳定:经过近40年的发展,应用到了几乎所有的行业,已经被打磨的非常成熟稳定,生态很完善;
行业适配性强:适配不同行业的各种需求;
生态完善:拥有大量的ISV应用开发商和技术开发者,技术生态、产业生态和人才生态都很完善。
的差异
1 数据库是核心的IT基础设施
在这里插入描述
• 互联网业务增长,带动核心系统升级
• 核心系统引入数据库分布式与云化改造,支撑横向平滑扩展
在这里插入描述
• 5G规模推广,带动IT系统升级
• 5G具备大带宽和超低延时等能力,需要数据库系统提升响应速度和并发能力
在这里插入描述
• 打造智慧政府
• 实现智慧政府为目标的“互联网+”业务构建,对于数据库的性能和扩展提出了更高的要求
2 传统集中式数据库面临的挑战
21 传统数据库架构
在这里插入描述
22 优势
• 成熟稳定:经过近40年的发展,应用到各行各业,产品技术非常成熟稳定
• 行业适配性强:适配不同行业的各种需求
• 生态完善:拥有大量的ISV应用开发商和技术开发者,技术生态、产业生态和人才生态都很完善
23 劣势
成本高:自身软件售价高,同时依托于高端硬件,CAPEX和OPEX成本高昂
无法横向扩展:容量的提升只能依靠提升设备自身的性能(增加CPU/内存/硬盘,或从PC服务器升级为小型机等),一定能碰到单点的上限
3 使用数据库中间件的分库分表方案依然有短板
在这里插入描述
• 使用通用的数据库,可以实现数据库线性的扩容;
• 数据库是单点数据库,数据库之间没有联系,不知道其他数据库的存在,依靠中间件完成需要跨库的事务;
• 数据库中间件连接各个数据库,实现分库分表。
31 优势
线性扩展:通过分库分表,可以快速实现数据库的水平扩展
技术成本低:不需要改造核心数据库引擎,或者只需要做很少的改造
32 劣势
跨库分布式事务:数据库核心引擎没有分布式能力,只能通过中间件来完成分布式处理,但中间件难以做到RPO=0,因此在遇到异常和故障时无法100%保证分布式事务的ACID能力
全局一致性:由于多个数据库服务器的时间戳不一致,因此很难保证多个库之间数据版本号的全局一致性
负载均衡:扩容和缩容时,底层数据库引擎无法在线调整数据分布规则,因此需要暂停业务并重新导数据,对业务和运维挑战很大
跨库复杂SQL:跨库的复杂SQL运算(比如多表做分片键无关的关联查询)只能在中间件完成,而中间件不具备分布式并行计算能力,最终会限制应用对SQL的使用,产生业务侵入性
4 原生的分布式关系型数据库架构
在这里插入描述
41 优势
数据高可靠+服务高可用:多副本一致性协议Paxos的工业级实现,个别节点发生故障时保证数据零丢失(RPO=0)和服务快速恢复(RTO<30秒)
线性扩容:随着业务量增加进行扩容(比如线上促销期间),随着业务量减少进行缩容(比如促销后)
低成本:基于普通X86服务器保证高可用性,无需使用高端小型机和存储
全局一致性:支持分布式事务,确保全局一致性,支持分布式复杂查询灵活的部署方式:支持三中心、五中心、主备等多种部署模式
对业务透明:业务系统可以像使用单点数据库一样使用分布式数据库,业务迁移改造成本低
5 OceanBase和传统数据库的对比
传统集中式数据库 以OceanBase为代表的分布式数据库
产品架构 经典的“单点集中式”架构,采用“全共享(Share-Everything)”架构。构建于高端的硬件基础之上,比如IBM高端服务器和EMC高端存储设备等 原生的“分布式”数据库,采用业界最严格的Paxos分布式一致性协议基于普通PC硬件的设计,不需要高端硬件
数据可靠性和服务高可用性 利用高端硬件设备保证数据可靠性采用“主从复制”,主节点故障的情况下,会有数据损失(RPO>0);不能自动恢复服务,服务恢复时间(RTO)通常以小时为单位计算 以普通PC硬件为基础,利用Paxos分布式一致性协议保证数据可靠性
主节点故障的情况下,Paxos可以保证数据无损(即RPO=0),并且自动选举并恢复服务,服务恢复时间(RTO)在30秒以内
扩展性 数据存储只能在单点内实现纵向扩展,最终必然触达单点架构下的容量上限。计算节点通常无法扩展。少数模式下(如RAC,pureScale)可做计算节点扩展,但多个计算节点之间仍需访问单点共享存储,并且可扩展的计算节点数量有限 数据节点和计算节点均可以在MPP架构下实现水平扩展数据节点和计算节点均没有数量限制,在网络带宽足够的前提下,可以扩充至任意数目
应用场景 集中在企业客户(金融、电信、政企等)的核心系统,无法应付互联网业务场景,应用案例很少 支付宝核心、网商银行核心、阿里巴巴的众多业务,以及多家外部商业银行。逐渐迈向传统业务
使用成本 比较昂贵,需要支付高端基础硬件的费用、高昂的软件授权费用以及产品服务费用 相对较低,基于PC硬件的设计降低了硬件费用,软件授权费用和服务费用也有优势
6 小结
传统集中式数据库经过近40年的发展,已经非常成熟。但在当前这个大数据的时代,传统数据库依然面临较多挑战,分布式数据库可以有效解决这些问题,是未来数据库发展的重点方向
1:传统数据库往往对硬件基础设施有较高要求,同时只能纵向扩展,无法横向扩展,容易达到性能上限;
2:分库分表虽然可以横向扩展了,但也有带来了不支持复杂SQL、较难保证分布式事务的ACID等新问题;
3:分布式数据库可以有效解决这些问题,应用可以像使用集中式数据库一样使用分布式数据库,分布式数据库具有低硬件成本、高可扩展性、高可用性等特性。
文章知识点与官方知识档案匹配
云原生入门技能树首页概览
8775 人正在系统学习中
点击
劣势:

大数据之大大是相对而言的概念。例如,对于像SAPHANA那样的内存数据库来说,2TB可能就已经是大容量了;而对于像谷歌这样的搜索引擎,EB的数据量才能称得上是大数据。大也是一个迅速变化的概念。HDS在2004年发布的USP存储虚拟化平台具备管理32PB

目前存储海量数据的技术主要包括NoSQL、分布式文件系统、和传统关系型数据库。随着互联网行业不断的发展,产生的数据量越来越多,并且这些数据的特点是半结构化和非结构化,数据很可能是不精确的,易变的。这样传统关系型数据库就无法发挥它的优势。因此,目前互联网行业偏向于使用NoSQL和分布式文件系统来存储海量数据。

下面介绍下常用的NoSQL和分布式文件系统。
NoSQL
互联网行业常用的NoSQL有:HBase、MongoDB、Couchbase、LevelDB。

HBase是Apache Hadoop的子项目,理论依据为Google论文 Bigtable: A Distributed Storage System for Structured Data开发的。HBase适合存储半结构化或非结构化的数据。HBase的数据模型是稀疏的、分布式的、持久稳固的多维map。HBase也有行和列的概念,这是与RDBMS相同的地方,但却又不同。HBase底层采用HDFS作为文件系统,具有高可靠性、高性能。

MongoDB是一种支持高性能数据存储的开源文档型数据库。支持嵌入式数据模型以减少对数据库系统的I/O、利用索引实现快速查询,并且嵌入式文档和集合也支持索引,它复制能力被称作复制集(replica set),提供了自动的故障迁移和数据冗余。MongoDB的分片策略将数据分布在服务器集群上。

Couchbase这种NoSQL有三个重要的组件:Couchbase服务器、Couchbase Gateway、Couchbase Lite。Couchbase服务器,支持横向扩展,面向文档的数据库,支持键值 *** 作,类似于SQL查询和内置的全文搜索;Couchbase Gateway提供了用于RESTful和流式访问数据的应用层API。Couchbase Lite是一款面向移动设备和“边缘”系统的嵌入式数据库。Couchbase支持千万级海量数据存储
分布式文件系统
如果针对单个大文件,譬如超过100MB的文件,使用NoSQL存储就不适当了。使用分布式文件系统的优势在于,分布式文件系统隔离底层数据存储和分布的细节,展示给用户的是一个统一的逻辑视图。常用的分布式文件系统有Google File System、HDFS、MooseFS、Ceph、GlusterFS、Lustre等。
相比过去打电话、发短信、用彩铃的“老三样”,移动互联网的发展使得人们可以随时随地通过刷微博、看视频、微信聊天、浏览网页、地图导航、网上购物、外卖订餐等,这些业务的海量数据都构建在大规模网络云资源池之上。当14亿中国人把衣食住行搬上移动互联网的同时,也给网络云资源池带来巨大业务挑战。
首先,用户需求动态变化,传统业务流量主要是端到端模式,较为稳定;而互联网流量易受热点内容牵引,数据流量流向复杂和规模多变:比如双十一购物狂潮,电商平台订单创建峰值达到583万笔,要求通信网络提供高并发支持;又如优酷春节期间有超过23亿人次上网刷剧、抖音拜年短视频增长超10倍,需要通信网络能够灵活扩充带宽。面对用户动态多变的需求,通信网络需要具备快速洞察和响应用户需求的能力,提供高效、d性、智能的数据服务。

“随着通信网络管道十倍百倍加粗、节点数从千万级逐渐跃升至百亿千亿级,如何‘接得住、存得下’海量数据,成为网络云资源池建设面临的巨大考验”,李辉表示。一直以来,作为新数据存储首倡者和引领者,浪潮存储携手通信行业用户,不断 探索 提速通信网络云基础设施的各种姿势。

早在2018年,浪潮存储就参与了通信行业基础设施建设,四年内累计交付约5000套存储产品,涵盖全闪存储、高端存储、分布式存储等明星产品。其中在网络云建设中,浪潮存储已连续两年两次中标全球最大的NFV网络云项目,其中在网络云二期建设中,浪潮存储提供数千节点,为上层网元、应用提供高效数据服务。在最新的NFV三期项目中,浪潮存储也已中标。

能够与通信用户在网络云建设中多次握手,背后是浪潮存储的持续技术投入与创新。浪潮存储6年内投入超30亿研发经费,开发了业界首个“多合一”极简架构的浪潮并行融合存储系统。此存储系统能够统筹管理数千个节点,实现性能、容量线性扩展;同时基于浪潮iTurbo智能加速引擎的智能IO均衡、智能资源调度、智能元数据管理等功能,与自研NVMe SSD闪存盘进行系统级别联调优化,让百万级IO均衡落盘且路径更短,将存储系统性能发挥到极致。

“为了确保全球最大规模的网络云正常上线运行,我们联合用户对存储集群展开了长达数月的魔鬼测试”,浪潮存储工程师表示。网络云的IO以虚拟机数据和上层应用数据为主,浪潮按照每个存储集群支持15000台虚机进行配置,分别对单卷随机读写、顺序写、混合读写以及全系统随机读写的IO、带宽、时延等指标进行了360无死角测试,达到了通信用户提出的单卷、系统性能不低于4万和12万IOPS、时延小于3ms的要求,产品成熟度得到了验证。
以通信行业为例,2020年全国移动互联网接入流量1656亿GB,相当于中国14亿人每人消耗118GB数据;其中春节期间,移动互联网更是创下7天消耗36亿GB数据流量的记录,还“捎带”打了548亿分钟电话、发送212亿条短信……海量实时数据洪流,在网络云资源池(NFV)支撑下收放自如,其中分布式存储平台发挥了作用。如此样板工程,其巨大示范及拉动作用不言而喻。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/13402632.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-07-29
下一篇 2023-07-29

发表评论

登录后才能评论

评论列表(0条)

保存