(文章来源:OFweek)
在过去的几年中,许多存储技术和市场都处于酝酿状态,最近企业级存储系统开始使用SCM存储级内存技术的消息越来越多,与以往不同的是,SCM不只是用作读写缓存,而且还用在持久存储层。那么这项技术将对存储行业产生多大的影响呢?
在理想中,它是一种速度能与DRAM 媲美,但成本逼近传统硬盘的新型储存技术。当然目前大概只有读取速度能与DRAM 比肩,写入速度仍有差距,且在SSD 的单位成本已逼近传统硬盘的境况下,SCM 还没有足够的性价比做为底层储存装置。在现有AFA存储系统中,为追求NVMe SSD的极致性能,软件栈本身带来的时延已经无法忽略 。
相比SSD,SCM介质的访问时延有几个数量级的差异(从数百微秒级到数百纳秒级),软件栈时延的问题将更为凸显。如传统的从应用到内核的软件栈对功能的分解层级清晰,对于慢速的存储介质是合适的,但对于SCM这样的超高速介质则成为了速度的瓶颈。基于同样的原因,网络时延在SCM系统中的占比也成为了影响系统时延的主要矛盾。如何构建高速、稳定的网络,成为了能否在系统中充分利用SCM介质性能的关键因素。
存储级存储器SCM能够如同NAND闪存一样保留其内容的能力,也能有像DRAM一样的的速度,这使得它最终将取代闪存作为首选的高速存储介质。由于闪存的固有设计,SCM在这块要好很多。性能问题和闪存延迟的最大原因之一是使用垃圾收集以满足新写入。将数据写入闪存驱动器时,无法覆盖旧信息。它必须在其他地方写入一个新数据块,并在磁盘I / O暂停时删除旧文件。
基于NVMe/PCIe的字节寻址的非易失性存储打开了存储架构创新的新篇章。SCM通常被用作扩展的Cache或者最高性能TIer的持久化存储。所以大多数情况下,SCM的定位是补充NAND的空缺,而不是取代NAND。HPE宣布将采用英特尔的Optane作为DRAM cache的扩展,从HPE 3Par 3D Cache的测试数据中可见,时延降低了50%,而IO提升了80%。
SCM技术的目标及潜力都在于能弭平DRAM 与SSD 读写速度的鸿沟。理论上,现代资讯系统由于内装置性能的落差徒增不少功耗,资料往返所耗费的时间,成为整体性能的短板,所以在处理器与记忆体之间设有暂存器及快取等,而引入SCM 做为记忆体缓冲或SSD 快取,也都是为了解决这样的问题。
大体上SCM有两种用法:一种是用作缓存,一种是用作持久存储。①HPE把SCM用作缓存,从实现来看,这种方式的读写缓存实现起来相对比较简单。据说3PAR和Nimble的延迟能保持在300μs微秒以下,绝大部分的IO延迟能维持在200μs以下。HPE在3PAR里用了Optane当做缓存用,结果延迟比之前降低了两倍,还说比DELL EMC的用了NVMe SSD的PoweMAX还要快50%。
②大部分的SCM现在都是用作缓存,跟HPE不一样,DELL EMC的PowerMAX是把SCM用作了存储层。PoweMAX用一个低延迟的NVMe - oF连接到服务器,因为有了SCM,所以数据访问会快一点 。在PowerMAX的实现中,每个端口都会被充分利用,每个端口有自己单独的队列,能处理更多IO,PowerMAX能分别为读、写和小的块请求、大的块请求,各种负载提供独立的队列。
而且不同的端口可配置不同的控制器,RAID会更高效,比如当硬盘故障需要重构时,两个控制器可以同时参与。以往,单控制器重构一块7200转的硬盘大概需要7-8个小时,而双控制器 *** 作时,只需2.5个小时,时间缩短了三倍。
(责任编辑:fqj)
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)