(文章来源:安防知识网)
Nature Electronics 期刊上发表的一篇论文中,IBM 研究人员描述了这种新的 “混合精度内存计算” 方法。根据IBM Research 的说法,这种内存计算新方法,可以为微软和谷歌寻求的高性能和机器学习应用的硬件加速提供答案。该方法被称为“混合精度内存计算”。
据 IBM 称,这种被称为 “冯·诺依曼” 的体系结构设计,为数据分析和机器学习应用制造了一个瓶颈,这些应用需要在处理单元和内存单元之间进行更大的数据传输,传输数据也是一个耗能的过程。为应对这一挑战,IBM 给出的一种方法是模拟相变内存(PCM)芯片,该芯片目前还处于原型阶段,500 万个纳米级 PCM 器件组成 500×2000 交叉阵列。
据 IBM 称,研究表明在某些情况下,其 PCM 芯片能够以模拟的方式进行 *** 作,执行计算任务,并提供与 4 位 FPGA 存储器芯片相当的准确度,但能耗降低了 80 倍。
模拟 PCM 硬件并不适合高精度计算。所幸的是,数字型 CPU 和 GPU 是适合的,IBM 认为混合架构可以实现更高性能、更高效率和更高精度的平衡。这种设计将大部分处理留给内存,然后将较轻的负载交给 CPU 进行一系列的精度修正。
根据 IBM 苏黎世实验室的电气工程师、也是该论文的主要作者 Manuel Le Gallo 称,这种设计有助于云中的认知计算,有助于释放对高性能计算机的访问。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)