但不要指望它会很快出现在PC中。
Grace以具有开创性的计算机科学家Grace Hopper的名字命名,是NVIDIA的第一个数据中心CPU,主要用于AI超级计算和自然语言处理等大量工作负载。
它由ARM Neoverse内核提供支持,并将与公司最新的GPU技术紧密集成。
根据NVIDIA的说法,与x86 DGXTM机器相比,采用Grace技术的系统在训练具有一万亿个参数的自然语言处理(NLP)模型时要快十倍。
与Apple相似,NVIDIA在这一点上可能已经达到了当前x86硬件的极限,因此唯一的选择就是将事情掌握在自己手中。
NVIDIA创始人兼首席执行官黄仁勋(Jensen Huang)在一份声明中说:“领先的AI和数据科学正在将当今的计算机体系结构推向极限之外-处理不可思议的数据量。
” “结合GPU和DPU,Grace为我们提供了第三种基础计算技术,并具有重新构造数据中心以推进AI的能力。
NVIDIA现在是一家三芯片公司。
”瑞士国家超级计算中心(CSCS)和美国能源部的洛斯阿拉莫斯国家实验室都宣布了计划推出采用Grace技术的系统。
在CSCS上,它将是新的Alps超级计算机的核心,该超级计算机将由Hewlett Packard Enterprise制造。
两家公司都计划在2023年推出其Grace系统,届时其他客户也将广泛使用该系统。
Grace系统将严重依赖NVIDIA的NVLink技术,该技术将能够在其CPU和GPU之间提供900 GB / s的速度。
NVIDIA声称这比当今领先的服务器快30倍。
而且由于有了LPDDR5x内存,Grace机器的能源效率将提高10倍,并提供DDR4 RAM两倍的带宽。
在对英特尔的又一打击中,NVIDIA还宣布与Amazon Web Services建立合作伙伴关系,以将其GPU与AWS的基于ARM的Graviton2处理器结合在一起。
这种安排表明了公司的灵活性,而提升另一个基于ARM的处理器只会给英特尔带来更大的伤害。
该公司表示,那些由NVIDIA驱动的AWS实例将能够在本地运行Android游戏,并将游戏流式传输到移动设备并加速渲染和编码。
对于那些需要投入基于ARM的高性能计算(HPC)的人们,NVIDIA还发布了ARM HPC开发人员工具包(上述)。
它具有一个Ampere Altra CPU(具有80个ARM Neoverse内核);两个NVIDIA A100 GPU和两个NVIDIA BlueField-2 DPU,可加快网络,安全性和存储速度。
早期的客户包括橡树岭国家实验室,洛斯阿拉莫斯国家实验室和台湾国家高性能计算中心。
鉴于节能型超级计算机的重要性日益提高,Grace拥有比NVIDIA最新的基于ARM的硬件Tegra片上系统更迅速成功的能力。
该产品最终在Nintendo Switch和NVIDIA Drive汽车计算机中。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)