(文章来源:国际电子商情)
根据市场调研公司Semico Research的预测,FPGA在人工智能应用中的市场规模将在未来4年内以38.4%的年复合增长率高速增长,至2023年达到52亿美元的规模。Achronix Semiconductor公司总裁兼首席执行官Robert Blake日前援引《华尔街日报》的文章称,约有25%的企业愿意选择人工智能或机器学习(AI/ML)以保持企业自身竞争力,未来2年内,会有72%的企业选择布局AI。
但与此同时,AI算法的不断演进,数值精度选择日趋多样性,仅依赖数据格式的转变去降低能耗的方法已接近瓶颈,市场需要更具有高效计算力、高效大带宽数据运送能力和高效丰富储缓存能力的广适应性平台。
为此,Achronix公司专为高带宽应用设计了全新的Speedster7t FPGA系列产品。这个被Robert Blake称之为“公司历史上最令人激动的发布”的产品,具有一个全新二维片上网络(2D NoC)和一个高密度全新机器学习处理器(MLP)模块阵列。通过将FPGA的可编程性与ASIC的布线结构和计算引擎结合在一起,Speedster7t系列产品创造了一类全新的“FPGA +”技术。
Speedster7t器件采用TSMC 7nm FinFET工艺制造,是专为接收来自多个高速来源的大量数据而设计,同时还需要将那些数据分发到可编程片上算法性和处理性单元中,然后以尽可能低的延迟来提供那些结果。Speedster7t系列产品包括高带宽GDDR6接口、400G以太网端口和PCI Express Gen5等接口,所有这一切单元都互相连接以提供ASIC级带宽,同时保留FPGA的完全可编程性。
采用带有DSP引擎的传统FPGA去支持AI/ML应用是业界较为普遍的做法,但Robert Blake认为这种方式得不到高效的数值精度支持,需要消耗额外逻辑和内存资源,性能也受限于FPGA布线,所以他们引入了新的机器学习处理器。
MLP中的大规模可编程计算单元平行阵列是Speedster7t FPGA的核心。作为高度可配置、计算密集型的单元模块,MLP可支持4到24位的整点格式和高效的浮点模式,包括TensorFlow的16位格式,以及可使每个MLP计算引擎加倍的增压块浮点格式。
MLP与嵌入式存储器模块紧密相邻,通过消除传统设计中与FPGA布线相关的延迟,来确保以750 MHz的最高性能将数据传送到MLP。这种高密度计算和高性能数据传输的结合使得处理器逻辑阵列能够提供基于FPGA的最高可用计算能力以每秒万亿次运算数量为单位。
高性能计算和机器学习系统的关键之处,是能为多个数据流提供存储源和缓冲的高片外存储器带宽。作为目前业界唯一支持GDDR6存储器的FPGA,Speedster7t中有多达8个GDDR6控制器,可以支持4Tbps的GDDR6累加带宽,并且以很小的成本就可提供与基于HBM的FPGA等效存储带宽。
Robert Blake说他们对比了HBM2和GDDR6两个方案,得出的判断是目前HBM2和GDDR6性能差不多,但HBM2成本太高,灵活性差,采用GDDR6能够将成本降低一半。除了极高的存储带宽,Speedster7t还拥有多达72个高性能SerDes,可以实现1-112Gbps的速度;带有前向纠错(FEC)的硬件400G以太网MAC支持4x 100G和8x 50G的配置;以及每个控制器有8个或16个通道的硬件PCI Express Gen5控制器。
(责任编辑:fqj)
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)