为下一代汽车应用场景提供响应最快和能效最高的神经网络加速功能
ImaginaTIon Technologies宣布推出面向先进驾驶辅助系统(ADAS)和自动驾驶应用的新一代神经网络加速(NNA)产品IMG Series4。Series4可为领先的汽车行业颠覆者、一级供应商、整车厂(OEM)和汽车系统级芯片(SoC)厂商提供强大助力。
Series4拥有全新的多核架构,可提供600 TOPS(每秒万亿次 *** 作)甚至更高的超高性能,并且可为大型神经网络工作负载提供低带宽和极低的延迟。
汽车行业正处于变革的风口浪尖,自动驾驶汽车和自动驾驶出租车等新的应用场景对人工智能(AI)的性能水平提出了更高的要求。为此,ImaginaTIon已经与汽车行业和其他重视功能安全的行业中的领先企业和创新者展开了合作。
Series4已经开始提供授权,并将于2020年12月在市场上全面供应。
ImaginaTIon的低功耗NNA架构旨在执行完整的网络推理,同时满足功能安全要求。它可以一次执行多个 *** 作,从而最大化每瓦性能并提供行业领先的能效。
Series4具有以下特性:
- 多核扩展性和灵活性:多核架构支持在多个内核之间对工作负载进行灵活的分配和同步。ImaginaTIon的软件提供了精细的控制能力,并通过对多个工作负载进行批处理、拆分和调度而提高了灵活性,现在可以在任意数量的内核上使用。Series4可为每个集群配置 2个、4个、6个或者8个内核。
- 超高性能:Series4的每个单核能够以不到一瓦的功耗提供12.5 TOPS的性能。举例来说,一个8内核集群可以提供100 TOPS的算力,那么,配有6个8核集群的解决方案就可以提供600 TOPS的算力。在AI推理方面,Series4 NNA的性能比嵌入式GPU快20倍以上,比嵌入式CPU快1000倍。
- 超低延迟:通过将多个单核组成2核、4核、6核或8核的多核集群,所有内核可以相互协作,并行处理一个任务,降低处理延迟,缩短响应时间。 例如,对于一个8核集群,理想情况下延迟会减少为单核独立执行时的1/8。
- 节省大量带宽:Imagination的Tensor Tiling技术(Imagination’s Tensor Tiling,ITT)是一项正在申请专利的技术,也是Series4中新增的功能,它可以通过对计算任务进行tiling,充分利用片上存储,提升数据处理效率,并节省访问外部存储的带宽。ITT利用本地数据的依赖性将中间数据保存在片上存储器中,这样可以最大限度地减少将数据传输至外部存储器,从而将带宽降低多达90%。ITT是一种可扩展的算法,在拥有大量输入数据的网络上具有显著优势。
- 车规级安全性:Series4包含IP级别的安全功能且设计流程符合ISO 26262标准,可以帮助客户获得ISO 26262认证。ISO 26262是旨在解决汽车电子产品风险的行业安全标准。Series4可以在不影响性能的情况下,安全地进行神经网络推理。硬件安全机制可以保护编译后的网络、网络的执行和数据处理管道。
ABI Research智慧出行和汽车首席分析师James Hodgson说道:“虽然我们还在预计到2027年左右,对ADAS的需求将增长两倍,但汽车行业已然将目光投向了更远的全自动驾驶汽车和自动驾驶出租车。在从L2和L3级ADAS向L4和L5级全自动驾驶演进的过程中,神经网络的广泛应用将是至关重要的因素。这些系统将要处理数以百计的复杂场景,从多个摄像头和激光雷达等大量传感器中提取数据,从而实现自动代客泊车、十字路口管理和复杂城市环境安全导航等解决方案。高性能、低延迟和高能效的结合将是实现高度自动驾驶的关键所在。”
Imagination Technologies人工智能业务高级总监Andrew Grant表示:“我们相信Series4 NNA将成为开发先进驾驶辅助系统和自动驾驶汽车的行业标准平台。一些创新者已经在着手打造支持下一代ADAS功能和自动驾驶汽车的芯片。任何希望在汽车领域扮演重要角色的公司或研发团队是时候将这项技术集成至他们的平台中了。”
有关Series4 NNA的更多信息,请点击下方链接观看我们的主题会议。
http://imgtec.eetrend.com/content/2020/100058657.html
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)