让FPGA芯片变得智能到底有多难

让FPGA芯片变得智能到底有多难,第1张

机器学习/深度学习、自动化、更卓越的设计能力、5G和边缘计算等概念的推动下,使得汽车、工业、医疗等各行业都在经历空前的数字化转型,并促进了针对其特定应用需求而优化的定制系统和SoC的开发。Anirudh Devgan这句话从当下现状来剖析智慧化势不可挡:“我们已进入智能系统设计时代。”

“神经元比作节点、突触比作连接线,组成一个人工神经网络。神经元通过突触进行通信,而突触的权重决定是否能够通信。如此一来,任何神经元就是一堆数据,加权重,再到下一级。这是一种全新的计算方式”,如此形容如今大伙的神经网络,也表达了背后关于数据量的变化:“处理人工神经网络需要的数据量是惊人的,VGG19模型就达到196亿每秒浮点运算次数。(如下图右侧柱状图)”

信息时代在过去30年里,算法、算力、数据都提升百万倍。但在智能时代仅仅过去5年里,在算法上提升百万倍、算力提升十万倍、数据提升万倍。这里的分界点是阿法狗出来那一刻,如今那个机器,在算法上又提升了一百万倍。同时这也是一个算法不断迭代演进的年代。算法每6个月或者3个月就要变一次,一个算法对应一个应用,没有通用的算法对我们硬件(芯片)来说是灾难性的。

要应对这场“灾难”,显然需要本文开头构想的场景——“让芯片通过学习的过程而使得算法和软件自动演进”。

“计算量足够大,能量效率还要足够高,这之间很难平衡。从现在以T为单位的计算量来看,几乎是要在单芯片上实现超算,本来我们想象在5nm/10nm才有所需求,人工神经网让芯片早就达到了超算能力。”魏少军如此说道,他眼中的智慧芯片需要具备至少以下8个特点。

1,可编程性,适应算法不断变化;2,改变架构,来适应算法 获得最佳计算效率;3,非常好的架构变换能力;4,很高的计算效率,用指令肯定不行;5,很高的能量效率;6,低成本;7,体积小;8,简单,开发应用要简单。只需软件工程师会编程即可。

至此,魏少军认为“软件定义芯片”才是最佳做法。其概念是就是将分块软件/程序不断送到数据通道,使芯片能实时地根据软件或产品的需求改变功能,实现更加灵活的芯片设计。在去年美国国防部先进计划署(DARPA)推动的电子产业振兴计划(ERI),其中一个课题就是软件定义硬件的概念。

当然,当下软件定义芯片架构并没有逃开冯·诺依曼架构,可以看出该架构在计算完备性上是有理论基础的。1.0时代则包括TPU等,追求性能同时追求低功耗。1.5时代则包括DPU Thinker等,不仅要可重构,还要追求能量效率和灵活性。2.0时代,则包括了前面所有有点。魏少军认为AI芯片2.0才是真正的智慧,但还没有出现。

2019年是公司特殊的一年,正式踏入了系统设计、系统分析领域,旨在帮助用户在日常开发中实现更多智能化。这里的智能系统设计策略就是Anirudh Devgan所说的:“以技术(计算)软件为核心能力,包括引用AI和算法优化设计工具、扩展到新系统领域、以及执行核心EDA和IP。”

此外,为了优化设计方案,Cadence 提出了 Machine Learning 与 EDA 相互融合的理念,并在中国IC设计市场带来了全新的思路,如下:(1)ML Inside:通过最新的机器学习引擎,改善数字设计工具,带来更好的PPA。通过对过往的大数据分析和决策,来加速未来的智能版图设计。(2)ML Outside:自动化的设计流程,提升整个设计的生产效率。(3)ML Enablement:软件和硬件的协同设计,以及 Cadence 独有的 Tensilica 处理器 IP,应用机器学习为系统级的优化带来提升。

如果能猜对重要的场景,并猜对重要的算法,来应对架构本身的不确定性。那就大有可为。” 依图的思路放在了视频视觉处理上,实现“用1个机柜支撑1万路摄像头的全解析,让能耗、成本和空间都获得大幅度的减低和压缩。如此一来,让笔者越发觉得芯片这行太难了,前方乌托邦式的“智慧芯片”,再加完美的应用场景,设计工具本身就要兼具智能系统。外加人才、资本、政策协助,才是一个完整的芯片升级之道。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2533142.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-05
下一篇 2022-08-05

发表评论

登录后才能评论

评论列表(0条)

保存