为什么说在人工智能时代,信息安全要放在第一位?

为什么说在人工智能时代,信息安全要放在第一位?,第1张

“当前,随着物联网等技术的发展,密码学受到了重大挑战。”“公钥加密技术之父”、2015年图灵奖获得者惠特菲尔德·迪菲在会上作了《未来密码学》的演讲时表示,因为物联网将数以十亿计的设备连接了起来,加密难度增大,能耗增加;其次是如何证明加密是100%可靠的,还难以用数学算法证明;另外,还面临量子计算的威胁,因为如果有数以十亿计的设备是微能耗或使用的纳米技术,在加密上会更难。“我们现在使用的一些21世纪的技术去解决上世纪50年代的问题是没有问题的,但是解决物联网面临的问题是有难度的。”

在迪菲看来,未来密码学将拥有三大机遇:一是同态加密,即在云端进行加密,如现在人们在手机等智能终端上储存很多私人信息,而通过加密技术将私人信息存储在云台,通过加密会比储存在终端上更安全;二是区块链,如比特币;三是新的公共密钥技术。他表示,随着5G时代的到来,以及大数据、人工智能的发展,今后密码学还将有更广泛的应用。区块链密码学基础——非对称加密的创始人、2015年图灵奖获得者马丁·赫尔曼介绍,非对称加密则有两个密钥:公钥和私钥。私钥只有自己知道,绝对不能公开,公钥是公开的。通过“公钥加密、私钥解密”或“私钥加密,公钥解密”的方式,目前非对称加密已为美国价值五万亿美元的交易提供了帮助,确保了数据传输的安全性。

“随着世界变的越来越相互联系,信息安全已经成为了公共问题,是重中之重。”马丁·赫尔曼表示,互联网的安全问题是具有根源性的,是因为在当时创建时没有基于安全的考虑。而现在对于信息安全的考虑不能再是亡羊补牢,要把安全带入人工智能的设计中,智慧城市的信息安全问题必须放在首要地位,必须从最初就开始规划安全问题。
对于量子计算加密技术,赫尔曼表示,量子加密在理论上来说是绝对安全的,但具体到实施上可能达不到理论上绝对的量子安全性,至少在50年内不太可能成为当前密码学的威胁。
2018年菲尔兹奖获得者阿莱西奥·菲加利从事基础数学的研究,他在最佳运输理论上的研究已被越来越多的用在了人工智能上。他说近年来,人工智能技术备受关注,但人工智能还远远称不上完美。数学作为基础学科,能为人工智能的发展找到深层次的规律,对其进行进一步完善和提升。他建议人工智能领域的研究者和工作者重视数学,加强学科融合互通,让数学在人工智能的发展中发挥更深远的作用。

25日,重庆市科技局、重庆两江新区管委会与迪菲教授团队及美国加密实验室团队签订了合作框架协议,三方将在2019年内组建重庆密码区块链技术研究院。未来五年,顶尖科学家们和国内外的研究团队将在密码学、区块链技术、网络安全、人工智能、云安全等诸多关键领域展开研究工作,努力将重庆打造成全国,乃至全球密码学领域研究的高地。重庆市科技局有关负责人表示:“重庆正加快实施以大数据智能化为引领的创新驱动发展战略行动计划,加密实验室团队的落地,对于重庆来说是在数字经济领域的重要布局。”

2019年10月31日,SiFive公布了IP产品的一个里程碑,因为他们展示了其有史以来第一个乱序的CPU微体系结构,并承诺在现有RISC-V内核上实现显着的性能飞跃,并提供与Arm产品相比具有竞争力的PPA指标。

说起SiFive这个公司,其实很有意思。SiFive中国是在去年8月份成立的,与其他跨国企业的做法不一样的是,SiFive中国是一个独立公司,在中国独立运营,并非SiFive的子公司。它有自己的董事会,有自己的管理团队,未来它可以独立接受投资,也包括来自中国的投资。但同时也跟SiFive有关系,如提供IP还有其他方面的技术。

SiFive于2017年发布了U54系列,这是该公司第一个能够运行完整 *** 作系统(例如Linux)的成熟CPU IP。

讲回正题,全球首个RISC-V处理器CPU,到底是一个什么东西?为什么RISC-V架构如此受追捧?

全新的RISC-V OoO CPU:U8面世

到目前为止,如果我们想基于新的ISA设计新的CPU,则首先要从小处着手,然后进行迭代,然后继续为设计增加更多的复杂性,这相对来说还不足为奇。SiFive的U5和U7系列相对来说CPU微体系结构较为简单。与Arm的低端和微控制器内核相比,它们能提供一些非常具有成本效益的选择和替代方案,但实际上并不能满足需要更高性能的更复杂工作负载的任务。

但新的U8系列通过大幅改善新的微体系结构,其性能比U54和U74高出5到4倍,这是我们行业中极其罕见的性能提升。

SiFive针对U8系列的设计目标也非常简单:直接对标Arm Cortex-A72,U8系列的目标是在性能上不相上下,并且在只有对手一半面积的同时提供15倍的更高的电源效率。当然,拿A72来比,还是有点“欺负”老产品的意味,不过SiFive的PPA目标相对较高,这意味着U8应该比Arm的最新一代内核更具竞争力。

RISC-V魅力何在?

顾名思义,RISC-V是RISC的第五个版本。RISC,即“精简指令集计算机”,是图灵奖得主John L Hennessy和David A Patterson对行业的重大贡献,由加州大学伯克利分校于1980年发布。芯片指令集帮助计算机软件与底层硬件设备通信,是计算机的基本组成部分。

我们先看看全世界对RISC-V的态度:

全球第一大硬盘产商西部数据(Western Digital)将以每年10亿到20亿颗的预期来推动RISC-V,逐步完成全线产品迁移到RISC-V定制架构;

MicroSemi提供基于Risc-V+Linux+CNN加速的AI解决方案;

印度政府则大力资助基于RISC-V的处理器项目,使RISC-V成为了印度的事实国家指令集;

RISC-V基金会的会员已经增加到150多个,大学、科研院所和企业大量使用或评估基于RISC-V的应用,参与度之高,覆盖面之广,盛况空前;

指令集架构的生态链正在成长和完善,工具链、RTOS/Linux *** 作系统的移植等工作都取得关键突破。

无论模块化指令集“能屈能伸”,还是甩掉向后兼容 历史 包袱“无病一身轻”,再到40多条基本指令“大道至简”,且使用BSD License开源协议彻底开放,RISC-V的种种优势,宛如指令集纷繁万象中的一股春风。

早在去年,就有很多公司开始量产基于RISC-V的芯片,例如国内的嘉楠云智和华米等,他们做RISC-V芯片较早。行业人士当时也预计其他很多做RISC-V芯片的公司可能会在2019年或2020年正式推出基于RISC-V的芯片。

所以,兆易创新带来了GD32V系列开发板。

GD32V系列来袭

近期,业界领先的半导体供应商兆易创新正式推出全球首个基于RISC-V内核的GD32V系列32位通用MCU产品,提供完整工具链并持续打造RISC-V开发生态。

GD32VF103系列MCU采用了全新的基于开源指令集架构RISC-V的Bumblebee处理器内核,是兆易创新携手中国芯来 科技 面向物联网及其它超低功耗场景应用自主联合开发的一款商用RISC-V处理器内核。

GD32VF103系列RISC-V mCU提供了108MHz的运算主频,以及16KB到128KB的片上闪存和6KB到32KB的SRAM缓存, gFlash专利技术支持内核访问闪存高速雾等待。Bumblebee内核还内置了单周期硬件乘法器、硬件除法器和加速单元应对高级运算和数据处理的挑战。

GD32V系列新品全部符合工业级高可靠性和温度标准,并提供至少十年的持续供货保证。芯片的静电防护(ESD)防护水平在人体放电(HBM)模式可达5KV,器件放电模式(CDM)可达2KV,远高于行业安全标准,从而适用于复杂环境并让终端产品更可靠耐用。

全新的GD32VF103系列RISC-V MCU即刻上市。立创商城现已同步发售。

当前,人工智能发展借助深度学习技术突破得到了全面关注和助力推动,各国政府高度重视、资本热潮仍在加码,各界对其成为发展热点也达成了共识。本文旨在分析深度学习技术现状,研判深度学习发展趋势,并针对我国的技术水平提出发展建议。
一、深度学习技术现状
深度学习是本轮人工智能爆发的关键技术。人工智能技术在计算机视觉和自然语言处理等领域取得的突破性进展,使得人工智能迎来新一轮爆发式发展。而深度学习是实现这些突破性进展的关键技术。其中,基于深度卷积网络的图像分类技术已超过人眼的准确率,基于深度神经网络的语音识别技术已达到95%的准确率,基于深度神经网络的机器翻译技术已接近人类的平均翻译水平。准确率的大幅提升使得计算机视觉和自然语言处理进入产业化阶段,带来新产业的兴起。
深度学习是大数据时代的算法利器,成为近几年的研究热点。和传统的机器学习算法相比,深度学习技术有着两方面的优势。一是深度学习技术可随着数据规模的增加不断提升其性能,而传统机器学习算法难以利用海量数据持续提升其性能。二是深度学习技术可以从数据中直接提取特征,削减了对每一个问题设计特征提取器的工作,而传统机器学习算法需要人工提取特征。因此,深度学习成为大数据时代的热点技术,学术界和产业界都对深度学习展开了大量的研究和实践工作。
深度学习各类模型全面赋能基础应用。卷积神经网络和循环神经网络是两类获得广泛应用的深度神经网络模型。计算机视觉和自然语言处理是人工智能两大基础应用。卷积神经网络广泛应用于计算机视觉领域,在图像分类、目标检测、语义分割等任务上的表现大大超越传统方法。循环神经网络适合解决序列信息相关问题,已广泛应用于自然语言处理领域,如语音识别、机器翻译、对话系统等。
深度学习技术仍不完美,有待于进一步提升。一是深度神经网络的模型复杂度高,巨量的参数导致模型尺寸大,难以部署到移动终端设备。二是模型训练所需的数据量大,而训练数据样本获取、标注成本高,有些场景样本难以获取。三是应用门槛高,算法建模及调参过程复杂繁琐、算法设计周期长、系统实施维护困难。四是缺乏因果推理能力,图灵奖得主、贝叶斯网络之父Judea Pearl指出当前的深度学习不过只是“曲线拟合”。五是存在可解释性问题,由于内部的参数共享和复杂的特征抽取与组合,很难解释模型到底学习到了什么,但出于安全性考虑以及伦理和法律的需要,算法的可解释性又是十分必要的。因此,深度学习仍需解决以上问题。
二、深度学习发展趋势
深度神经网络呈现层数越来越深,结构越来越复杂的发展趋势。为了不断提升深度神经网络的性能,业界从网络深度和网络结构两方面持续进行探索。神经网络的层数已扩展到上百层甚至上千层,随着网络层数的不断加深,其学习效果也越来越好,2015年微软提出的ResNet以152层的网络深度在图像分类任务上准确率首次超过人眼。新的网络设计结构不断被提出,使得神经网络的结构越来越复杂。如:2014年谷歌提出了Inception网络结构、2015年微软提出了残差网络结构、2016年黄高等人提出了密集连接网络结构,这些网络结构设计不断提升了深度神经网络的性能。
深度神经网络节点功能不断丰富。为了克服目前神经网络存在的局限性,业界探索并提出了新型神经网络节点,使得神经网络的功能越来越丰富。2017年,杰弗里辛顿提出了胶囊网络的概念,采用胶囊作为网络节点,理论上更接近人脑的行为,旨在克服卷积神经网络没有空间分层和推理能力等局限性。2018年,DeepMind、谷歌大脑、MIT的学者联合提出了图网络的概念,定义了一类新的模块,具有关系归纳偏置功能,旨在赋予深度学习因果推理的能力。
深度神经网络工程化应用技术不断深化。深度神经网络模型大都具有上亿的参数量和数百兆的占用空间,运算量大,难以部署到智能手机、摄像头和可穿戴设备等性能和资源受限的终端类设备。为了解决这个问题,业界采用模型压缩技术降低模型参数量和尺寸,减少运算量。目前采用的模型压缩方法包括对已训练好的模型做修剪(如剪枝、权值共享和量化等)和设计更精细的模型(如MobileNet等)两类。深度学习算法建模及调参过程繁琐,应用门槛高。为了降低深度学习的应用门槛,业界提出了自动化机器学习(AutoML)技术,可实现深度神经网络的自动化设计,简化使用流程。
深度学习与多种机器学习技术不断融合发展。深度学习与强化学习融合发展诞生的深度强化学习技术,结合了深度学习的感知能力和强化学习的决策能力,克服了强化学习只适用于状态为离散且低维的缺陷,可直接从高维原始数据学习控制策略。为了降低深度神经网络模型训练所需的数据量,业界引入了迁移学习的思想,从而诞生了深度迁移学习技术。迁移学习是指利用数据、任务或模型之间的相似性,将在旧领域学习过的模型,应用于新领域的一种学习过程。通过将训练好的模型迁移到类似场景,实现只需少量的训练数据就可以达到较好的效果。
三、未来发展建议
加强图网络、深度强化学习以及生成式对抗网络等前沿技术研究。由于我国在深度学习领域缺乏重大原创性研究成果,基础理论研究贡献不足,如胶囊网络、图网络等创新性、原创性概念是由美国专家提出,我国研究贡献不足。在深度强化学习方面,目前最新的研究成果大都是由DeepMind和OpenAI等国外公司的研究人员提出,我国尚没有突破性研究成果。近几年的研究热点生成式对抗网络(GAN)是由美国的研究人员Goodfellow提出,并且谷歌、facebook、twitter和苹果等公司纷纷提出了各种改进和应用模型,有力推动了GAN技术的发展,而我国在这方面取得的研究成果较少。因此,应鼓励科研院所及企业加强深度神经网络与因果推理模型结合、生成式对抗网络以及深度强化学习等前沿技术的研究,提出更多原创性研究成果,增强全球学术研究影响力。
加快自动化机器学习、模型压缩等深度学习应用技术研究。依托国内的市场优势和企业的成长优势,针对具有我国特色的个性化应用需求,加快对深度学习应用技术的研究。加强对自动化机器学习、模型压缩等技术的研究,加快深度学习的工程化落地应用。加强深度学习在计算机视觉领域应用研究,进一步提升目标识别等视觉任务的准确率,以及在实际应用场景中的性能。加强深度学习在自然语言处理领域的应用研究,提出性能更优的算法模型,提升机器翻译、对话系统等应用的性能。
来源:产业智能官
END
更多精彩内容请登录>

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/dianzi/13045350.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-29
下一篇 2023-05-29

发表评论

登录后才能评论

评论列表(0条)

保存