如何提升AI算法速度 打造接近人脑规模的神经网络

如何提升AI算法速度 打造接近人脑规模的神经网络,第1张

人工神经网络(ArTIficial Neural Networks;ANN)是人工智能(AI)革命的核心,正在形塑社会与科技的各层面发展。然而,目前ANN仍远不足以处理非常复杂的问题。近日由数间国际知名大学所组成的研究团队便针对此问题,研发出革命性的训练方法,可大幅提升训练AI算法的速度,最终可望打造出接近人脑规模的ANN。

据报导,由荷兰恩荷芬理工大学(Eindhoven University of Technology)、美国德州大学奥斯丁分校(University of Texas at AusTIn)与英国德比大学(University of Derby)科学家所组成的研究团队,于《Nature CommunicaTIons》期刊发表新AI训练方法:稀疏式进化训练(Sparse EvoluTIonary Training;SET)。

SET的灵感来自生物网络以及特定神经网络,而这些特定神经网络之所以运行效率高有三个特征,包括网络连接性相对较低、神经中枢稀少以及路径短。

研究团队指出,常见的AI训练是采用完全连结的人工神经网络,不过新训练方法则随机从稀疏的网络着手,不断演进至无尺度网络(scale-free network),在过程中较弱的连结会被消除,并随机增加新连结,近似于被称为突触萎缩(synaptic shrinking)的生物过程。

透过SET,一般计算机也能获得全面的AI能力,而超级计算机更可望于1~2年内打造出远超越今日规模的ANN。目前最新款超级计算机在处理1,600万个神经元网络(约为青蛙大脑规模)就已相当吃力,而一台功能强大的桌上型计算机要训练仅10万个神经元网络,就需要耗费十几天的时间。

此新训练方式能大幅提升AI算法的速度,使AI技术可用于解决当前棘手的问题。在智能电网与社会系统等复杂快速变动的环境中,需要非常频繁地重复训练ANN,因此在不影响准确度之下提高学习速度显得至关重要。

此外,由于这类的训练可在有限的运算资源之下达成,对于连接至大型系统的分散式装置嵌入式智能系统,SET训练方法可望成为首选。

具体而言,透过SET任何使用者都能透过自身笔记本电脑打造神经元达到100万规模的ANN,但过去只有昂贵的云端运算系统才有办法透过先进训练方法达到此规模。

目前最新超级计算机所打造出的最大型ANN,规模等同于青蛙大脑(约1,600万神经元)。未来在部分技术挑战被克服后,则可望藉由SET在同款超级计算机上打造出接近人脑规模(约800亿个神经元)的ANN。

该研究主要作者Decebal Mocanu表示,目前确实需要规模如此庞大的神经网络。举例而言,以ANN检测癌症有很好的成效。这代表透过SET,可望提升医疗照护质量,并使个人化医疗变得更为平价。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2569101.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-07
下一篇 2022-08-07

发表评论

登录后才能评论

评论列表(0条)

保存