大数据库和人工智能有什么关系吗?

大数据库和人工智能有什么关系吗?,第1张

人工智能里面有一部分算法是需要数据的,首先要进去数据,然后才能学习。

比如一个大数据库叫ImageNet,有十几亿张图片,用了这么大量的图片,我们才能训练我们的深度神经网络去做图片中猫猫、狗狗、车辆的识别。

如果没有这些海量的数据,很多机器学习算法是不能用的,像我们现在看视频网站它是面向百亿特征,千亿参数,万亿样本,你没有万亿样本就支撑不了百亿特征,你可能要有一个亿的样本才有可能支撑百万特征,而且深度学习是需要海量特征做特征工程的,所以这个时候大数据实际是很多机器学习算法得以能够发展的基础,但是发展到一定程度,有些算法它又突然脱离数据了,比如说我们做增强学习,像早期的阿法狗(AlphaGo),它学了几十万专业棋手之间的对局,它是大师,那它就下得很好,后来的阿法Zero(Alpha Zero),它是自己和自己下棋,反正有规则,所以它的数据实际不是真的数据,是生成出来的,它没有用真实数据,但是它用了增强学习,所以说它最后下得比阿法狗还强。

人工智能在未来的发展潜力非常大,特别是将其运用在工业发展上。人工智能是需要进行编写的,一般来说,人工智能需要3大部分组成。最重要的就是其核心算法。然后是数据库。最后是功能代码。一般的程序员不会直接开发核心算法,而是利用已经有的核心算法,开发出数据库和功能代码。当然也有类似于拉米罗这类大神,选择从核心算法开始搭建。比如其大家的鸭树系统就是一个公认的,非常强大的人工智能。

关于数据库方面,很多编写人工智能的程序小组不会选择就地重新搭建数据库,而是直接去寻求云数据库。利用云计算技术,为自己的人工智能程序配置好数据库。这样的数据库不仅能够随意的调整其大小,还拥有非常高的可靠性,成本也很低。比如腾讯云,阿里云,清华云都是这类云数据库。当然部分资金和实力非常雄厚的公司还是会采取自己搭建服务器。

而平台方面,国内使用最广泛的平台是百度的人工智能AI平台。我们印象中人工智能都是类似小爱同学之类的人工“智障”,但是百度的人工智能确实非常强大。百度开发的人工智能往往面向的是工厂,和大型的流水线生产。而并非是正常的家用,在整个世界上的排名当中,百度的人工智能技术稳稳的世界前三。

还有就是清华大学最近开发的一个人工智能平台,这个平台据说性能非常强大。而且可以直接利用清华云作为数据库。我最早听说的一个人工智能开发引擎是Tengine。这个引擎提供了很多AI算法,可以进行选择。而且还提供了很多可以设置的功能,根据我朋友的反馈,用起来非常舒服。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/sjk/6918471.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-03-30
下一篇 2023-03-30

发表评论

登录后才能评论

评论列表(0条)

保存