人工智能主要有三个分支:
1.基于规则的人工智能;
2.无规则,计算机读取大量数据,根据数据的统计、概率分析等方法,进行智能处理的人工智能;
3.基于神经元网络的一种深度学习。
基于规则的人工智能,在计算机内根据规定的语法结构录入规则,用这些规则进行智能处理,缺乏灵活性,不适合实用化。因此,人工智能实际上的主流分支是后两者。
而后两者都是通过“计算机读取大量数据,提升人工智能本身的能力/精准度”。如今,大量数据产生之后,有低成本的存储器将其存储,有高速的CPU对其进行处理,所以才有了人工智能后两个分支的理论得以实践。由此,人工智能就能做出接近人类的处理或者判断,提升精准度。同时,采用人工智能的服务作为高附加值服务,成为了获取更多用户的主要因素,而不断增加的用户,产生更多的数据,使得人工智能进一步优化。
大数据挖掘少不了人工智能技术
大数据分为“结构化数据”与“非结构化数据”。
“结构化数据”是指企业的客户信息、经营数据、销售数据、库存数据等,存储于普通的数据库之中,专指可作为数据库进行管理的数据。相反,“非结构化数据”是指不存储于数据库之中的,包括电子邮件、文本文件、图像、视频等数据。
目前,非结构化数据激增,企业数据的80%左右都是非结构化数据。随着社交媒体的兴起,非结构化数据更是迎来了爆发式增长。复杂、海量的数据通常被称为大数据。
但是,这些大数据的分析并不简单。文本挖掘需要“自然语言处理”技术,图像与视频解析需要“图像解析技术”。如今,“语音识别技术”也不可或缺。这些都是传统意义上人工智能领域所研究的技术。
分布式计算,非结构化数据库,分类、聚类等算法。
大数据包括结构化、半结构化和非结构化数据,非结构化数据越来越成为数据的主要部分。据IDC的调查报告显示:企业中80%的数据都是非结构化数据,这些数据每年都按指数增长60%。
扩展资料:
大数据(Big data)通常用来形容一个公司创造的大量非结构化数据和半结构化数据,这些数据在下载到关系型数据库用于分析时会花费过多时间和金钱。
大数据分析常和云计算联系到一起,因为实时的大型数据集分析需要像MapReduce一样的框架来向数十、数百或甚至数千的电脑分配工作。
大数据需要特殊的技术,以有效地处理大量的容忍经过时间内的数据。适用于大数据的技术,包括大规模并行处理(MPP)数据库、数据挖掘、分布式文件系统、分布式数据库、云计算平台、互联网和可扩展的存储系统。
参考资料来源:百度百科-大数据
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)