1、它可以连接设备的连接器,接口或网络来和仪表交流,收集仪表中的数据。
2、即使是极其复杂的仪表也可以直接将数据进行采集,并将其存入本地的数据库中。
3、这样,就不用再手动输入数据,避免了出现错误和遗漏的情况
1、离线搜集:工具:ETL
在数据仓库的语境下,ETL基本上便是数据搜集的代表,包括数据的提取(Extract)、转换(Transform)和加载(Load)。在转换的过程中,需求针对具体的事务场景对数据进行治理,例如进行不合法数据监测与过滤、格式转换与数据规范化、数据替换、确保数据完整性等。
2、实时搜集:
工具:Flume/Kafka
实时搜集首要用在考虑流处理的事务场景,比方,用于记录数据源的履行的各种 *** 作活动,比方网络监控的流量办理、金融运用的股票记账和 web 服务器记录的用户访问行为。在流处理场景,数据搜集会成为Kafka的顾客,就像一个水坝一般将上游源源不断的数据拦截住,然后依据事务场景做对应的处理(例如去重、去噪、中心核算等),之后再写入到对应的数据存储中。
3、互联网搜集:
工具:Crawler, DPI等
Scribe是Facebook开发的数据(日志)搜集体系。又被称为网页蜘蛛,网络机器人,是一种按照一定的规矩,自动地抓取万维网信息的程序或者脚本,它支持图片、音频、视频等文件或附件的搜集。
除了网络中包含的内容之外,关于网络流量的搜集能够运用DPI或DFI等带宽办理技术进行处理。
4、其他数据搜集方法
关于企业生产经营数据上的客户数据,财务数据等保密性要求较高的数据,能够通过与数据技术服务商合作,运用特定体系接口等相关方式搜集数据。比方八度云核算的数企BDSaaS,无论是数据搜集技术、BI数据剖析,还是数据的安全性和保密性,都做得很好。
个人理解:数据采集分为多种,如从纸质的或非结构化资料中整理成可以存入数据库的结构化数据的过程可以算一种数据采集;再如将已有的某数据库中数据导出到另一个数据库中也可以算一种数据采集;还如通过观察记录获得某些环境指标(空气质量、温度、湿度、人体体温、机器cpu占用率等等)变化的过程也可以算一种数据采集等等。总之,就是一种数据存在形式经过“某种处理”转变成另一种数据存在形式,我个人认为所谓的“某种处理”都统称为数据采集。
数据抓取一词用的较多的就是如网页内容数据抓取等,从某种意义上说与数据采集有部分含义雷同,但性质上貌似数据主体有一种主动和被动的区别。当然,数据抓取更多的是指,从已有的某结构化数据中获得数据的过程。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)