使用Apache-2.0开源协议
通过bboss,可以非常方便地采集database/mongodb/Elasticsearch/kafka/hbase/本地或者Ftp日志文件源数据,经过数据转换处理后,再推送到目标库elasticsearch/database/file/ftp/kafka/dummy/logger。
数据导入的方式
支持各种主流数据库、各种es版本以及本地/Ftp日志文件数据采集和同步、加工处理
支持从kafka接收数据;经过加工处理的数据亦可以发送到kafka;
支持将神链单条记录切割为多条记录;
可以将加工后的数据写入File并上传到ftp/sftp服务器;
支持备份采集完毕日志文件功能,可以指定备份文件保存时长,定期清理超过时长文件;
支持自动清理下载完毕后ftp服务器上的文件
支持excel、csv文件采集(本地和ftp/sftp)
支持导出数据到excel和csv文件,并支持上传到ftp/sftp服务器
提供自定义处理采集数据功能,可以自行将采集的数据按照自己的要求进行处理到目的地,支持数据来源包括:database,elasticsearch,kafka,mongodb,hbase,file,ftp等,想把采集的数据保存到什么地方,有自己实现CustomOutPut接口处理即可。
支持的数据库: mysql,maridb,postgress,oracle ,sqlserver,db2,tidb,hive,mongodb、HBase等
支持的Elasticsearch版本: 1.x,2.x,5.x,6.x,7.x,8.x,+
支持海量PB级数据同步导入功能
支持将ip转换为对应的运营商和城市地理坐标位置信息
支持设置数伏镇据bulk导入任务结果处理回调函数,对每次bulk任务的结果进行成功和失败反馈,然后针对失败的bulk任务通过error和exception方法进行相应处理
支持以下三种作业调度机制:
bboss另一个显著的特色就是直接基于java语言来编写数据同步作业程序,基于强大的java语言和第三方工具包,能够非缺瞎粗常方便地加工和处理需要同步的源数据,然后将最终的数据保存到目标库(Elasticsearch或者数据库);同时也可以非常方便地在idea或者eclipse中调试和运行同步作业程序,调试无误后,通过bboss提供的gradle脚本,即可构建和发布出可部署到生产环境的同步作业包。因此,对广大的java程序员来说,bboss无疑是一个轻易快速上手的数据同步利器。
如果需要增量导入,还需要导入sqlite驱动:
如果需要使用xxjob来调度作业任务,还需要导入坐标:
本文从mysql数据库表td_cms_document导入数据到es中,除了导入上述maven坐标,还需要额外导入mysql驱动坐标(其他数据库驱动程序自行导入): mysql 5.x驱动依赖包
mysql 8.x驱动依赖包(mysql 8必须采用相应版本的驱动,否则不能正确运行)
私信回复:数据同步ETL工具
或访问一飞开源:https://code.exmay.com/
1 ETL可以通过增量更新或全量更新来更新数据,需要根据实际情况进行选择。2 增量更新是指只更新数据中的变化部分,燃坦这样可以减少更新的数据并段袭量,提高更新效率。
全量更新则是指将所有数据全部更新,比较适用于数据量较小的情况。
3 在提交更新时,需要先进行数据抽取,将需要更新的数据从源系统中抽取出来,然后进行数据清洗和转换,最后将数据加载到目标系统中。
在这个过程中,需要进行数据验证和校验,确保数据的准确性和完整性。
4 提交更新需要注意的绝兄是,要先备份原始数据,以防止更新出现问题导致数据丢失。
同时,需要进行更新 *** 作的时候,最好在低峰期进行,避免对业务的影响。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)