filebeat利用kafka进行日志实时传输

filebeat利用kafka进行日志实时传输,第1张

选择安装目录:例如安装在/usr/local/或者/opt/下都可以。

创建一个软链接:

filebeat的配置很简单,只需要指定input和output就可以了。

由于kafka server高低版本的客户端API区别较大,因此推荐同时使用高版本的filebeat和kafka server。 注意 高版本的filebeat配置使用低版本的kafka server会出现kafka server接受不到消息的情况。这里我使用的kafka server版本是:2.12-0.11.0.3,可参考 快速搭建kafka

编辑filebeat安装目录下 filebeat.yml 文件:

配置Filebeat inputs:

上面 /opt/test/*.log 是我要传输的日志,根据实际情况改成你自己的值。

配置Filebeat outputs:

"111.11.1.243:9092" 是我的单机kafka broker,如果你是kafka集群,请用 , 分隔。 test 是kafka topic,请改成你自己实际情况的值。另外以下信胡这段需要删除:

因为我并没有用到Elasticsearch,所以有多个输出在启动filebeat时会报错。到这里filebeat配置kafka就完成了,是不是很简单,让我们启动它测试一下。

启动,进入filebeat的安装目录:

查看是否启动:

很好,已经启动了。如果没有启动,请查看启动日志睁旦文件nohup.out。

停止:

随机生成日志脚本:

执行这段python脚本,开启一个kafka消费者如果成功消费日志消息:

哈哈,大功告成。 注 上面这段脚本要适时手动停止,因为它是个死循环,如果忘记手动停止那么就杯具了,我就是这样悉坦扰把机器写宕机的。

1.zookeeper集群 搭建在110, 111,112

2.kafka使用3个节点110, 111,112

修改配置文件config/server.properties

broker.id=110

host.name=192.168.1.110

log.dirs=/usr/local/kafka_2.10-0.8.2.0/山敬logs

复制到其他两个节点,然后修改对应节没唯山点上的config/server.pro

3.启动,在枯中三个节点分别执行

bin/kafka-server-start.sh config/server.properties >/dev/null 2>&1 &

4 创建主题

bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 3 --topic test

5 查看主题详细

bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test

--topic test

Topic:test PartitionCount:3ReplicationFactor:3 Configs:

Topic: test Partition: 0Leader: 110 Replicas: 110,111,112 Isr: 110,111,112

Topic: test Partition: 1Leader: 111 Replicas: 111,112,110 Isr: 111,112,110

Topic: test Partition: 2Leader: 112 Replicas: 112,110,111 Isr: 112,110,111


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/tougao/12160762.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-21
下一篇 2023-05-21

发表评论

登录后才能评论

评论列表(0条)

保存