flink 1.10.1 java版本集成kafka读取数据

flink 1.10.1 java版本集成kafka读取数据,第1张

flink 1.10.1 java版本集成kafka读取数据 1. 创建maven项目,添加依赖

      org.apache.flink
      flink-streaming-java_${scala.version}
      1.10.1
       ${project.build.scope}


      org.apache.flink
      flink-core
      1.10.1


      org.apache.flink
      flink-connector-kafka-0.11_2.12
      1.10.1
2. 编写程序代码
package com.demo;

import org.apache.flink.api.common.serialization.SimpleStringSchema;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer010;

import java.util.Properties;

public class KafkaStringCosumer {

    public static void main(String[] args) throws Exception {

        //创建执行环境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        Properties props = new Properties();
        // 指定kafka的主机地址和端口号
        props.setProperty("bootstrap.servers", "localhost:9092");
        props.setProperty("group.id", "flink-group");

        props.setProperty("auto.offset.reset", "latest");

        FlinkKafkaConsumer010 consumer =
                new FlinkKafkaConsumer010<>("flink-topic", new SimpleStringSchema(), props);

        DataStream dataStream = env.addSource(consumer);

        dataStream.print();

        env.execute();
    }
}
3. 启动kafka测试环境

1. 启动zookeeper。

2. 启动kafka服务。

.binwindowskafka-server-start.bat .configserver.properties

3. 创建主题

.binwindowskafka-topics.bat --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic flink-topic

4. 启动生产者

.binwindowskafka-console-producer.bat --broker-list localhost:9092 --topic flink-topic

5. 运行程序,生产者输入信息,在控制台查看接收到的信息输出。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5718166.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-17
下一篇 2022-12-17

发表评论

登录后才能评论

评论列表(0条)

保存