Flink -- Sink输出

Flink -- Sink输出,第1张

Flink -- Sink输出

Flink--Sink输出

kafkaRedisElasticsearchJDBC自定义sink
​Flink没有类似于spark中foreach方法,让用户进行迭代的 *** 作。虽有对外的输出 *** 作都要利用Sink完成。最后通过类似如下方式完成整个任务最终输出 *** 作。

stream.addSink(new MySink(xxxx)) 

​ 官方提供了一部分的框架的sink。除此以外,需要用户自定义实现sink。

kafka
// 从Kafka中读取数据
DataStream inputStream = env.addSource( new FlinkKafkaConsumer("sensor", new SimpleStringSchema(), properties));

// 将数据写入Kafka
dataStream.addSink( new FlinkKafkaProducer("localhost:9092", "sinktest", new SimpleStringSchema()));
Redis
FlinkJedisPoolConfig config = new FlinkJedisPoolConfig.Builder()
         .setHost("localhost")
         .setPort(6379)
         .setPassword("123456")
         .setDatabase(0)
         .build();
         
dataStream.addSink(new RedisSink<>(config, new MyRedisMapper()));
Elasticsearch
List httpHosts = new ArrayList<>();
httpHosts.add(new HttpHost("localhost", 9200));

dataStream.addSink( new ElasticsearchSink.Builder(httpHosts, new MyEsSinkFunction()).build());
JDBC自定义sink

Flink之Mysql数据CDC

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/5708724.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-17
下一篇 2022-12-18

发表评论

登录后才能评论

评论列表(0条)

保存