【深入浅出flink】第6篇:详解flink中Text Sink、Csv Sink、Socket Sink、Kafka Sink、Redis Sink、ES Sink,以及万能的UDF Sink

【深入浅出flink】第6篇:详解flink中Text Sink、Csv Sink、Socket Sink、Kafka Sink、Redis Sink、ES Sink,以及万能的UDF Sink,第1张

【深入浅出flink】第6篇:详解flink中Text Sink、Csv Sink、Socket Sink、Kafka Sink、Redis Sink、ES Sink,以及万能的UDF Sink

大家好,我是雷恩Layne,这是《深入浅出flink》系列的第六篇文章,我旨在用最直白的语言写好flink,希望能让所有看到的人一目了然。如果大家喜欢,欢迎点赞、关注,也欢迎留言,共同交流flink的点点滴滴 O(∩_∩)O

文章目录

1. Sink简介2. Flink预定义的Sink

2.1 基于文件的Sink2.2 基于标准输出的Sink2.3 基于Socket的Sink2.4 基于Kafka的Sink2.5 基于Redis的Sink2.6 基于Elasticsearch的Sink 3. Rich版本的UDF Sink4. 一般的UDF Sink

DataStream是Flink的较低级API,用于进行数据的实时处理任务,可以将该编程模型分为Source、Transformation、Sink三个部分,如下图所示:

之前的文章讲解编程模型和Source和Transformation部分:

【深入浅出flink】第4篇:flink常见的并行度和多并行度Source,你掌握了多少?【深入浅出flink】第5篇:详细梳理flink中常见的dataSteam算子,transformation *** 作全靠它们

本文来介绍常用的Flink Sink。


1. Sink简介

Sink 用来消费 DataStream 并转发到文件,套接字,外部系统或打印到页面。Flink提供了很多预置的Sink方法,封装在 DataStream 算子上,方便我们随时调用,如下图所示。其中,常见的低级Sink和中级Sink(或称写入中间件的Sink)在flink中已经实现好了,我们调用即可。

当现有的Sink不能满足需求时,用户也可以自定义实现sink,实现方法主要有两种:

通过实现RichSinkFunction抽象类定义Rich版本的Sink通过实现SinkFunction接口定义一般的Sink

然后,new一个自定义的类对象,通过DataStream的addSink方法将对象传入即可。

2. Flink预定义的Sink

flink提供了大量的已经实现好的Sink,常见的有:

基于文件的Sink基于Socket的Sink基于标准输出的Sink基于Kafka的Sink基于Redis的Sink基于Elasticsearch的Sink. . .

大部分DataSteam Sink API,我们都可以直接在算子上进行调用,只有少数需要我们new一个对象,传入到DataStream的addSink方法中。

需要说明的是,DataStream中以write *开头的方法主要用于调试目。他们没有参与 Flink checkpoint,这意味着这些函数通常具有至少一次的语义。刷新到目标系统的数据取决于 OutputFormat 的实现,并非所有发送到 OutputFormat 的数据都会立即显示在目标系统中。此外,在失败的情况下,这些记录可能会丢失。要将流可靠、准确地传送到文件系统,请使用 flink-connector-filesystem。通过 .addSink(...) 方法的自定义实现,可以实现在 checkpoint 中精确一次的语义。这部分在后面我会单独写成一篇文章。

flink预置的Sink几乎均实现了RichSinkFunction抽象类,以便更好的控制算子的生命周期,如下图所示:

2.1 基于文件的Sink

(1)基于文本文件的Sink

将dataStream数据写入到文本文件有两种方式:

调用dataStream的writeAsText方法,传入指定路径调用dataStream的writeUsingOutputFormat方法,传入TextOutputFormat

示例:将dataStream数据写入到文本文件中

DataStream dataStream = env.fromElements("hello","world","flink");
dataStream.writeAsText("data/output/test1.txt");
dataStream.writeUsingOutputFormat(
		new TextOutputFormat(new Path("data/output/test2.txt")));

这两个方法本质上是一样的。

(2)基于Csv文件的Sink

基于Csv文件的Sink要求dataStream中的数据必须是元祖类型,将dataStream数据写入到Csv文件有两种方式:

调用dataStream的writeAsCsv方法,传入指定路径调用dataStream的writeAsCsv方法,传入指定路径

示例:将dataStream数据写入到csv文件中

DataStream> dataStream = env.fromElements(
		new Tuple2<>("hello",1L),
		new Tuple2<>("world",3L),
		new Tuple2<>("flink",5L));
dataStream.writeAsCsv("data/output/test1.csv");
dataStream.writeUsingOutputFormat(
		new CsvOutputFormat(new Path("data/output/test2.csv")));
2.2 基于标准输出的Sink

print() / printToErr():在标准输出/标准错误流上打印每个元素的 toString() 值。可以定义输出前缀,这有助于区分不同的打印调用。如果并行度大于1,输出也包含生成输出的任务的标识符。

示例:将dataStream中的数据打印到标准输出和标准错误上

DataStream dataStream = env.fromElements("hello","world","flink");
dataStream.print("标准输出");
dataStream.printToErr("标准错误");
2.3 基于Socket的Sink

writeToSocket:将元素写入 Socket,使用 SerializationSchema 进行序列化,如果发送字符串,可以自定义成SimpleStringSchema。

示例:将数据发送到远程端口

DataStream dataStream = env.fromElements("hello","world","flink");
dataStream.writeToSocket("localhost",7777,new SimpleStringSchema());
2.4 基于Kafka的Sink

在flink中,要想把dataStream中的数据写入到kafka中非常简单,只需用一行代码就可以搞定。

根据不同的版本,flink给我们提供了三种kafka sink,分别是:

FlinkKafkaProducer09FlinkKafkaProducer010FlinkKafkaProducer011

示例:dataStream中的数据写入到kafka

(1)引入依赖


    org.apache.flink
    flink-connector-kafka-0.11_2.12
    1.10.1

(2)将FlinkKafkaProducer011对象添加到addSink中

DataStream dataStream = env.fromElements("hello","world","flink");
dataStream.addSink(new FlinkKafkaProducer011[String]("localhost:9092", "test", new SimpleStringSchema()))
2.5 基于Redis的Sink

flink给我们提供了写入Redis的Sink,这使得将dataStream中的数据写入到Redis非常简洁。

示例:将dataStream中的数据写入到Redis

(1)引入依赖


    org.apache.bahir
    flink-connector-redis_2.11
    1.0

(2)定义一个redis的mapper类,用于定义保存到redis时调用的命令

public static class MyRedisMapper implements RedisMapper>{

    // 保存到redis的命令,存成哈希表
    public RedisCommandDescription getCommandDescription() {
        return new RedisCommandDescription(RedisCommand.HSET, "wordcount");
    }

    public String getKeyFromData(Tuple2 data) {
        return data.f0;
    }

    public String getValueFromData(Tuple2 data) {
        return data.f1.toString();
    }
}

(3)将MyRedisMapper对象添加到addSink中

DataStream> dataStream = env.fromElements(
		new Tuple2<>("hello",1L),
		new Tuple2<>("world",3L),
		new Tuple2<>("flink",5L));

FlinkJedisPoolConfig config = new FlinkJedisPoolConfig.Builder()
        .setHost("localhost")
        .setPort(6379)
        .build();

dataStream.addSink( new RedisSink>(config, new MyRedisMapper()) );
2.6 基于Elasticsearch的Sink

flink也给我们提供了写入Elasticsearch的Sink。

示例:将dataStream中的数据写入到Elasticsearch

(1)引入依赖


    org.apache.flink
    flink-connector-elasticsearch6_2.12
    1.10.1

(2)ElasitcsearchSinkFunction的实现

public static class MyEsSinkFunction implements ElasticsearchSinkFunction>{
    @Override
    public void process(Tuple2 element, RuntimeContext ctx, RequestIndexer indexer) {

        HashMap dataSource = new HashMap<>();
        dataSource.put("word",element.f0);
        dataSource.put("count",element.f1.toString());

        IndexRequest indexRequest = Requests.indexRequest()
                .index("wordcount")
                .type("readingData")
                .source(dataSource);

        indexer.add(indexRequest);
    }
}

(3)将ElasitcsearchSinkFunction对象添加到addSink中

// es的httpHosts配置
ArrayList httpHosts = new ArrayList<>();
httpHosts.add(new HttpHost("localhost", 9200));

dataStream.addSink( new ElasticsearchSink.Builder>(httpHosts, new MyEsSinkFunction()).build());
3. Rich版本的UDF Sink

如果Flink没有预置的Sink,我们可以自定义Sink,自定义Sink方法有两种:

通过实现RichSinkFunction抽象类定义Rich版本的Sink通过实现SinkFunction接口定义一般的Sink

这里补充一下富函数(RichFunction)的知识。

富函数(RichFunction)是DataStream API提供的一个函数类的接口,所有Flink函数类都有其Rich版本。它与常规函数的不同在于,可以获取运行环境的上下文,并拥有一些生命周期方法,所以可以实现更复杂的功能。比如,我们常见的Map、FlatMap、Filter算子富函数版如下:

RichMapFunctionRichFlatMapFunctionRichFilterFunction

Rich Function典型的生命周期方法有:

open()方法是rich function的初始化方法,当一个算子被调用之前open()会被调用。close()方法是生命周期中的最后一个调用的方法,做一些清理工作。getRuntimeContext()方法提供了函数的RuntimeContext的一些信息,例如函数执行的并行度,任务的名字,以及state状态。

现在,我们通过实现RichSinkFunction定义Rich版本的JDBC Sink。

(1)在mysql中创建wordcount表

DROp TABLE IF EXISTS `wordcount`;
CREATE TABLE `wordcount` (
  `word` varchar(25) DEFAULT NULL,
  `count` bigint(20) DEFAULT NULL
) ENGINE=InnoDB DEFAULT CHARSET=utf8;

(2)引入mysql jdbc依赖


	mysql
	mysql-connector-java
	5.1.24

(3)自定义rich版JDBC Sink,向mysql中插入数据

class MyJDBCSink extends RichSinkFunction> {
    //声明连接和预编译语句
    Connection connection=null;
    PreparedStatement insertStmt=null;
    PreparedStatement updateStmt=null;

    @Override
    public void open(Configuration parameters) throws Exception {
        connection = DriverManager.getConnection("jdbc:mysql://localhost:3306/test"
                ,"root","123456");
        insertStmt = connection.prepareStatement("insert into wordcount (word,count) value  (?,?)");
        updateStmt = connection.prepareStatement("update wordcount set count= ? where word = ?");
    }

    //每来一条数据,调用连接,执行sql
    @Override
    public void invoke(Tuple2 value, Context context) throws Exception {
        //直接执行更新语句,如果没有更新那么就插入
        updateStmt.setLong(1,value.f1);
        updateStmt.setString(2,value.f0);
        updateStmt.execute();

        if(updateStmt.getUpdateCount()==0){
            insertStmt.setString(1,value.f0);
            insertStmt.setDouble(2,value.f1);
            insertStmt.execute();
        }
    }

    @Override
    public void close() throws Exception {
        insertStmt.close();
        updateStmt.close();
        connection.close();
    }
}

(4)将MyJDBCSink对象添加到addSink中

DataStream> dataStream = env.fromElements(
		new Tuple2<>("hello",1L),
		new Tuple2<>("world",3L),
		new Tuple2<>("flink",5L),
		new Tuple2<>("world",99L));

dataStream.addSink(new MyJDBCSink());

可以看到,继承RichSinkFunction抽象类,我们可以通过实现其open、close等方法,控制算子的声明周期,从而在算子被调用之前,连接Mysql并初始化预编译语句,算子执行过程中只进行插入和更新 *** 作,执行完成后释放连接。这样就能做到整个 *** 作过程只与Mysql连接一次,加快了执行效率。

4. 一般的UDF Sink

通过实现SinkFunction接口定义一般的Sink:

(1)实现SinkFunction,向mysql中插入数据

class MyJDBCSink implements SinkFunction> {
    @Override
    public void invoke(Tuple2 value) throws Exception {
        //声明连接和预编译语句
        Connection connection = DriverManager.getConnection("jdbc:mysql://localhost:3306/test"
                , "root", "123456");
        PreparedStatement insertStmt = connection.prepareStatement("insert into wordcount (word,count) value  (?,?)");
        PreparedStatement updateStmt = connection.prepareStatement("update wordcount set count= ? where word = ?");

        //直接执行更新语句,如果没有更新那么就插入
        updateStmt.setLong(1,value.f1);
        updateStmt.setString(2,value.f0);
        updateStmt.execute();

        if(updateStmt.getUpdateCount()==0){
            insertStmt.setString(1,value.f0);
            insertStmt.setDouble(2,value.f1);
            insertStmt.execute();
        }

        insertStmt.close();
        updateStmt.close();
        connection.close();
    }
}


(2)将MyJDBCSink对象添加到addSink中

DataStream> dataStream = env.fromElements(
		new Tuple2<>("hello", 1L),
		new Tuple2<>("world", 3L),
		new Tuple2<>("flink", 5L),
		new Tuple2<>("world", 99L));

dataStream.addSink(new MyJDBCSink());

可以看到这种方式虽然简单,但是每来一个数据,就要连接mysql和释放连接,加重了资源的消耗,与rich版JDBC Sink相比,效率低很多。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5706199.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-17
下一篇 2022-12-17

发表评论

登录后才能评论

评论列表(0条)

保存