学习 Flink(十六):Streaming Parquet File

栏目: 数据库 · 发布时间: 5年前

内容简介:Flink 支持将流数据以文件的形式写入文件系统(HDFS、本地文件系统),支持 CSV、JSON 面向行的存储格式和 Parquet 面向列的存储格式。应用场景:Flink 消费 Kafka 数据进行实时处理,并将结果以 Avro / Parquet 格式写入 HDFS。之后,遍可以使用 Spark 或 MPP 进行进一步分析。

更新至 Flink 1.8 版本

Flink 支持将流数据以文件的形式写入文件系统(HDFS、本地文件系统),支持 CSV、JSON 面向行的存储格式和 Parquet 面向列的存储格式。

应用场景:Flink 消费 Kafka 数据进行实时处理,并将结果以 Avro / Parquet 格式写入 HDFS。之后,遍可以使用 Spark 或 MPP 进行进一步分析。

学习 Flink(十六):Streaming Parquet File

由于流数据本身是无界的,所以,流数据将数据写入到分桶(bucket)中。默认使用基于时间的分桶策略。在分桶中,又根据滚动策略,将输出拆分为 part 文件。

Flink 提供了两个分桶策略,分桶策略实现了 org.apache.flink.streaming.api.functions.sink.filesystem.BucketAssigner 接口:

  • BasePathBucketAssigner ,不分桶,所有文件写到根目录;

  • DateTimeBucketAssigner ,基于系统时间分桶。

Flink 提供了两个滚动策略,滚动策略实现了 org.apache.flink.streaming.api.functions.sink.filesystem.RollingPolicy 接口:

  • DefaultRollingPolicy 当超过最大桶大小(默认为 128 MB),或超过了滚动周期(默认为 60 秒),或未写入数据处于不活跃状态超时(默认为 60 秒)的时候,滚动文件;

  • OnCheckpointRollingPolicy 当 checkpoint 的时候,滚动文件。

依赖

编辑 pom.xml 文件,添加依赖:

<dependency>  
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-parquet</artifactId>
    <version>1.8.0</version>
</dependency>  
<dependency>  
    <groupId>org.apache.parquet</groupId>
    <artifactId>parquet-avro</artifactId>
    <version>1.10.0</version>
</dependency>  
<dependency>  
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-connector-filesystem_2.11</artifactId>
    <version>1.8.0</version>
</dependency>  
<dependency>  
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-shaded-hadoop2</artifactId>
    <version>1.8.0</version>
</dependency>

Sink

StreamingFileSink<Event> parquetFileSink = StreamingFileSink  
        .forBulkFormat(new Path("hdfs://RESOURCE_MANAGER/data/event"), ParquetAvroWriters.forReflectRecord(Event.class))
        .withBucketAssigner(new DateTimeBucketAssigner<>("'date='yyyy-MM-dd'/hour='HH"))
        .build();

eventStream.addSink(parquetFileSink);

注意:Bulk-encoding 格式仅支持 OnCheckpointRollingPolicy ,即在每次 checkpoint 时滚动 part 文件。

总结

截止目前,Flink 的 Streaming File Sink 仍存在不少问题,如:

  • 不支持写入到 Hive

  • 写入 HDFS 产生大量小文件

参考


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Node.js开发指南

Node.js开发指南

郭家寶(BYVoid) / 人民邮电出版社 / 2012-7 / 45.00元

Node.js是一种方兴未艾的新技术,诞生于2009年。经过两年的快速变化,Node.js生态圈已经逐渐走向稳定。Node.js采用了以往类似语言和框架中非常罕见的技术,总结为关键词就是:非阻塞式控制流、异步I/O、单线程消息循环。不少开发者在入门时总要经历一个痛苦的思维转变过程,给学习带来巨大的障碍。 而本书的目的就是帮助读者扫清这些障碍,学会使用Node.js进行Web后端开发,同时掌握事件驱......一起来看看 《Node.js开发指南》 这本书的介绍吧!

HTML 编码/解码
HTML 编码/解码

HTML 编码/解码

HSV CMYK 转换工具
HSV CMYK 转换工具

HSV CMYK互换工具