Apache Hudi:CDC的黄金搭档

1. 介绍
Apache Hudi是一个开源的数据湖框架,旨在简化增量数据处理和数据管道开发。借助Hudi可以在Amazon S3、Aliyun OSS数据湖中进行记录级别管理插入/更新/删除。AWS EMR集群已支持Hudi组件,并且可以与AWS Glue Data Catalog无缝集成。此特性可使得直接在Athena或Redshift Spectrum查询Hudi数据集。
对于企业使用AWS云的一种常见数据流如图1所示,即将数据实时复制到S3。
本篇文章将介绍如何使用Oracle GoldenGate
来捕获变更事件并利用Hudi格式写入S3数据湖。
Oracle GG可以使用多个处理程序和格式输出,请查看此处获取更多信息。
本篇文章中不关心处理程序,我们假设使用Avro Operation格式,这种格式较为冗长,但有着广泛应用,因为其平衡了数据完整性和性能。如图2所示,此格式包含每个记录的before
和after
版本。
即使完整且易于生成,此格式也不适合用Athena或Spectrum进行分析,从使用角度也无法替代源数据。此外你可能需要对历史数据进行分区处理以便快速检索。
本文我们将介绍如何利用Apache Hudi框架做到这一点,以构建易于分析的目标数据集。
2. 系统架构
我们不详细介绍如何将avro格式文件放入Replica S3
桶中,整个数据体系结构如下所示
Hudi代码运行在EMR集群中,从Replica S3
桶中读取avro数据,并将目标数据集存储到Target S3
桶中。
EMR软件配置如下
硬件配置如下
由于插入/更新
始终保留最后一条记录,因此Hudi作业非常具有弹性, 因此可以利用Spot Instance(抢占式实例)
大大降低成本。
除此之外,还需要设置
- 源bucket(如 my-s3-sourceBucket)
- 目标bucket (如 my-s4-targetBucket)
- Glue数据库(如 sales-db)
配置完后需要确保EMR集群有读写权限。
如果你需要一些样例数据,可以点击此处获取。当设置好桶后,启动EMR集群并将这些样例数据导入Replica
桶。
3. 关于分区的注意事项
为构建按时间划分的数据集,必须确定不可变的日期类型字段。参照示例数据集(销售订单),我们假设订单日期永远不会改变,因此我们将DAT_ORDER
字段作为写入Hudi数据集的分区字段。
分区方式是YYYY/MM/DD,通过该方式,所有数据将被组织在嵌套的子文件夹中。Hudi框架将提供此分区信息,并将一个特定字段添加到关联的Hive/Glue表中。当查询时,该字段上的过滤条件将转换为超高效的分区修剪扫描条件。
实际上这是我们必须对数据集做的唯一强假设,所有其他信息都在avro文件中(字段名称,字段类型,PK等)。
除此元数据外,GoldenGate通常还会添加一些其他信息,例如表名称,操作时间戳,操作类型(插入/更新/删除)和自定义标记。你可以利用这些字段来构造通用逻辑并构建灵活的迁移平台。
4. 步骤
启动spark-shell
启动后可以运行如下代码:
上述简化了部分代码,可以在此处找到完整的代码。
5. 结果
输出的S3对象结果如下所示
同时Glue数据目录将使该表可用于通过外部模式在Athena或Spectrum中进行查询分析,外部表具有我们用于分区的hudi_part_date附加字段。