跳至主要内容

Apache Beam 与 ClickHouse 集成

Apache Beam 是一个开源的统一编程模型,使开发人员能够定义和执行批处理和流式(连续)数据处理管道。Apache Beam 的灵活性在于它能够支持各种数据处理场景,从 ETL(提取、转换、加载)操作到复杂事件处理和实时分析。此集成利用 ClickHouse 的官方 JDBC 连接器 作为底层插入层。

集成包

集成 Apache Beam 和 ClickHouse 所需的集成包在 Apache Beam I/O 连接器 下维护和开发 - 许多流行的数据存储系统和数据库的集成包。org.apache.beam.sdk.io.clickhouse.ClickHouseIO 实现位于 Apache Beam 仓库 中。

Apache Beam ClickHouse 包的设置

包安装

将以下依赖项添加到您的包管理框架中

<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-io-clickhouse</artifactId>
<version>${beam.version}</version>
</dependency>

工件可以在 官方 Maven 仓库 中找到。

代码示例

以下示例将名为 input.csv 的 CSV 文件读取为 PCollection,将其转换为 Row 对象(使用定义的模式),并使用 ClickHouseIO 将其插入到本地 ClickHouse 实例中


package org.example;

import org.apache.beam.sdk.Pipeline;
import org.apache.beam.sdk.io.TextIO;
import org.apache.beam.sdk.io.clickhouse.ClickHouseIO;
import org.apache.beam.sdk.schemas.Schema;
import org.apache.beam.sdk.transforms.DoFn;
import org.apache.beam.sdk.transforms.ParDo;
import org.apache.beam.sdk.values.PCollection;
import org.apache.beam.sdk.values.Row;
import org.joda.time.DateTime;


public class Main {


public static void main(String[] args) {
// Create a Pipeline object.
Pipeline p = Pipeline.create();

Schema SCHEMA =
Schema.builder()
.addField(Schema.Field.of("name", Schema.FieldType.STRING).withNullable(true))
.addField(Schema.Field.of("age", Schema.FieldType.INT16).withNullable(true))
.addField(Schema.Field.of("insertion_time", Schema.FieldType.DATETIME).withNullable(false))
.build();


// Apply transforms to the pipeline.
PCollection<String> lines = p.apply("ReadLines", TextIO.read().from("src/main/resources/input.csv"));


PCollection<Row> rows = lines.apply("ConvertToRow", ParDo.of(new DoFn<String, Row>() {
@ProcessElement
public void processElement(@Element String line, OutputReceiver<Row> out) {

String[] values = line.split(",");
Row row = Row.withSchema(SCHEMA)
.addValues(values[0], Short.parseShort(values[1]), DateTime.now())
.build();
out.output(row);
}
})).setRowSchema(SCHEMA);

rows.apply("Write to ClickHouse",
ClickHouseIO.write("jdbc:clickhouse://127.0.0.1:8123/default?user=default&password=******", "test_table"));

// Run the pipeline.
p.run().waitUntilFinish();
}
}

支持的数据类型

ClickHouseApache Beam是否支持备注
TableSchema.TypeName.FLOAT32Schema.TypeName#FLOAT
TableSchema.TypeName.FLOAT64Schema.TypeName#DOUBLE
TableSchema.TypeName.INT8Schema.TypeName#BYTE
TableSchema.TypeName.INT16Schema.TypeName#INT16
TableSchema.TypeName.INT32Schema.TypeName#INT32
TableSchema.TypeName.INT64Schema.TypeName#INT64
TableSchema.TypeName.STRINGSchema.TypeName#STRING
TableSchema.TypeName.UINT8Schema.TypeName#INT16
TableSchema.TypeName.UINT16Schema.TypeName#INT32
TableSchema.TypeName.UINT32Schema.TypeName#INT64
TableSchema.TypeName.UINT64Schema.TypeName#INT64
TableSchema.TypeName.DATESchema.TypeName#DATETIME
TableSchema.TypeName.DATETIMESchema.TypeName#DATETIME
TableSchema.TypeName.ARRAYSchema.TypeName#ARRAY
TableSchema.TypeName.ENUM8Schema.TypeName#STRING
TableSchema.TypeName.ENUM16Schema.TypeName#STRING
TableSchema.TypeName.BOOLSchema.TypeName#BOOLEAN
TableSchema.TypeName.TUPLESchema.TypeName#ROW
TableSchema.TypeName.FIXEDSTRINGFixedBytesFixedBytes 是一个表示固定长度的逻辑类型
字节数组位于
org.apache.beam.sdk.schemas.logicaltypes
Schema.TypeName#DECIMAL
Schema.TypeName#MAP

限制

使用连接器时,请考虑以下限制

  • 截至目前,仅支持 Sink 操作。连接器不支持 Source 操作。
  • 当插入到 ReplicatedMergeTree 或基于 ReplicatedMergeTree 构建的 Distributed 表中时,ClickHouse 会执行去重。在没有复制的情况下,如果插入失败然后成功重试,则插入到常规 MergeTree 中可能会导致重复。但是,每个块都是原子插入的,并且可以使用 ClickHouseIO.Write.withMaxInsertBlockSize(long) 配置块大小。去重是通过使用插入块的校验和来实现的。有关去重的更多信息,请访问 去重去重插入配置
  • 连接器不执行任何 DDL 语句;因此,目标表必须在插入之前存在。