HDFS
此引擎通过允许在 ClickHouse 中管理 HDFS 上的数据,提供与 Apache Hadoop 生态系统的集成。此引擎类似于 File 和 URL 引擎,但提供了 Hadoop 特定的功能。
此功能不受 ClickHouse 工程师支持,并且已知其质量不佳。如果出现任何问题,请自行解决并提交拉取请求。
用法
ENGINE = HDFS(URI, format)
引擎参数
URI
- HDFS 中的整个文件 URI。URI
的路径部分可能包含通配符。在这种情况下,表将为只读。format
- 指定可用文件格式之一。要执行SELECT
查询,该格式必须支持输入,要执行INSERT
查询,则必须支持输出。可用格式列在 格式 部分中。- [PARTITION BY expr]
PARTITION BY
PARTITION BY
— 可选。在大多数情况下,您不需要分区键,如果需要,通常不需要比按月更细粒度的分区键。分区不会加快查询速度(与 ORDER BY 表达式相反)。您永远不应该使用过细粒度的分区。不要按客户标识符或名称对数据进行分区(相反,让客户标识符或名称成为 ORDER BY 表达式中的第一列)。
要按月进行分区,请使用 toYYYYMM(date_column)
表达式,其中 date_column
是一个包含日期的列,日期类型为 Date。此处分区名称采用 "YYYYMM"
格式。
示例
1. 设置 hdfs_engine_table
表
CREATE TABLE hdfs_engine_table (name String, value UInt32) ENGINE=HDFS('hdfs://hdfs1:9000/other_storage', 'TSV')
2. 填充文件
INSERT INTO hdfs_engine_table VALUES ('one', 1), ('two', 2), ('three', 3)
3. 查询数据
SELECT * FROM hdfs_engine_table LIMIT 2
┌─name─┬─value─┐
│ one │ 1 │
│ two │ 2 │
└──────┴───────┘
实现细节
读取和写入可以并行进行。
不支持
ALTER
和SELECT...SAMPLE
操作。- 索引。
- 零拷贝 复制是可能的,但不推荐。
零拷贝复制尚未准备好投入生产在 ClickHouse 版本 22.8 及更高版本中,默认情况下禁用零拷贝复制。此功能不建议在生产环境中使用。
路径中的通配符
多个路径组件可以具有通配符。要进行处理,文件应存在并匹配整个路径模式。文件的列出会在 SELECT
期间确定(而不是在 CREATE
时)。
*
— 替换除/
之外的任意数量的任意字符,包括空字符串。?
— 替换任何单个字符。{some_string,another_string,yet_another_one}
— 替换任何字符串'some_string', 'another_string', 'yet_another_one'
。{N..M}
— 替换从 N 到 M 范围内的任何数字,包括两个边界。
带有 {}
的构造类似于 remote 表函数。
示例
假设我们在 HDFS 上有几个 TSV 格式的文件,具有以下 URI
- 'hdfs://hdfs1:9000/some_dir/some_file_1'
- 'hdfs://hdfs1:9000/some_dir/some_file_2'
- 'hdfs://hdfs1:9000/some_dir/some_file_3'
- 'hdfs://hdfs1:9000/another_dir/some_file_1'
- 'hdfs://hdfs1:9000/another_dir/some_file_2'
- 'hdfs://hdfs1:9000/another_dir/some_file_3'
有几种方法可以创建一个包含所有六个文件的表
CREATE TABLE table_with_range (name String, value UInt32) ENGINE = HDFS('hdfs://hdfs1:9000/{some,another}_dir/some_file_{1..3}', 'TSV')
另一种方法
CREATE TABLE table_with_question_mark (name String, value UInt32) ENGINE = HDFS('hdfs://hdfs1:9000/{some,another}_dir/some_file_?', 'TSV')
表包含两个目录中的所有文件(所有文件应满足查询中描述的格式和模式)
CREATE TABLE table_with_asterisk (name String, value UInt32) ENGINE = HDFS('hdfs://hdfs1:9000/{some,another}_dir/*', 'TSV')
如果文件列表包含带有前导零的数字范围,请为每个数字单独使用带大括号的构造或使用 ?
。
示例
创建包含名为 file000
、file001
、...、file999
的文件的表
CREATE TABLE big_table (name String, value UInt32) ENGINE = HDFS('hdfs://hdfs1:9000/big_dir/file{0..9}{0..9}{0..9}', 'CSV')
配置
与 GraphiteMergeTree 类似,HDFS 引擎支持使用 ClickHouse 配置文件进行扩展配置。您可以使用两个配置键:全局 (hdfs
) 和用户级别 (hdfs_*
)。全局配置首先应用,然后应用用户级别配置(如果存在)。
<!-- Global configuration options for HDFS engine type -->
<hdfs>
<hadoop_kerberos_keytab>/tmp/keytab/clickhouse.keytab</hadoop_kerberos_keytab>
<hadoop_kerberos_principal>[email protected]</hadoop_kerberos_principal>
<hadoop_security_authentication>kerberos</hadoop_security_authentication>
</hdfs>
<!-- Configuration specific for user "root" -->
<hdfs_root>
<hadoop_kerberos_principal>[email protected]</hadoop_kerberos_principal>
</hdfs_root>
配置选项
受 libhdfs3 支持
参数 | 默认值 |
---|---|
rpc_client_connect_tcpnodelay | true |
dfs_client_read_shortcircuit | true |
output_replace-datanode-on-failure | true |
input_notretry-another-node | false |
input_localread_mappedfile | true |
dfs_client_use_legacy_blockreader_local | false |
rpc_client_ping_interval | 10 * 1000 |
rpc_client_connect_timeout | 600 * 1000 |
rpc_client_read_timeout | 3600 * 1000 |
rpc_client_write_timeout | 3600 * 1000 |
rpc_client_socket_linger_timeout | -1 |
rpc_client_connect_retry | 10 |
rpc_client_timeout | 3600 * 1000 |
dfs_default_replica | 3 |
input_connect_timeout | 600 * 1000 |
input_read_timeout | 3600 * 1000 |
input_write_timeout | 3600 * 1000 |
input_localread_default_buffersize | 1 1024 1024 |
dfs_prefetchsize | 10 |
input_read_getblockinfo_retry | 3 |
input_localread_blockinfo_cachesize | 1000 |
input_read_max_retry | 60 |
output_default_chunksize | 512 |
output_default_packetsize | 64 * 1024 |
output_default_write_retry | 10 |
output_connect_timeout | 600 * 1000 |
output_read_timeout | 3600 * 1000 |
output_write_timeout | 3600 * 1000 |
output_close_timeout | 3600 * 1000 |
output_packetpool_size | 1024 |
output_heartbeat_interval | 10 * 1000 |
dfs_client_failover_max_attempts | 15 |
dfs_client_read_shortcircuit_streams_cache_size | 256 |
dfs_client_socketcache_expiryMsec | 3000 |
dfs_client_socketcache_capacity | 16 |
dfs_default_blocksize | 64 1024 1024 |
dfs_default_uri | "hdfs://127.0.0.1:9000" |
hadoop_security_authentication | "simple" |
hadoop_security_kerberos_ticket_cache_path | "" |
dfs_client_log_severity | "INFO" |
dfs_domain_socket_path | "" |
HDFS 配置参考 可能会解释一些参数。
ClickHouse 附加功能
参数 | 默认值 |
---|---|
hadoop_kerberos_keytab | "" |
hadoop_kerberos_principal | "" |
libhdfs3_conf | "" |
局限性
hadoop_security_kerberos_ticket_cache_path
和libhdfs3_conf
只能是全局的,不能是用户特定的
Kerberos 支持
如果 hadoop_security_authentication
参数的值为 kerberos
,则 ClickHouse 通过 Kerberos 进行身份验证。参数在 此处,hadoop_security_kerberos_ticket_cache_path
可能会有所帮助。请注意,由于 libhdfs3 的局限性,只支持传统方法,数据节点通信不受 SASL 保护(HADOOP_SECURE_DN_USER
是此类安全方法的可靠指示器)。使用 tests/integration/test_storage_kerberized_hdfs/hdfs_configs/bootstrap.sh
作为参考。
如果指定了 hadoop_kerberos_keytab
、hadoop_kerberos_principal
或 hadoop_security_kerberos_ticket_cache_path
,则将使用 Kerberos 身份验证。在这种情况下,hadoop_kerberos_keytab
和 hadoop_kerberos_principal
是必需的。
HDFS Namenode HA 支持
libhdfs3 支持 HDFS namenode HA。
- 将
hdfs-site.xml
从 HDFS 节点复制到/etc/clickhouse-server/
。 - 将以下部分添加到 ClickHouse 配置文件中
<hdfs>
<libhdfs3_conf>/etc/clickhouse-server/hdfs-site.xml</libhdfs3_conf>
</hdfs>
- 然后使用
hdfs-site.xml
的dfs.nameservices
标签值作为 HDFS URI 中的 namenode 地址。例如,将hdfs://[email protected]:8020/abc/
替换为hdfs://appadmin@my_nameservice/abc/
。
虚拟列
_path
— 文件的路径。类型:LowCardinalty(String)
。_file
— 文件的名称。类型:LowCardinalty(String)
。_size
— 文件的大小(以字节为单位)。类型:Nullable(UInt64)
。如果大小未知,则值为NULL
。_time
— 文件的最后修改时间。类型:Nullable(DateTime)
。如果时间未知,则值为NULL
。
存储设置
- hdfs_truncate_on_insert - 允许在插入之前截断文件。默认情况下禁用。
- hdfs_create_new_file_on_insert - 允许在每次插入时创建新文件,前提是格式有后缀。默认情况下禁用。
- hdfs_skip_empty_files - 允许在读取时跳过空文件。默认情况下禁用。
另请参阅