part_log
在 ClickHouse Cloud 中查询
此系统表中的数据本地保存在 ClickHouse Cloud 的每个节点上。 因此,要获得所有数据的完整视图,需要使用 clusterAllReplicas
函数。 有关更多详细信息,请参阅此处。
仅当指定了 part_log 服务器设置时,才会创建 system.part_log
表。
此表包含有关 数据部件 在 MergeTree 系列表中发生的事件的信息,例如添加或合并数据。
system.part_log
表包含以下列
hostname
(LowCardinality(String)) — 执行查询的服务器的主机名。query_id
(String) — 创建此数据部件的INSERT
查询的标识符。event_type
(Enum8) — 数据部件上发生的事件类型。 可以具有以下值之一NewPart
— 插入新的数据部件。MergePartsStart
— 数据部件的合并已开始。MergeParts
— 数据部件的合并已完成。DownloadPart
— 下载数据部件。RemovePart
— 使用 DETACH PARTITION 删除或分离数据部件。MutatePartStart
— 数据部件的突变已开始。MutatePart
— 数据部件的突变已完成。MovePart
— 将数据部件从一个磁盘移动到另一个磁盘。
merge_reason
(Enum8) — 类型为MERGE_PARTS
的事件的原因。 可以具有以下值之一NotAMerge
— 当前事件的类型不是MERGE_PARTS
。RegularMerge
— 一些常规合并。TTLDeleteMerge
— 清理过期的数据。TTLRecompressMerge
— 使用以下内容重新压缩数据部件。
merge_algorithm
(Enum8) — 类型为MERGE_PARTS
的事件的合并算法。 可以具有以下值之一Undecided
Horizontal
Vertical
event_date
(Date) — 事件日期。event_time
(DateTime) — 事件时间。event_time_microseconds
(DateTime64) — 具有微秒精度的事件时间。duration_ms
(UInt64) — 持续时间。database
(String) — 数据部件所在的数据库的名称。table
(String) — 数据部件所在的表的名称。part_name
(String) — 数据部件的名称。partition_id
(String) — 数据部件插入到的分区的 ID。 如果分区依据tuple()
,则该列采用all
值。path_on_disk
(String) — 包含数据部件文件的文件夹的绝对路径。rows
(UInt64) — 数据部件中的行数。size_in_bytes
(UInt64) — 数据部件的大小(以字节为单位)。merged_from
(Array(String)) — 组成当前部件的部件名称数组(合并后)。bytes_uncompressed
(UInt64) — 未压缩字节的大小。read_rows
(UInt64) — 合并期间读取的行数。read_bytes
(UInt64) — 合并期间读取的字节数。peak_memory_usage
(Int64) — 此线程上下文中已分配和已释放内存量之间的最大差值。error
(UInt16) — 发生的错误的代码编号。exception
(String) — 发生的错误的文本消息。
在首次将数据插入到 MergeTree
表后,将创建 system.part_log
表。
示例
SELECT * FROM system.part_log LIMIT 1 FORMAT Vertical;
Row 1:
──────
hostname: clickhouse.eu-central1.internal
query_id: 983ad9c7-28d5-4ae1-844e-603116b7de31
event_type: NewPart
merge_reason: NotAMerge
merge_algorithm: Undecided
event_date: 2021-02-02
event_time: 2021-02-02 11:14:28
event_time_microseconds: 2021-02-02 11:14:28.861919
duration_ms: 35
database: default
table: log_mt_2
part_name: all_1_1_0
partition_id: all
path_on_disk: db/data/default/log_mt_2/all_1_1_0/
rows: 115418
size_in_bytes: 1074311
merged_from: []
bytes_uncompressed: 0
read_rows: 0
read_bytes: 0
peak_memory_usage: 0
error: 0
exception: