title | category |
---|---|
TiDB-Lightning 错误排解 |
tools |
当 Lightning 遇到不可恢复的错误时便会异常退出,并在日志中记下错误原因。一般可在日志底部找到,也可以搜索 [error]
字符串找出中间发生的错误。本文主要描述一些常见的错误及其解决方法。
Lightning 的正常速度为每条线程每 5 分钟导入一个 256 MB 的 Chunk,如果速度远慢于这个数值就是有问题。导入的速度可以检查日志提及 restore chunk … takes
的记录,或者观察 Grafana 的监控讯息。
导入速度太慢一般有几个原因:
原因 1:region-concurrency
设定太高,线程间争用资源反而减低了效率。
- 从日志的开头搜寻
region-concurrency
能知道 Lightning 读到的参数是多少。 - 如果 Lightning 与其他服务(如 Importer)共用一台服务器,必需手动将
region-concurrency
设为该服务器 CPU 数量的 75%。 - 如果 CPU 设有限额(例如从 K8s 指定的上限),Lightning 可能无法自动判断出来,此时亦需要手动调整
region-concurrency
。
原因 2:表结构太复杂。
每条索引都会额外增加 KV 对。如果有 N 条索引,实际导入的大小就差不多是 mydumper 文件的 N+1 倍。如果索引不太重要,可以考虑先从 schema 去掉,待导入完成后再使用 CREATE INDEX
加回去。
原因 3:Lightning 版本太旧。
试试最新的版本吧!可能会有改善。
原因:本地数据源跟目标数据库某个表的校验和不一致。这通常有更深层的原因:
-
这张表可能本身已有数据,影响最终结果。
-
如果表没有整数型主键 (integer PRIMARY KEY),在断点续传后有些行可能会被重复导入。这是已知的问题,计划在下个版本中修正。
-
如果目标数据库的校验和全是 0,表示什么也没导进去,有可能是集群太忙无法接收导入的指令。
-
如果数据源是由机器生成而不是从 mydumper 备份的,需确保数据符合表的限制,例如:
- 自增 (AUTO_INCREMENT) 的列需要为正数,不能为 0。
- 单一键和主键 (UNIQUE and PRIMARY KEYs) 不能有重复的值。
解决办法:
- 使用
tidb-lightning-ctl --error-checkpoint-destroy=all
把出错的表删除,然后重启 Lightning 重新导入那些表。 - 把断点存放在外部数据库(修改
[checkpoint] dsn
),减轻目标集群压力。
原因:并行打开的引擎文件 (engine files) 超出 tikv-importer
里的限制。这可能由配置错误引起。即使配置没问题,如果 tidb-lightning
曾经异常退出,也有可能令引擎文件残留在打开的状态,占据可用的数量。
解决办法:
-
提高
tikv-importer.toml
内max-open-engine
的值。这个设置主要由内存决定,计算公式为:最大内存使用量 ≈
max-open-engine
×write-buffer-size
×max-write-buffer-number
-
降低
table-concurrency
,使之低于max-open-engine
。 -
重启
tikv-importer
来强制移除所有引擎文件。这样也会丢弃导入了一半的表,所以启动 Lightning 前必须使用tidb-lightning-ctl --error-checkpoint-destroy=all
。
原因:Lightning 只支持 UTF-8 和 GB-18030 编码的表架构。此错误代表数据源不是这里任一个编码。也有可能是文件中混合了不同的编码,例如,因为在不同的环境运行过 ALTER TABLE
,使表架构同时出现 UTF-8 和 GB-18030 的字符。
解决办法:
- 编辑数据源,保存为纯 UTF-8 或 GB-18030 的文件。
- 自行在目标数量库创建所有的表,然后设置
[mydumper] no-schema = true
跳过创建表的步骤。