DM 集群性能测试
本文档介绍如何构建测试场景对 DM 集群进行性能测试,包括数据迁移速度、延迟等。
迁移数据流
可以使用简单的迁移数据流来测试 DM 集群的数据迁移性能,即单个 MySQL 实例到 TiDB 的数据迁移:MySQL -> DM -> TiDB。
部署测试环境
- 使用 TiUP 部署 TiDB 测试集群,所有配置使用 TiUP 提供的默认配置。
- 部署 MySQL 服务,开启
ROW
模式 binlog,其他配置项使用默认配置。 - 部署 DM 集群,部署一个 DM-worker 和一个 DM-master 即可。
性能测试
迁移数据表结构
使用如下结构的表进行性能测试:
CREATE TABLE `sbtest` (
`id` int(11) NOT NULL AUTO_INCREMENT,
`k` int(11) NOT NULL DEFAULT '0',
`c` char(120) CHARSET utf8mb4 COLLATE utf8mb4_bin NOT NULL DEFAULT '',
`pad` char(60) CHARSET utf8mb4 COLLATE utf8mb4_bin NOT NULL DEFAULT '',
PRIMARY KEY (`id`),
KEY `k_1` (`k`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin
全量导入性能测试用例
生成测试数据
使用 sysbench
在上游创建测试表,并生成全量导入的测试数据。sysbench
生成数据的命令如下所示:
sysbench --test=oltp_insert --tables=4 --mysql-host=172.16.4.40 --mysql-port=3306 --mysql-user=root --mysql-db=dm_benchmark --db-driver=mysql --table-size=50000000 prepare
创建数据迁移任务
创建上游 MySQL 的 source,将
source-id
配置为source-1
。详细操作方法参考:加载数据源配置。创建
full
模式的 DM 迁移任务,示例任务配置文件如下:--- name: test-full task-mode: full # 使用实际测试环境中 TiDB 的信息配置 target-database: host: "192.168.0.1" port: 4000 user: "root" password: "" mysql-instances: - source-id: "source-1" block-allow-list: "instance" # 如果 DM 版本 <= v2.0.0-beta.2 则使用 black-white-list mydumper-config-name: "global" loader-thread: 16 # 配置 sysbench 生成数据所在的库的名称 block-allow-list: # 如果 DM 版本 <= v2.0.0-beta.2 则使用 black-white-list instance: do-dbs: ["dm_benchmark"] mydumpers: global: rows: 32000 threads: 32
创建数据迁移任务的详细操作参考创建数据迁移任务。
注意:
- 在
mydumpers
配置项中使用rows
选项,可以开启单表多线程并发导出,加快数据导出速度。mysql-instances
配置中的loader-thread
以及mydumpers
配置项中的rows
和threads
可以做适当调整,测试在不同配置下对性能的影响。
获取测试结果
观察 DM-worker 日志,当出现 all data files have been finished
时,表示全量数据导入完成,此时可以看到消耗时间。示例日志如下:
[INFO] [loader.go:604] ["all data files have been finished"] [task=test] [unit=load] ["cost time"=52.439796ms]
根据测试数据的数据量和导入消耗时间,可以算出全量数据的迁移速度。
增量复制性能测试用例
初始化表
使用 sysbench
在上游创建测试表。
创建数据迁移任务
创建上游 MySQL 的 source, source-id 配置为
source-1
(如果在全量迁移性能测试中已经创建,则不需要再次创建)。详细操作方法参考:加载数据源配置。创建
all
模式的 DM 迁移任务,示例任务配置文件如下:--- name: test-all task-mode: all # 使用实际测试环境中 TiDB 的信息配置 target-database: host: "192.168.0.1" port: 4000 user: "root" password: "" mysql-instances: - source-id: "source-1" block-allow-list: "instance" # 如果 DM 版本 <= v2.0.0-beta.2 则使用 black-white-list syncer-config-name: "global" # 配置 sysbench 生成数据所在的库的名称 block-allow-list: # 如果 DM 版本 <= v2.0.0-beta.2 则使用 black-white-list instance: do-dbs: ["dm_benchmark"] syncers: global: worker-count: 16 batch: 100
创建数据迁移任务的详细操作参考创建数据迁移任务。
注意:
syncers
配置项中的worker-count
和batch
可以做适当调整,测试在不同配置下性能的差异。
生成增量数据
执行 sysbench
命令在上游持续生成增量数据:
sysbench --test=oltp_insert --tables=4 --num-threads=32 --mysql-host=172.17.4.40 --mysql-port=3306 --mysql-user=root --mysql-db=dm_benchmark --db-driver=mysql --report-interval=10 --time=1800 run
注意:
可以通过调整
sysbench
的语句类型,测试在不同业务场景下 DM 的数据迁移性能。
获取测试结果
通过 query-status
命令观测 DM 的迁移状态,通过 Grafana 观测 DM 的监控指标。主要包括单位时间内完成的 job 数量 finished sqls jobs
等,详细的监控指标说明参考 Binlog replication 监控指标。