本文介绍如何使用数据传输服务DTS(Data Transmission Service),结合Kafka集群与TiDB数据库的Pump、Drainer组件,完成增量数据迁移,实现在应用不停服的情况下,平滑地完成数据库的迁移上云。
前提条件
注意
- 由于该功能仅在部分地域支持,目标RDS MySQL实例所属的地域需为华东1(杭州)、华东2(上海)、华北1(青岛)、华北2(北京)、华南1(深圳)、华北3(张家口)、中国香港、亚太东南1(新加坡)、美国西部1(硅谷)或美国东部1(弗吉利亚)地域。
- RDS MySQL实例的存储空间须大于TiDB数据库已占用的存储空间。
背景信息

由于TiDB的Binlog格式和实现机制与MySQL数据库存在一定区别,为实现增量数据迁移,同时减少对源数据库的改动,您需要部署Kafka集群以及TiDB数据库的Pump和Drainer组件。
由Pump组件实时记录TiDB产生的Binlog并提供给Drainer组件,然后由Drainer组件将获取到的Binlog写入到下游的Kafka集群。DTS在执行增量数据迁移时将从Kafka集群中获取对应的数据并实时迁移至目标数据库(例如RDS MySQL实例)。
注意事项
- DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较大的情况下(例如源库有大量慢SQL、存在无主键表或目标库存在死锁等),可能会加重数据库压力,甚至导致数据库服务不可用。因此您需要在执行数据迁移前评估源库和目标库的性能,同时建议您在业务低峰期执行数据迁移(例如源库和目标库的CPU负载在30%以下)。
- 如果源库中待迁移的表没有主键或唯一约束,且所有字段没有唯一性,可能会导致目标数据库中出现重复数据。
- 对于数据类型为FLOAT或DOUBLE的列,DTS会通过
ROUND(COLUMN,PRECISION)
来读取该列的值。如果没有明确定义其精度,DTS对FLOAT的迁移精度为38位,对DOUBLE的迁移精度为308位,请确认迁移精度是否符合业务预期。 - DTS会自动地在阿里云RDS MySQL中创建数据库,如果待迁移的数据库名称不符合阿里云RDS的定义规范,您需要在配置迁移任务之前在阿里云RDS MySQL中创建数据库。
说明 关于阿里云RDS的定义规范和创建数据库的操作方法,请参见创建数据库。
- 对于迁移失败的任务,DTS会触发自动恢复。在您将业务切换至目标实例前,请务必先结束或释放该任务,避免该任务被自动恢复后,导致源端数据覆盖目标实例的数据。
费用说明
迁移类型 | 链路配置费用 | 公网流量费用 |
---|---|---|
结构迁移和全量数据迁移 | 不收费。 | 通过公网将数据迁移出阿里云时将收费,详情请参见产品定价。 |
增量数据迁移 | 收费,详情请参见产品定价。 |
迁移类型说明
迁移类型 | 说明 |
---|---|
结构迁移 | DTS将待迁移对象的结构定义迁移到目标库。目前DTS支持结构迁移的对象为库、表和视图。
警告 此场景属于异构数据库间的数据迁移,DTS在执行结构迁移时数据类型无法完全对应,请谨慎评估数据类型的映射关系对业务的影响,详情请参见异构数据库间的数据类型映射关系。
|
全量数据迁移 | DTS将待迁移对象的存量数据全部迁移到目标库中。
说明 由于全量数据迁移会并发INSERT导致目标实例的表存在碎片,全量迁移完成后目标库的表空间会比源库的表空间大。
|
增量数据迁移 | DTS从Kafka集群中获取TiDB产生的Binlog数据,然后将对应的增量更新实时迁移至到目标库中。增量数据迁移阶段支持下列SQL操作的同步:
通过增量数据迁移可以实现在应用不停服的情况下,平滑地完成数据库的迁移上云。 |
准备工作
说明 为减少网络延迟对增量数据迁移的影响,Pump组件、Drainer组件和Kafka集群所部署的服务器需要与源库所属的服务器在同一内网中。