本文介绍如何使用数据传输服务DTS(Data Transmission Service),结合Kafka集群与TiDB数据库的Pump、Drainer组件,完成增量数据迁移,实现在应用不停服的情况下,平滑地完成数据库的迁移上云。
前提条件
说明 增量迁移前,您可先将自建TiDB中的存量数据迁移至RDS MySQL,请参见从自建TiDB全量迁移至RDS MySQL。
重要
- 由于该功能仅在部分地域支持,目标RDS MySQL实例所属的地域需为华东1(杭州)、华东2(上海)、华北1(青岛)、华北2(北京)、华南1(深圳)、华北3(张家口)、中国香港、亚太东南1(新加坡)、美国西部1(硅谷)或美国东部1(弗吉尼亚)地域。
- RDS MySQL实例的存储空间须大于TiDB数据库已占用的存储空间。
背景信息

由于TiDB的Binlog格式和实现机制与MySQL数据库存在一定区别,为实现增量数据迁移,同时减少对源数据库的改动,您需要部署Kafka集群以及TiDB数据库的Pump和Drainer组件。
由Pump组件实时记录TiDB产生的Binlog并提供给Drainer组件,然后由Drainer组件将获取到的Binlog写入到下游的Kafka集群。DTS在执行增量数据迁移时将从Kafka集群中获取对应的数据并实时迁移至目标数据库(例如RDS MySQL实例)。
注意事项
- DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较大的情况下(例如源库有大量慢SQL、存在无主键表或目标库存在死锁等),可能会加重数据库压力,甚至导致数据库服务不可用。因此您需要在执行数据迁移前评估源库和目标库的性能,同时建议您在业务低峰期执行数据迁移(例如源库和目标库的CPU负载在30%以下)。
- 如果源库中待迁移的表没有主键或唯一约束,且所有字段没有唯一性,可能会导致目标数据库中出现重复数据。
- 对于数据类型为FLOAT或DOUBLE的列,DTS会通过
ROUND(COLUMN,PRECISION)
来读取该列的值。如果没有明确定义其精度,DTS对FLOAT的迁移精度为38位,对DOUBLE的迁移精度为308位,请确认迁移精度是否符合业务预期。 - DTS会自动地在阿里云RDS MySQL中创建数据库,如果待迁移的数据库名称不符合阿里云RDS的定义规范,您需要在配置迁移任务之前在阿里云RDS MySQL中创建数据库。 说明 关于阿里云RDS的定义规范和创建数据库的操作方法,请参见创建数据库。
- 对于迁移失败的任务,DTS会触发自动恢复。在您将业务切换至目标实例前,请务必先结束或释放该任务,避免该任务被自动恢复后,导致源端数据覆盖目标实例的数据。
费用说明
迁移类型 | 链路配置费用 | 公网流量费用 |
---|---|---|
结构迁移和全量数据迁移 | 不收费。 | 通过公网将数据迁移出阿里云时将收费,详情请参见计费概述。 |
增量数据迁移 | 收费,详情请参见计费概述。 |
迁移类型说明
迁移类型 | 说明 |
---|---|
结构迁移 | DTS将待迁移对象的结构定义迁移到目标库。目前DTS支持结构迁移的对象为库、表和视图。 警告 此场景属于异构数据库间的数据迁移,DTS在执行结构迁移时数据类型无法完全对应,请谨慎评估数据类型的映射关系对业务的影响,详情请参见异构数据库间的数据类型映射关系。 |
全量数据迁移 | DTS将待迁移对象的存量数据全部迁移到目标库中。 说明 由于全量数据迁移会并发INSERT导致目标实例的表存在碎片,全量迁移完成后目标库的表空间会比源库的表空间大。 |
增量数据迁移 | DTS从Kafka集群中获取TiDB产生的Binlog数据,然后将对应的增量更新实时迁移至到目标库中。增量数据迁移阶段支持下列SQL操作的同步:
通过增量数据迁移可以实现在应用不停服的情况下,平滑地完成数据库的迁移上云。 |
准备工作
说明 为减少网络延迟对增量数据迁移的影响,Pump组件、Drainer组件和Kafka集群所部署的服务器需要与源库所属的服务器在同一内网中。
- 部署Pump和Drainer组件,详情请参见TiDB Binlog集群部署。
- 修改Drainer组件的配置文件,设置输出为Kafka,详情请参见Kafka自定义开发。
- 选择下述方法准备Kafka集群:
- 部署自建Kafka集群,详情请参见Apache Kafka官网。 警告 为保障Kafka集群可正常接收到TiDB产生的较大的Binlog数据,请适当将Broker组件中的
message.max.bytes
、replica.fetch.max.bytes
参数以及Consumer组件中的fetch.message.max.bytes
参数对应的值调大,详细说明请参见Kafka配置说明。 - 使用阿里云消息队列Kafka版(MQ for Apache Kafka),详情请参见阿里云消息队列Kafka版快速入门。 说明 为保障正常通信和减少网络延迟对增量数据迁移的影响,部署阿里云消息队列Kafka实例时,需配置和源库服务器相同的专有网络。
- 部署自建Kafka集群,详情请参见Apache Kafka官网。
- 在自建Kafka集群或阿里云消息队列Kafka实例中创建Topic。
- 将DTS服务器的IP地址段加入至TiDB数据库的白名单安全设置中,具体IP地址段信息请参见迁移、同步或订阅本地数据库时需添加的IP白名单。
操作步骤
- 登录数据传输控制台。说明 若数据传输控制台自动跳转至数据管理DMS控制台,您可以在右下角的
中单击
,返回至旧版数据传输控制台。
- 在左侧导航栏,单击数据迁移。
- 在迁移任务列表页面顶部,选择迁移的目标集群所属地域。
- 单击页面右上角的创建迁移任务。
- 配置迁移任务的源库及目标库信息。
- 配置完成后,单击页面右下角的授权白名单并进入下一步。 如果源或目标数据库是阿里云数据库实例(例如RDS MySQL、云数据库MongoDB版等),DTS会自动将对应地区DTS服务的IP地址添加到阿里云数据库实例的白名单;如果源或目标数据库是ECS上的自建数据库,DTS会自动将对应地区DTS服务的IP地址添到ECS的安全规则中,您还需确保自建数据库没有限制ECS的访问;如果源或目标数据库是IDC自建数据库或其他云数据库,则需要您手动添加对应地区DTS服务的IP地址,以允许来自DTS服务器的访问。DTS服务的IP地址,请参见DTS服务器的IP地址段。警告 DTS自动添加或您手动添加DTS服务的公网IP地址段可能会存在安全风险,一旦使用本产品代表您已理解和确认其中可能存在的安全风险,并且需要您做好基本的安全防护,包括但不限于加强账号密码强度防范、限制各网段开放的端口号、内部各API使用鉴权方式通信、定期检查并限制不需要的网段,或者使用通过内网(专线/VPN网关/智能网关)的方式接入。
- 选择迁移类型和迁移对象。
配置 说明 迁移类型 - 如果只需要进行全量迁移,同时选中结构迁移和全量数据迁移。
- 如果需要进行不停机迁移,同时选中结构迁移、全量数据迁移和增量数据迁移。本案例同时选中这三种迁移类型。
迁移对象 在迁移对象框中单击待迁移的对象,然后单击 图标将其移动至已选择对象框。
说明- 迁移对象选择的粒度为库、表、列。若选择的迁移对象为表或列,其他对象(如视图、触发器、存储过程)不会被迁移至目标库。
- 默认情况下,迁移对象在目标库中的名称与源库保持一致。如果您需要改变迁移对象在目标库中的名称,需要使用对象名映射功能,详情请参见库表列映射。
- 如果使用了对象名映射功能,可能会导致依赖这个对象的其他对象迁移失败。
映射名称更改 如需更改迁移对象在目标实例中的名称,请使用对象名映射功能,详情请参见库表列映射。 源、目标库无法连接重试时间 默认重试12小时,您也可以自定义重试时间。如果DTS在设置的时间内重新连接上源、目标库,迁移任务将自动恢复。否则,迁移任务将失败。 说明 由于连接重试期间,DTS将收取任务运行费用,建议您根据业务需要自定义重试时间,或者在源和目标库实例释放后尽快释放DTS实例。 - 上述配置完成后,单击页面右下角的预检查并启动。说明
- 在迁移任务正式启动之前,会先进行预检查。只有预检查通过后,才能成功启动迁移任务。
- 如果预检查失败,单击具体检查项后的
,查看失败详情。
- 您可以根据提示修复后重新进行预检查。
- 如无需修复告警检测项,您也可以选择确认屏蔽、忽略告警项并重新进行预检查,跳过告警检测项重新进行预检查。
- 预检查通过后,单击下一步。
- 在弹出的购买配置确认对话框,选择链路规格并选中数据传输(按量付费)服务条款。
- 单击购买并启动,迁移任务正式开始。
- 结构迁移+全量数据迁移
请勿手动结束迁移任务,否则可能会导致数据不完整。您只需等待迁移任务完成即可,迁移任务会自动结束。
- 结构迁移+全量数据迁移+增量数据迁移
迁移任务不会自动结束,您需要手动结束迁移任务。
重要 请选择合适的时间手动结束迁移任务,例如业务低峰期或准备将业务切换至目标集群时。- 观察迁移任务的进度变更为增量迁移,并显示为无延迟状态时,将源库停写几分钟,此时增量迁移的状态可能会显示延迟的时间。
- 等待迁移任务的增量迁移再次进入无延迟状态后,手动结束迁移任务。
- 结构迁移+全量数据迁移