如果同步的源集群为PolarDB MySQL集群,您需要在配置具体的同步任务前,参考本文的注意事项及限制,以保障数据同步任务的正常运行。

源实例为PolarDB MySQL的同步方案概览

根据如下同步方案,查看同步任务的注意事项及限制:
说明
DTS默认同步到目标数据库中时会取消外键约束,因此源数据库的级联、删除等操作不会同步到如下目标数据库:
  • MySQL(RDS MySQL、自建MySQL)
  • PolarDB MySQL
  • PolarDB-X 1.0
  • 云原生数据仓库AnalyticDB MySQL
  • 云原生数据仓库AnalyticDB PostgreSQL
  • Elasticsearch

PolarDB MySQL间的同步

具体注意事项及限制如下:
类型说明
源库限制
  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。
  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据迁移任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值
    说明
    • PolarDB MySQL开启Binlog日志会占用一定的存储空间,需要收取存储费用。
    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

其他限制
  • 不支持同步源PolarDB MySQL引擎只读节点。
  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。
  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。
  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。
  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management Service)来执行在线DDL变更,请参见不锁表结构变更
  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。
其他注意事项PolarDB MySQL集群间的双向同步
  • 目前DTS仅支持两个PolarDB MySQL集群之间的双向同步,暂不支持多个PolarDB MySQL集群间的双向同步。
  • DDL语法同步方向限制 。为保障双向同步链路的稳定性和数据一致性,只支持正向同步DDL,不支持反向同步DDL。
  • 双向同步任务时,DTS会在目标库中建立数据库dts,以避免数据循环同步,任务运行期间,请勿修改该库。
  • 如双向同步任务的源实例或目标实例位于海外地域,则仅支持同地域的双向同步,不支持跨地域的双向同步。例如,支持日本地域间的双向同步,不支持日本地域与法兰克福地域间的双向同步。
  • 若DTS正向和反向同步任务均同步了某个表,且正向同步任务同步了该表的全量和增量数据,则反向同步任务只同步该表的增量数据。
  • DTS会在源库定时执CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL同步至RDS MySQL、自建MySQL

具体注意事项及限制如下:
类型说明
源库限制
  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。
  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据迁移任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值
    说明
    • PolarDB MySQL开启Binlog日志会占用一定的存储空间,需要收取存储费用。
    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

其他限制
  • 不支持同步源PolarDB MySQL引擎只读节点。
  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。
  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。
  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。
  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management Service)来执行在线DDL变更,请参见不锁表结构变更
  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。
其他注意事项DTS会在源库定时执CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL同步至PolarDB-X 1.0

具体注意事项及限制如下:
类型说明
源库限制
  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。
  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据迁移任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值
    说明
    • PolarDB MySQL开启Binlog日志会占用一定的存储空间,需要收取存储费用。
    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

其他限制
  • 同步对象要求:
    • 不支持BIT、VARBIT、GEOMETRY、ARRAY、UUID、TSQUERY、TSVECTOR、TXID_SNAPSHOT类型的数据同步。
    • 暂不支持同步前缀索引,如果源库存在前缀索引可能导致数据同步失败。
    • 不支持同步源PolarDB MySQL引擎只读节点。
  • 暂不支持结构初始化,在配置同步任务前,您需要在目标实例中创建对应的库和表。
  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。
  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。
  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。
  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management Service)来执行在线DDL变更,请参见不锁表结构变更
  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。
其他注意事项DTS会在源库定时执CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL同步至云原生数据仓库AnalyticDB MySQL

具体注意事项及限制如下:
类型说明
源库限制
  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。
  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据迁移任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值
    说明
    • PolarDB MySQL开启Binlog日志会占用一定的存储空间,需要收取存储费用。
    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

  • 同步期间,请勿执行修改主键和添加注释的DDL操作(如ALTER TABLE table_name COMMENT='表的注释';),否则数据同步过程中会导致执行该DDL失败。
其他限制
  • 暂不支持同步前缀索引,如果源库存在前缀索引可能导致数据同步失败。
  • 不支持同步源PolarDB MySQL引擎只读节点。
  • 由于云原生数据仓库AnalyticDB MySQL本身的使用限制,当云原生数据仓库AnalyticDB MySQL集群中的节点磁盘空间使用量超过80%,会导致DTS任务异常,产生延迟。请提前根据待同步的对象预估所需空间,确保目标集群具备充足的存储空间。
  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。
  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。
  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。
  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management Service)来执行在线DDL变更,请参见不锁表结构变更
  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。
其他注意事项DTS会在源库定时执CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL同步至云原生数据仓库AnalyticDB PostgreSQL

具体注意事项及限制如下:
类型说明
源库限制
  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。
  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据迁移任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值
    说明
    • PolarDB MySQL开启Binlog日志会占用一定的存储空间,需要收取存储费用。
    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

  • 同步期间,请勿执行修改主键和添加注释的DDL操作(如ALTER TABLE table_name COMMENT='表的注释';),否则数据同步过程中会导致执行该DDL失败。
其他限制
  • 同步对象要求:
    • 仅支持表级同步。
    • 不支持BIT、VARBIT、GEOMETRY、ARRAY、UUID、TSQUERY、TSVECTOR、TXID_SNAPSHOT类型的数据同步。
    • 暂不支持同步前缀索引,如果源库存在前缀索引可能导致数据同步失败。
    • 不支持同步源PolarDB MySQL引擎只读节点。
  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。
  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。
  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。
  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management Service)来执行在线DDL变更,请参见不锁表结构变更
  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。
其他注意事项DTS会在源库定时执CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL同步至阿里云流式数据服务DataHub

具体注意事项及限制如下:
类型说明
源库限制
  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。
  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据迁移任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值
    说明
    • PolarDB MySQL开启Binlog日志会占用一定的存储空间,需要收取存储费用。
    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上,否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

其他限制
  • 不支持全量数据初始化,即DTS不会将源RDS实例中同步对象的存量数据同步至目标DataHub实例。
  • 支持库级和表级的数据同步。
  • 不支持同步源PolarDB MySQL引擎只读节点。
  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。
  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management Service)来执行在线DDL变更,请参见不锁表结构变更
  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。
其他注意事项DTS会在源库定时执CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL同步至Elasticsearch

具体注意事项及限制如下:
类型说明
源库限制
  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。
  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据迁移任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值
    说明
    • PolarDB MySQL开启Binlog日志会占用一定的存储空间,需要收取存储费用。
    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

其他限制
  • 不支持同步源PolarDB MySQL引擎只读节点。
  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。
  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。
  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。
  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management Service)来执行在线DDL变更,请参见不锁表结构变更
  • 如果源库中待同步的表需要执行增加列的操作,您只需先在Elasticsearch实例中修改对应表的mapping,然后在源MySQL数据库中执行相应的DDL操作,最后暂停并启动DTS同步实例。
  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。
其他注意事项DTS会在源库定时执CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL同步至阿里云消息队列Kafka、自建Kafka

具体注意事项及限制如下:
类型说明
源库限制
  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。
  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据迁移任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值
    说明
    • PolarDB MySQL开启Binlog日志会占用一定的存储空间,需要收取存储费用。
    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

其他限制
  • 不支持同步源PolarDB MySQL引擎只读节点。
  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。
  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。
  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。
  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management Service)来执行在线DDL变更,请参见不锁表结构变更
  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。
其他注意事项DTS会在源库定时执CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL同步至MaxCompute

具体注意事项及限制如下:
类型说明
源库限制
  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。
  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据迁移任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值
    说明
    • PolarDB MySQL开启Binlog日志会占用一定的存储空间,需要收取存储费用。
    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

其他限制
  • 不支持同步源PolarDB MySQL引擎只读节点。
  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。
  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。
  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。
  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management Service)来执行在线DDL变更,请参见不锁表结构变更
  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。
  • 由于MaxCompute不支持主键约束,当DTS在同步数据时因网络等原因触发重传,可能会导致MaxCompute中出现重复记录。
其他注意事项DTS会在源库定时执CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL同步至自建Oracle

具体注意事项及限制如下:
类型说明
源库限制
  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。
  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据迁移任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值
    说明
    • PolarDB MySQL开启Binlog日志会占用一定的存储空间,需要收取存储费用。
    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

其他限制
  • 不支持同步源PolarDB MySQL引擎只读节点。
  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。
  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。
  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。
  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management Service)来执行在线DDL变更,请参见不锁表结构变更
  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。
  • 若自建Oracle为RAC架构,不支持配置ScanIP,仅支持将其中任意1个VIP配置到连接信息中,该方式配置后不支持RAC的节点切换。
其他注意事项DTS会在源库定时执CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。