全部产品
Search
文档中心

大数据开发治理平台 DataWorks:MySQL整库实时同步至Elasticsearch

更新时间:Mar 06, 2026

数据集成支持将MySQL等源头的数据整库实时同步至Elasticsearch。本文以MySQL为源端、Elasticsearch为目标端场景为例,为您介绍如何将MySQL整个数据库的数据全量+增量实时同步至Elasticsearch。

准备工作

配置任务

步骤一:新建同步任务

  1. 进入数据集成页面。

    登录DataWorks控制台,切换至目标地域后,单击左侧导航栏的数据集成 > 数据集成,在下拉框中选择对应工作空间后单击进入数据集成

  2. 在左侧导航栏单击同步任务,然后在页面顶部单击新建同步任务,并配置任务信息:

    • 数据来源类型MySQL

    • 数据去向类型Elasticsearch

    • 具体类型整库实时

    • 同步步骤

      • 结构迁移:自动在目标端创建与源端匹配的索引结构(如索引、字段映射等),但不包含数据。

      • 全量同步(可选):一次性将源端指定对象(如表)中的所有历史数据完整地复制到目标端。通常用于首次数据迁移或数据初始化。

      • 增量同步(可选):在全量同步完成后,持续地捕获源端发生的变更数据(新增、修改、删除),并将其同步至目标端。

步骤二:配置数据源与运行资源

  1. 来源数据源选择已添加的MySQL数据源,去向数据源选择已添加的Elasticsearch数据源。

  2. 运行资源区域,选择同步任务所使用的资源组,并为该任务分配资源组CU

    说明

    当任务日志中出现Please confirm whether there are enough resources...等资源不足的提示时,说明当前资源组的可用计算单元(CU)已无法满足任务启动或运行的需求。可在资源组配置面板中,适当调高任务占用的CU数量,以分配更多计算资源。

    资源设置大小推荐值详见:数据集成推荐CU,实际使用时需根据实际情况进行调整。

  3. 并确保来源数据源与去向数据源均通过连通性检查

步骤三:同步方案配置

1. 配置数据来源

此步骤中,您可以在源端库表区域选择源端数据源下需要同步的表,并单击image图标,将其移动至右侧已选库表。若库表数较多,可以使用库过滤或者表过滤,通过配置正则表达式来选择需要同步的表。

image

当需要将多个分库分表(结构相同)写入同一目标表时,可使用正则选表
在源表配置中填写正则表达式,DataWorks 将自动识别并采集所有匹配的源表,并将其数据统一写入该表达式映射的目标表中。

说明

此方式适用于分片表合并同步场景,提升配置效率,避免重复添加多对一同步规则。

2. 目标表映射

操作

说明

刷新映射

系统会自动列出您选择的源端表,但目标表的具体属性需要您刷新确认后才能生效。

  • 批量选中需要同步的表,单击批量刷新映射。

  • 目标表名:目标表名将根据目标表名映射自定义规则自动生成。默认为 ${源端库名}_${表名},如果目标端不存在此同名表,系统将自动为您创建。

目标索引名映射自定义(可选)

系统存在默认的表名生成规则:${源端库名}_${表名}。您也可以在目标表名映射自定义列,单击编辑按钮可以新增自定义目标表名规则。

  • 规则名称:定义规则名称,建议为规则配置一个具有明确业务意义的名称。

  • 目标表名:目标表名可以通过单击image按钮,选择手动输入内置变量进行拼接,生成目标表名。其中变量支持源端数据源名,源端数据库名和源端表名。

  • 编辑内置变量:内置变量可以在原有的基础上进行字符串转换。

可实现如下场景:

  1. 名添加前后缀:通过设置常量在源端表名的基础上,添加前缀或者后缀。

    规则配置

    应用效果

    image

    image

  2. 字符串统一替换:将源端表名的字符串dev_,统一替换为prd_

    规则配置

    应用效果

    image

    image

  3. 多张表写入一张表:目标表名设为常量。

    规则配置

    应用效果

    image

    image

编辑字段类型映射(可选)

系统存在默认的来源类型目标类型映射,您可以单击表格右上角的编辑字段类型映射,自定义源端表与目标端表字段类型映射关系,配置完后单击应用并刷新映射

编辑字段类型映射时,需要注意字段类型转换规则是否正确,否则会导致类型转换失败而产生脏数据,影响任务运行。

编辑目标索引(可选)

系统会根据自定义的索引名映射规则,自动创建尚不存在的目标索引,或复用已存在的同名索引。

DataWorks将基于源端表结构自动生成目标索引结构,常规场景下无需人工干预。

当目标索引为待建立状态时,您可以为目标索引在原有表结构基础上新增字段。操作如下:

  1. 为目标索引添加字段

    • 单表新增字段:单击目标索引名列的image.png按钮,通过编辑建索引语句区域来添加字段。

      • 动态映射状态:用于在同步数据时,是否将数据源表的新增字段添加至目标索引中。取值如下:

        • true:当映射的目标索引检测到同步的数据源表中存在新添加的字段时,会将该字段同步添加至目标索引中,后续该字段可以被搜索。该取值为默认值。

        • false:当映射的目标索引检测到同步的数据源表中存在新添加的字段时,会将该字段同步添加至目标索引中,但后续该字段不可以被搜索。

        • strict:当映射的目标索引检测到同步的数据源表中存在新添加的字段时,将拒绝同步该字段至目标索引并产生异常报错,您可以在日志信息中查看报错详情。

        • runtime:当映射的目标索引检测到同步的数据源表中存在新添加的字段时,新字段不会加到目标索引中,会在查询时作为 runtime field 处理,支持后续脚本计算和搜索。

        更多动态映射的内容,详情请参见动态映射

      • shard数量replica数量:索引的主分片及副本分片,用于将一个完整的索引分成多个分片,分布至不同的Elasticsearch节点上,构成分布式搜索,提升Elasticsearch的查询效率,详情请参见基本概念

        说明

        shard数量replica数量参数,配置运行后不可更改,默认取值为1

    • 批量新增字段:选中待同步的所有表,在表格底部选择批量修改 > 目标索引结构-批量增加字段

目标表字段赋值

原生字段会根据源端表和目标表的同名字段进行自动映射,上述步骤中的新增字段和目标索引属性需要手动赋值。操作如下:

  • 单表赋值:单击目标表字段赋值列的配置按钮,为目标表字段赋值。

  • 批量赋值:在列表底部选择批量修改 > 目标表字段赋值为目标表中相同的字段批量赋值。

在赋值时支持赋值常量与变量,可在赋值方式中进行切换类型,支持方式如下:

  • 目标表字段

    • 手动赋值:直接输入常量值,如:abc

    • 来源字段:将源端表字段的值作为目标字段的值,其中取值类型可选字段值或者时间值。

      • 字段值:将来源字段的值直接写入目标端。

      • 时间值:若来源字段中的值为时间,可根据不同的格式进行相应处理,并指定目标格式对分取值进行格式化。

        • 时间字符串:表示时间的字符串,如:“2018-10-23 02:13:56”、“2021/05/18”。通过指定源端和目标端的时间格式的方式将其序列化为时间。如上文举例的字符串,可以使用yyyy-MM-dd HH:mm:ssyyyy/MM/dd的格式进行序列化来识别。

        • 时间对象:如果来源值本身是DateDatetime这种时间类型的格式,请直接选择该类型。

        • Unix时间戳(秒):秒级别时间戳,也支持符合10位时间戳格式的数字或字符串,比如1610529203“1610529203”

        • Unix时间戳(毫秒):毫秒级别时间戳,也支持符合13位时间戳格式的数字或字符串,比如1610529203002“1610529203002”

    • 选择变量:选择系统提供的变量作为赋值来源。

    • 函数:支持通过函数对来源字段进行简单变换后作为分区值。使用方式详见:使用函数表达式为目标表字段赋值

  • 目标索引属性赋值:为目标索引的同步主键进行赋值,可以将多个来源字段进行拼接后组合成为索引主键。请注意所设置的值的唯一性。

源端切分列

您可以在源端切分列中下拉选择源端表中的字段或选择不切分。同步任务执行时将根据该字段切分为多个task,以便并发、分批读取数据。

推荐使用表主键作为源端切分列,不支持字符串、浮点和日期等其他类型。

目前仅源端为MySQL时支持源端切分列。

是否跳过全量同步

若已在步骤三配置全量同步,可以单独取消同步某个表的全量数据同步。适用于已经通过其他方式将全量数据同步至目标端的场景。

全量条件

在全量阶段对源端进行条件过滤。此处只需写where子句,不需要写出where关键字。

DML规则配置

DML消息处理用于在数据写入目标端之前,对源端捕获的变更数据(InsertUpdateDelete)进行精细化的过滤与控制,此规则仅在增量阶段生效。

步骤四:高级配置

高级参数配置

如果需要对任务做精细化配置,达到自定义同步需求,可以进入高级参数页签,修改高级参数。

  1. 单击界面右上方的高级配置,进入高级参数配置页面。

  2. 根据参数提示,修改参数值,参数含义见参数名称后的解释。

  3. 也支持使用AI配置,输入自然语言修改指令,如调整任务并发数,由大模型生成参数推荐值,您可以根据实际情况选择是否接受AI生成的参数。

    image

重要

请在完全明白对应参数的含义情况下再进行修改,避免产生任务延时、资源占用过大导致阻塞其他任务、数据丢失等不可预料的问题。

DDL能力配置

实时同步部分链路可以感知源端表结构的元数据变更,并且通知目标端,使目标端同步更新,或采取其他诸如告警、忽略或终止运行等处理策略。

您可以单击界面右上角的DDL能力配置,针对每一种变更类型设置对应的处理策略,不同的通道支持的处理策略不同。

  • 正常处理:由目标端处理源端的DDL变更信息。

  • 忽略:忽略变更消息,目标端不做修改。

  • 出错:终止整库实时同步任务,状态置为出错

  • 告警:当源端出现此类变更时,向用户告警。需在报警配置中配置DDL通知规则。

说明

当源端新增列并通过DDL同步在目标端也创建了该列后,系统不会对目标表中的存量数据进行数据回填。

步骤五:发布并执行任务

  1. 完成所有配置后,单击页面底部的保存,完成任务配置。

  2. 整库同步任务不支持直接调试,需要发布至运维中心运行。因此新建或者编辑任务均需执行发布操作后方可生效。

  3. 发布时,若勾选发布后直接启动运行,则在发布时会同步启动任务。否则,发布完成后,需要进入数据集成 > 同步任务界面,在目标任务的操作列,手动启动任务。

  4. 单击任务列表中对应任务的名称/ID,查看任务的详细执行过程。

步骤六:报警配置

1.新增报警

数据集成 > 同步任务列表,找到对应的整库实时任务,单击操作列的更多 > 报警配置,可为任务配置告警策略。

image

(1) 单击新建规则,配置报警规则。

您可以通过设置报警原因,对任务的业务延迟Failover任务状态DDL通知任务资源利用率等指标进行监控,并根据指定的阈值设置CRITICAL或WARNING两种不同级别的告警方式。

  • 通过设置高级参数配置,可以控制报警信息发送的时间间隔,防止一次性发送信息太多,造成浪费和消息堆积。

  • 若报警原因选择业务延迟任务状态任务资源利用率,也支持开启恢复通知,方便任务恢复正常后,通知接收人。

(2) 管理报警规则。

对于已创建的报警规则,您可以通过报警开关控制报警规则是否开启,同时,您可以根据报警级别将报警发送给不同的人员。

2.查看报警

单击展开任务列表的更多 > 报警配置,进入报警事件,可以查看已经发生的告警信息。

管理任务

编辑任务

  1. 数据集成 > 同步任务界面,找到已创建的同步任务,单击操作列的更多,单击编辑,可以修改任务信息,操作步骤同任务配置。

  2. 对于非运行状态的任务,您可以直接修改配置并保存,然后将任务发布至生产环境使其生效。

  3. 对于运行中的任务,编辑任务并发布时,若未选择发布后直接启动运行,原有的操作按钮将变为应用更新。您须单击此按钮,变更才会在线上环境中生效。

  4. 单击应用更新后,系统会对变更内容执行"停止发布重启"三个步骤。

    • 若变更方式为新增表或切换已有表

      更新应用时不支持选择位点,单击确认后,执行新表的结构迁移全量初始化,待全量初始化完成后,开始与其他原有表一起执行增量操作。

    • 若修改其他信息:

      更新应用时支持选择位点,单击确认后,从指定位点继续运行。若不指定,从上次停止的时间位点开始运行。

    未修改的表均不受影响,在更新重启后,会从上次停止的时间点继续运行。

查看任务

创建完成同步任务后,您可以在同步任务页面查看当前已创建的同步任务列表及各个同步任务的基本信息。

  • 您可以在操作列启动停止同步任务,在更多中可以对同步任务进行编辑查看等操作。image

  • 已启动的任务您可以在执行概况中看到任务运行的基本情况,也可以单击对应的概况区域查看执行详情。image

    MySQL到Elasticsearch的整库实时同步任务分为三个步骤:

    • 结构迁移:包含目标表的创建方式(已有表/自动建表),如果是自动建表,会展示DDL语句。

    • 全量初始化:包含离线同步的表信息、同步的进度、以及写入的条数。

    • 实时数据同步:包含实时同步的统计信息(实时的进度、DDL记录、DML记录和报警信息)。

任务重跑

在某些特殊情况下,如果您需要增减表、修改目标表Schema信息或者表名信息时,您还可以单击同步任务操作列的重跑,系统会将新增的表或有变更的表进行同步,之前同步过的表或者未修改的表将不会再进行同步。

  • 直接单击重跑操作,重新运行全量初始化+实时同步。

  • 编辑任务,进行增减表操作后,保存任务并发布。这个时候任务的操作列会显示应用更新,单击应用更新会直接触发修改后的任务重跑。此时新增或变更的表才会进行同步,之前同步过的表不会再同步。

断点续传

适用场景

在任务启动或重启时,手动重置位点主要适用于以下场景:

  • 任务恢复与数据续传:当任务因故中断后,为确保数据从准确的断点处恢复,可能需要手动指定一个中断时间点作为新的启动位点。

  • 数据问题排查与回溯:若发现同步后的数据存在丢失或异常,可将位点回溯至问题发生前的时间点,对问题数据进行重放和修复。

  • 任务配置重大变更:在对任务配置(如目标索引结构、字段映射等)进行重大调整后,建议重置位点从一个明确的时间点开始同步,以保证新配置下的数据准确性。

操作说明

单击启动,在弹窗中选择是否重置位点

  • 不勾选重置位点,直接运行:继续从上次停止的时间位点(最后一次checkpoint)运行。

  • 重置位点,并选择时间:从指定的时间位点开始运行,注意选择的时间不要超过源端的Binlog支持的最早时间位点。

重要

如果您在执行同步任务时提示位点错误或不存在,请按如下方式尝试解决:

  • 重置位点:在启动实时同步任务时,重置位点并选择源库可用的最早位点。

  • 调整日志保留时间:如果数据库位点过期,可以考虑在数据库中调整日志的保留时间,例如设置为7天。

  • 数据同步:如果数据已经丢失,可以考虑重新全量同步,或者配置一个离线同步任务来手动同步丢失的数据。

常见问题

整库实时常见问题参见:数据集成常见问题数据集成报错