全部產品
Search
文件中心

Data Transmission Service:PolarDB MySQL版同步至DataHub

更新時間:Jan 03, 2025

通過Data Transmission Service,您可以將PolarDB MySQL版叢集同步至阿里雲流式資料服務DataHub,實現增量資料的即時同步,協助您快速實現使用Realtime Compute等巨量資料產品即時分析資料。

前提條件

注意事項

說明

DTS不會將來源資料庫中的外鍵同步到目標資料庫,因此來源資料庫的級聯、刪除等操作不會同步到目標資料庫。

類型

說明

源庫限制

  • 待同步的表需具備主鍵或唯一約束,且欄位具有唯一性,否則可能會導致目標資料庫中出現重複資料。

  • 如同步對象為表層級,且需進行編輯(如表列名映射),則單次同步任務僅支援同步至多1000張表。當超出數量限制,任務提交後會顯示請求報錯,此時建議您拆分待同步的表,分批配置多個任務,或者配置整庫的同步任務。

  • 如需進行增量同步處理,需開啟Binlog日誌,並且需要將loose_polar_log_bin參數設定為on。否則預檢查階段提示報錯,且無法成功啟動資料同步任務。開啟Binlog日誌和修改參數的方法,請參見開啟Binlog修改參數值

    說明
    • PolarDB MySQL版開啟Binlog日誌會佔用一定的儲存空間,需要收取儲存費用。

    • 如為增量同步處理任務,DTS要求來源資料庫的本地Binlog日誌儲存24小時以上,否則DTS可能因無法擷取Binlog而導致任務失敗,極端情況下甚至可能會導致資料不一致或丟失。由於您所設定的Binlog日誌儲存時間低於DTS要求的時間進而導致的問題,不在DTS的SLA保障範圍內。

  • 在庫表結構同步和全量同步階段,請勿執行庫或表結構變更的DDL操作,否則會導致資料同步任務失敗。

其他限制

  • 目標DataHub中單個String欄位的長度最大支援2 MB。

  • 支援庫級和表級的資料同步。

  • 不支援同步源PolarDB MySQL版唯讀節點。

  • 對於表層級的資料同步,請勿對源庫的同步對象使用pt-online-schema-change等類似工具執行線上DDL變更,否則會導致同步失敗。

  • 對於表層級的資料同步,如果除DTS以外的資料沒有寫入目標庫,您可以使用Data Management(Data Management)來執行線上DDL變更,請參見不鎖表結構變更

  • 在DTS同步期間,不允許有除DTS外的資料寫入目標庫,否則會導致源庫與目標庫資料不一致。例如,有除DTS外的資料寫入目標庫時,使用DMS執行線上DDL變更,可能引起目標庫資料丟失。

其他注意事項

DTS會在源庫定時執CREATE DATABASE IF NOT EXISTS `test`命令以推進Binlog位點。

費用說明

同步類型鏈路配置費用
庫表結構同步和全量資料同步不收費。
增量資料同步收費,詳情請參見計費概述

支援的同步架構

  • 一對一單向同步。

  • 一對多單向同步。

  • 多對一單向同步。

  • 級聯單向同步。

關於各類同步架構的介紹及注意事項,請參見資料同步拓撲介紹

支援同步的SQL操作

操作類型

SQL動作陳述式

DML

INSERT、UPDATE、DELETE

DDL

ADD COLUMN

資料庫帳號的許可權要求

要求源PolarDB MySQL版叢集至少具有待同步對象的讀許可權。

操作步驟

  1. 進入同步任務的列表頁面。

    1. 登入Data Management服務

    2. 在頂部功能表列中,單擊整合與開發(DTS)

    3. 在左側導覽列,選擇資料轉送(DTS) > 資料同步

    說明
  2. 同步任務右側,選擇同步執行個體所屬地區。

    說明

    新版DTS同步工作清單頁面,需要在頁面左上方選擇同步執行個體所屬地區。

  3. 單擊建立任務,配置源庫及目標庫資訊。

    類別

    配置

    說明

    任務名稱

    DTS會自動產生一個任務名稱,建議配置具有業務意義的名稱(無唯一性要求),便於後續識別。

    源庫資訊

    選擇DMS資料庫執行個體

    您可以按實際需求,選擇是否使用已有執行個體。

    • 如使用已有執行個體,下方資料庫資訊將自動填入,您無需重複輸入。

    • 如不使用已有執行個體,您需要輸入下方的資料庫資訊。

    資料庫類型

    選擇PolarDB for MySQL

    接入方式

    選擇雲執行個體

    執行個體地區

    選擇源PolarDB MySQL版叢集所屬地區。

    是否跨阿里雲帳號

    本情境為同一阿里雲帳號間遷移,選擇不跨帳號

    PolarDB執行個體ID

    選擇源PolarDB MySQL版叢集ID。

    資料庫帳號

    填入源PolarDB MySQL版叢集下的資料庫帳號,許可權要求請參見資料庫帳號的許可權要求

    資料庫密碼

    填入該資料庫帳號對應的密碼。

    串連方式

    請根據實際情況選擇。更多關於SSL加密功能的資訊,請參見設定SSL加密

    目標庫資訊

    選擇DMS資料庫執行個體

    您可以按實際需求,選擇是否使用已有執行個體。

    • 如使用已有執行個體,下方資料庫資訊將自動填入,您無需重複輸入。

    • 如不使用已有執行個體,您需要輸入下方的資料庫資訊。

    資料庫類型

    選擇DataHub

    接入方式

    選擇雲執行個體

    執行個體地區

    選擇目標DataHub執行個體所屬地區。

    Project

    選擇目標DataHub專案。

  4. 配置完成後,單擊頁面下方的測試連接以進行下一步

    如果源或目標資料庫是阿里雲資料庫執行個體(例如RDS MySQLApsaraDB for MongoDB等),DTS會自動將對應地區DTS服務的IP地址添加到阿里雲資料庫執行個體的白名單中;如果源或目標資料庫是ECS上的自建資料庫,DTS會自動將對應地區DTS服務的IP地址添到ECS的安全規則中,您還需確保自建資料庫沒有限制ECS的訪問(若資料庫是叢集部署在多個ECS執行個體,您需要手動將DTS服務對應地區的IP地址添到其餘每個ECS的安全規則中);如果源或目標資料庫是IDC自建資料庫或其他雲資料庫,則需要您手動添加對應地區DTS服務的IP地址,以允許來自DTS伺服器的訪問。DTS服務的IP地址,請參見DTS伺服器的IP位址區段

    警告

    DTS自動添加或您手動添加DTS服務的公網IP位址區段可能會存在安全風險,一旦使用本產品代表您已理解和確認其中可能存在的安全風險,並且需要您做好基本的安全防護,包括但不限於加強帳號密碼強度防範、限制各網段開放的連接埠號碼、內部各API使用鑒權方式通訊、定期檢查並限制不需要的網段,或者使用通過內網(專線/VPN網關/智能網關)的方式接入。

  5. 配置任務對象及進階配置。

    配置

    說明

    同步類型

    固定選中增量同步處理。預設情況下,您還需要同時選中庫表結構同步全量同步。預檢查完成後,DTS會將源執行個體中待同步對象的全量資料在目的地組群中初始化,作為後續增量同步處理資料的基準資料。

    附加列規則

    DTS在將資料同步到DataHub時,會在同步的目標Topic中添加一些附加列。如果附加列和目標Topic中已有的列出現名稱衝突將會導致資料同步失敗。您需要根據業務需求選擇是否啟用新的附加列規則

    警告

    在選擇附加列規則前,您需要評估附加列和目標Topic中已有的列是否會出現名稱衝突,否則可能會導致任務失敗或資料丟失。關於附加列的規則和定義說明,請參見附加列名稱和定義說明

    目標已存在表的處理模式

    • 預檢查並報錯攔截:檢查目標資料庫中是否有同名的表。如果目標資料庫中沒有同名的表,則通過該檢查專案;如果目標資料庫中有同名的表,則在預檢查階段提示錯誤,資料同步任務不會被啟動。

      說明

      如果目標庫中同名的表不方便刪除或重新命名,您可以更改該表在目標庫中的名稱,請參見庫表列名映射

    • 忽略報錯並繼續執行:跳過目標資料庫中是否有同名表的檢查項。

      警告

      選擇為忽略報錯並繼續執行,可能導致資料不一致,給業務帶來風險,例如:

      • 表結構一致的情況下,如在目標庫遇到與源庫主鍵或唯一鍵的值相同的記錄:

        • 全量期間,DTS會保留目的地組群中的該條記錄,即源庫中的該條記錄不會同步至目標資料庫中。

        • 增量期間,DTS不會保留目的地組群中的該條記錄,即源庫中的該條記錄會覆蓋至目標資料庫中。

      • 表結構不一致的情況下,可能會導致無法初始化資料、只能同步部分列的資料或同步失敗,請謹慎操作。

    目標庫對象名稱大小寫策略

    您可以配置目標執行個體中同步對象的庫名、表名和列名的英文大小寫策略。預設情況下選擇DTS預設策略,您也可以選擇與源庫、目標庫預設策略保持一致。更多資訊,請參見目標庫對象名稱大小寫策略

    源庫對象

    源庫對象框中單擊待同步對象,然後單擊向右小箭頭表徵圖,將其移動至已選擇對象框。

    說明

    同步對象的選擇粒度為庫、表。

    已選擇對象

    • 如需更改單個同步對象在目標執行個體中的名稱,請右擊已選擇對象中的同步對象,設定方式,請參見庫表列名單個映射

    • 如需批量更改同步對象在目標執行個體中的名稱,請單擊已選擇對象方框右上方的大量編輯,設定方式,請參見庫表列名批量映射

    說明
    • 如需按庫或表層級選擇同步的SQL操作,請在已選擇對象中按右鍵待同步對象,並在彈出的對話方塊中選擇所需同步的SQL操作。支援的操作請參見支援同步的SQL操作

    • 如需設定WHERE條件過濾資料,請在已選擇對象中按右鍵待同步的表,在彈出的對話方塊中設定過濾條件。設定方法請參見設定過濾條件

    • 同步對象的選擇粒度為表時,按右鍵已選擇對象框中待同步的表,在彈出的對話方塊中取消選中全表同步後,可以設定Shardkey(即用於分區的key)。

  6. 單擊下一步高級配置,進行進階配置。

    配置

    說明

    選擇調度該任務的專屬叢集

    DTS預設將任務調度到共用叢集上,您無需選擇。若您希望任務更加穩定,可以購買專屬叢集來運行DTS同步任務。更多資訊,請參見什麼是DTS專屬叢集

    源庫、目標庫無法串連後的重試時間

    在同步任務啟動後,若源庫或目標庫串連失敗則DTS會報錯,並會立即進行持續的重試串連,預設持續重試時間為720分鐘,您也可以在取值範圍(10~1440分鐘)內自訂重試時間,建議設定30分鐘以上。如果DTS在設定的重試時間內重新串連上源庫、目標庫,同步任務將自動回復。否則,同步任務將會失敗。

    說明
    • 針對同源或者同目標的多個DTS執行個體,如DTS執行個體A和DTS執行個體B,設定網路重試時間時A設定30分鐘,B設定60分鐘,則重試時間以低的30分鐘為準。

    • 由於串連重試期間,DTS將收取任務運行費用,建議您根據業務需要自訂重試時間,或者在源和目標庫執行個體釋放後儘快釋放DTS執行個體。

    源庫、目標庫出現其他問題後的重試時間

    在同步任務啟動後,若源庫或目標庫出現非串連性的其他問題(如DDL或DML執行異常),則DTS會報錯並會立即進行持續的重試操作,預設持續重試時間為10分鐘,您也可以在取值範圍(1~1440分鐘)內自訂重試時間,建議設定10分鐘以上。如果DTS在設定的重試時間內相關操作執行成功,同步任務將自動回復。否則,同步任務將會失敗。

    重要

    源庫、目標庫出現其他問題後的重試時間的值需要小於源庫、目標庫無法串連後的重試時間的值。

    是否限制全量遷移速率

    在全量同步階段,DTS將佔用源庫和目標庫一定的讀寫資源,可能會導致資料庫的負載上升。您可以根據實際情況,選擇是否對全量同步任務進行限速設定(設定每秒查詢源庫的速率QPS每秒全量遷移的行數RPS每秒全量遷移的數據量(MB)BPS),以緩解目標庫的壓力。

    說明

    僅當同步類型選擇了全量同步時才可以配置。

    是否限制增量同步處理速率

    您也可以根據實際情況,選擇是否對增量同步處理任務進行限速設定(設定每秒增量同步處理的行數RPS每秒增量同步處理的數據量(MB)BPS),以緩解目標庫的壓力。

    環境標籤

    您可以根據實際情況,選擇用於標識執行個體的環境標籤。本樣本無需選擇。

    是否去除正反向任務的心跳錶sql

    根據業務需求選擇是否在DTS執行個體運行時,在源庫中寫入心跳SQL資訊。

    • :不在源庫中寫入心跳SQL資訊,DTS執行個體可能會顯示有延遲。

    • :在源庫中寫入心跳SQL資訊,可能會影響源庫的物理備份和複製等功能。

    配置ETL功能

    選擇是否配置ETL功能。關於ETL的更多資訊,請參見什麼是ETL

    監控警示

    是否設定警示,當同步失敗或延遲超過閾值後,將通知警示連絡人。

  7. 儲存任務並進行預檢查。

    • 若您需要查看調用API介面配置該執行個體時的參數資訊,請將滑鼠游標移動至下一步儲存任務並預檢查按鈕上,然後單擊氣泡中的預覽OpenAPI參數

    • 若您無需查看或已完成查看API參數,請單擊頁面下方的下一步儲存任務並預檢查

    說明
    • 在同步作業正式啟動之前,會先進行預檢查。只有預檢查通過後,才能成功啟動同步作業。

    • 如果預檢查失敗,請單擊失敗檢查項後的查看詳情,並根據提示修複後重新進行預檢查。

    • 如果預檢查產生警告:

      • 對於不可以忽略的檢查項,請單擊失敗檢查項後的查看詳情,並根據提示修複後重新進行預檢查。

      • 對於可以忽略無需修複的檢查項,您可以依次單擊點擊確認警示詳情確認屏蔽確定重新進行預檢查,跳過警示檢查項重新進行預檢查。如果選擇屏蔽警示檢查項,可能會導致資料不一致等問題,給業務帶來風險。

  8. 預檢查通過率顯示為100%時,單擊下一步購買

  9. 購買頁面,選擇資料同步執行個體的計費方式、鏈路規格,詳細說明請參見下表。

    類別

    參數

    說明

    資訊配置

    計費方式

    • 預付費(訂用帳戶):在建立執行個體時支付費用。適合長期需求,價格比隨用隨付更實惠,且購買時間長度越長,折扣越多。

    • 後付費(隨用隨付):按小時計費。適合短期需求,用完可立即釋放執行個體,節省費用。

    資源群組配置

    執行個體所屬的資源群組,預設為default resource group。更多資訊,請參見什麼是資源管理

    鏈路規格

    DTS為您提供了不同效能的同步規格,同步鏈路規格的不同會影響同步速率,您可以根據業務情境進行選擇。更多資訊,請參見資料同步鏈路規格說明

    訂購時間長度

    在預付費模式下,選擇訂用帳戶執行個體的時間長度和數量,包月可選擇1~9個月,包年可選擇1年、2年、3年和5年。

    說明

    該選項僅在付費類型為預付費時出現。

  10. 配置完成後,閱讀並勾選《資料轉送(隨用隨付)服務條款》

  11. 單擊購買並啟動,同步任務正式開始,您可在資料同步介面查看具體任務進度。

Topic結構定義說明

DTS在將資料變更同步至DataHub執行個體的Topic時,目標Topic中除了儲存變更資料外,還會新增一些附加列用於儲存元資訊,樣本如下。

說明

本案例中的業務欄位為idnameaddress,由於在配置資料同步時選用的是舊版附加列規則,DTS會為業務欄位(包含目標庫中的源庫原有的業欄位)添加dts_的首碼。若您使用新版附加列規則,DTS不會給目標庫中的源庫原有業欄位加首碼。

Topic定義

結構定義說明:

舊版附加列名稱

新版附加列名稱

資料類型

說明

dts_record_id

new_dts_sync_dts_record_id

String

增量日誌的記錄ID,為該日誌唯一標識。

說明
  • 正常情況下是全域唯一自增的,在容災的情況下會有回退且無法保證自增和唯一。

  • 如果增量日誌的操作類型為UPDATE,那麼累加式更新會被拆分成兩條記錄(分別記錄更新前和更新後的值),且dts_record_id的值相同。

dts_operation_flag

new_dts_sync_dts_operation_flag

String

操作類型,取值:

  • I:INSERT操作。

  • D:DELETE操作。

  • U:UPDATE操作。

dts_instance_id

new_dts_sync_dts_instance_id

String

資料庫的server ID。

dts_db_name

new_dts_sync_dts_db_name

String

資料庫名稱。

dts_table_name

new_dts_sync_dts_table_name

String

表名。

dts_utc_timestamp

new_dts_sync_dts_utc_timestamp

String

操作時間戳記,即日誌的時間戳記(UTC 時間)。

dts_before_flag

new_dts_sync_dts_before_flag

String

所有列的值是否更新前的值,取值:Y或N。

dts_after_flag

new_dts_sync_dts_after_flag

String

所有列的值是否更新後的值,取值:Y或N。

關於dts_before_flag和dts_after_flag的補充說明

對於不同的操作類型,增量日誌中的dts_before_flagdts_after_flag定義如下:

  • INSERT

    當操作類型為INSERT時,所有列的值為新插入的值,即為更新後的值,所以dts_before_flag取值為N,dts_after_flag取值為Y,樣本如下。

    INSERT操作

  • UPDATE

    當操作類型為UPDATE時,DTS會將UPDATE操作拆為兩條增量日誌。這兩條增量日誌的dts_record_iddts_operation_flagdts_utc_timestamp對應的值相同。

    第一條增量日誌記錄了更新前的值,所以dts_before_flag取值為Y,dts_after_flag取值為N。第二條增量日誌記錄了更新後的值,所以 dts_before_flag取值為N,dts_after_flag取值為Y,樣本如下。

    UPDATE操作

  • DELETE

    當操作類型為DELETE時,增量日誌中所有的列值為被刪除的值,即列值不變,所以dts_before_flag取值為Y, dts_after_flag取值為N,樣本如下。

    DELETE操作

後續操作

配置完資料同步作業後,您可以對同步到DataHub執行個體中的資料執行計算分析。更多詳情,請參見阿里雲Realtime Compute