全部產品
Search
文件中心

Data Transmission Service:自建Oracle遷移至阿里雲訊息佇列Kafka版

更新時間:Apr 23, 2025

本文介紹如何使用Data Transmission Service,將自建Oracle遷移至阿里雲訊息佇列Kafka。

前提條件

  • 已建立來源資料庫自建Oracle和目標執行個體阿里雲訊息佇列Kafka版

    說明

    源庫和目標庫支援的版本,請參見遷移方案概覽

  • 自建Oracle資料庫已開啟ARCHIVELOG(歸檔模式),設定合理的歸檔日誌保持周期且歸檔日誌能夠被訪問,詳情請參見ARCHIVELOG

  • 自建Oracle資料庫已開啟Supplemental Logging,且已開啟supplemental_log_data_pk,supplemental_log_data_ui,詳情請參見Supplemental Logging

  • 目標阿里雲訊息佇列Kafka版的儲存空間須大於來源資料庫自建Oracle佔用的儲存空間。

  • 目標阿里雲訊息佇列Kafka版中已建立用於接收遷移資料的Topic,詳情請參見步驟一:建立Topic

  • 建議在執行資料移轉前瞭解源庫為Oracle時DTS支援的能力和限制條件,並使用ADAM(Advanced Database & Application Migration)進行資料庫評估,以便您平滑地遷移上雲。更多資訊,請參見Oracle資料庫的限制和準備工作資料庫評估概覽

注意事項

說明

DTS不會將來源資料庫中的外鍵遷移到目標資料庫,因此來源資料庫的級聯、刪除等操作不會遷移到目標資料庫。

類型

說明

源庫限制

  • 頻寬要求:源庫所屬的伺服器需具備足夠出口頻寬,否則將影響資料移轉速率。

  • 如果源庫通過專線的方式接入,那麼需要將其中任意1個VIP配置到串連資訊中,實現Oracle RAC通過專線接入遷移任務。

  • 如自建Oracle為RAC架構,且用專線/VPN網關/Smart Access Gateway、資料庫網關DG、雲企業網CEN和ECS的接入方式,則不支援配置ScanIP,僅支援將其中任意1個VIP配置到串連資訊中,該方式配置後不支援RAC的節點切換。

  • 如果源庫存在varchar2類型的Null 字元串(Oracle會將其處理為null)且對應的目標庫欄位有非空約束,將會導致遷移任務失敗。

  • 遷移對象要求:

    • 待遷移的表需具備主鍵或唯一約束,且欄位具有唯一性,否則可能會導致目標資料庫中出現重複資料。

    • 如果您的自建Oracle版本為12c及以上,待遷移表的名稱長度需不超過30個位元組。

    • 如遷移對象為表層級,且需進行編輯(如表列名映射),則單次遷移任務僅支援遷移至多1000張表。當超出數量限制,任務提交後會顯示請求報錯,此時建議您拆分待遷移的表,分批配置多個任務,或者配置整庫的遷移任務。

  • 如需進行增量遷移,Redo Log、Archive Log:

    • 需開啟。

    • 如為增量遷移任務,DTS要求來源資料庫的Redo Log、Archive Log儲存24小時以上,如為全量遷移和增量遷移任務,DTS要求來源資料庫的Redo Log、Archive Log至少保留7天以上(您可在全量遷移完成後將Redo Log、Archive Log儲存時間設定為24小時以上),否則DTS可能因無法擷取Redo Log、Archive Log而導致任務失敗,極端情況下甚至可能會導致資料不一致或丟失。由於您所設定的Redo Log、Archive Log儲存時間低於DTS要求的時間進而導致的問題,不在DTS的SLA保障範圍內。

  • 源庫的操作限制:

    • 在庫表結構遷移和全量遷移階段,請勿執行庫或表結構變更的DDL操作,否則資料移轉任務失敗。

    • 如僅執行全量資料移轉,請勿向源執行個體中寫入新的資料,否則會導致源和目標資料不一致。為即時保持資料一致性,建議選擇結構遷移、全量資料移轉和增量資料移轉。

    • 單獨更新大文字欄位情境不支援,任務會失敗。

其他限制

  • 在增量遷移過程中,不支援使用Oracle Data Pump向源庫匯入資料,否則可能會導致資料丟失。

  • 不支援遷移外部表格。

  • 執行資料移轉前需評估源庫和目標庫的效能,同時建議業務低峰期執行資料移轉。否則全量資料移轉時DTS佔用源和目標庫一定讀寫資源,可能會導致資料庫的負載上升。

  • 由於全量資料移轉會並發執行INSERT操作,導致目標資料庫的表產生片段,因此全量遷移完成後目標資料庫的表格儲存體空間會比源執行個體的表格儲存體空間大。

  • DTS會嘗試恢複七天之內遷移失敗任務。因此業務切換至目標執行個體前,請務必結束或釋放該任務,或者將DTS訪問目標執行個體帳號的寫入權限用revoke命令回收掉。避免該任務被自動回復後,源端資料覆蓋目標執行個體的資料。

  • 在遷移期間,若目標Kafka發生了擴容或縮容,您需要重啟執行個體。

  • 若執行個體運行失敗,DTS技術支援人員將在8小時內嘗試恢複該執行個體。在恢複失敗執行個體的過程中,可能會對該執行個體進行重啟、調整參數等操作。

    說明

    在調整參數時,僅會修改執行個體的參數,不會對資料庫中的參數進行修改。可能修改的參數,包括但不限於修改執行個體參數中的參數。

費用說明

遷移類型

鏈路配置費用

公網流量費用

結構遷移和全量資料移轉

不收費。

當目標庫的接入方式公網IP時收取公網流量費用,詳情請參見計費概述

增量資料移轉

收費,詳情請參見計費概述

遷移類型說明

遷移類型

說明

結構遷移

DTS將遷移對象的結構定義遷移到目標執行個體阿里雲訊息佇列Kafka版中。

說明

不相容觸發器。建議您刪除源庫的觸發器,以避免因觸發器而導致資料不一致的問題。詳情請參見源庫存在觸發器時如何配置同步或遷移作業

全量資料移轉

DTS會將源Oracle資料庫遷移對象的存量資料,全部遷移至目標執行個體阿里雲訊息佇列Kafka版中。

說明

在結構遷移和全量資料移轉完成之前,請勿對遷移對象執行DDL操作,否則可能導致遷移失敗。

增量資料移轉

DTS在全量資料移轉的基礎上輪詢並捕獲源Oracle資料庫產生的redo log,將源Oracle資料庫的累加式更新資料移轉到目標執行個體阿里雲訊息佇列Kafka版中。通過增量資料移轉可以實現在應用不停服的情況下,平滑地完成Oracle資料庫的遷移。

支援增量遷移的SQL操作

操作類型

SQL動作陳述式

DML

INSERT、UPDATE、DELETE

DDL

  • CREATE TABLE、ALTER TABLE、DROP TABLE、RENAME TABLE、TRUNCATE TABLE

  • CREATE VIEW、ALTER VIEW、DROP VIEW

  • CREATE PROCEDURE、ALTER PROCEDURE、DROP PROCEDURE

  • CREATE FUNCTION、DROP FUNCTION、CREATE TRIGGER、DROP TRIGGER

  • CREATE INDEX、DROP INDEX

準備工作

登入待遷移的Oracle資料庫,建立用於採集資料的帳號並授權。

說明

如您已建立包含下述許可權的帳號,可跳過本步驟。

資料庫

結構遷移

全量遷移

增量資料移轉

源自建Oracle資料庫

Schema的Owner許可權

Schema的Owner許可權

需要精細化授權

資料庫帳號建立及授權方法:

自建Oracle資料庫請參見資料庫帳號準備CREATE USERGRANT

重要

如需遷移增量資料,您還需要開啟歸檔和補充日誌,以擷取資料的增量變更。更多資訊,請參見資料庫配置

操作步驟

  1. 進入目標地區的遷移工作清單頁面(二選一)。

    通過DTS控制台進入

    1. 登入Data Transmission Service控制台

    2. 在左側導覽列,單擊資料移轉

    3. 在頁面左上方,選擇遷移執行個體所屬地區。

    通過DMS控制台進入

    說明

    實際操作可能會因DMS的模式和布局不同,而有所差異。更多資訊。請參見極簡模式控制台自訂DMS介面布局與樣式

    1. 登入Data Management服務

    2. 在頂部功能表列中,選擇Data + AI > 資料轉送(DTS) > 資料移轉

    3. 遷移任務右側,選擇遷移執行個體所屬地區。

  2. 單擊創建任務,進入任務配置頁面。

  3. 配置源庫及目標庫資訊。

    警告

    選擇源和目標執行個體後,建議您仔細閱讀頁面上方顯示的使用限制,否則可能會導致任務失敗或資料不一致。

    類別

    配置

    說明

    任務名稱

    DTS會自動產生一個任務名稱,建議配置具有業務意義的名稱(無唯一性要求),便於後續識別。

    源庫資訊

    選擇已有串連資訊

    • 若您需要使用已錄入系統(建立或儲存)的資料庫執行個體,請在下拉式清單中選擇所需的資料庫執行個體,下方的資料庫資訊將自動進行配置。

      說明

      DMS控制台的配置項為選擇DMS資料庫執行個體

    • 若您未將資料庫執行個體錄入到系統,或無需使用已錄入系統的資料庫執行個體,則需要手動設定下方的資料庫資訊。

    資料庫類型

    選擇Oracle

    接入方式

    根據源庫的部署位置進行選擇,本文以ECS上的自建資料庫為例介紹配置流程。

    說明

    當源執行個體為自建資料庫時,您還需要執行相應的準備工作,詳情請參見準備工作概覽

    執行個體地區

    選擇源Oracle資料庫所屬地區。

    ECS執行個體ID

    選擇自建Oracle資料庫所屬ECS執行個體ID。

    連接埠

    填入自建Oracle資料庫的服務連接埠,預設為1521

    Oracle類型

    • 非RAC執行個體:選擇該項後,您還需要填寫SID資訊。

    • RAC或PDB執行個體:選擇該項後,您還需要填寫ServiceName資訊。

    本案例選擇為非RAC執行個體

    資料庫帳號

    填入源Oracle資料庫的帳號,許可權要求請參見準備工作

    資料庫密碼

    填入該資料庫帳號對應的密碼。

    目標庫資訊

    選擇已有串連資訊

    • 若您需要使用已錄入系統(建立或儲存)的資料庫執行個體,請在下拉式清單中選擇所需的資料庫執行個體,下方的資料庫資訊將自動進行配置。

      說明

      DMS控制台的配置項為選擇DMS資料庫執行個體

    • 若您未將資料庫執行個體錄入到系統,或無需使用已錄入系統的資料庫執行個體,則需要手動設定下方的資料庫資訊。

    資料庫類型

    選擇Kafka

    接入方式

    選擇專線/VPN網關/智能網關

    說明

    此處將阿里雲訊息佇列Kafka版執行個體作為自建Kafka資料庫來配置遷移執行個體。

    執行個體地區

    選擇阿里雲訊息佇列Kafka版執行個體所屬地區。

    已和目標端資料庫聯通的VPC

    選擇目標阿里雲訊息佇列Kafka版執行個體所屬的專用網路ID。您可以在Kafka執行個體的基本資料頁面中查看到專用網路ID。

    主機名稱或IP地址

    填入阿里雲訊息佇列Kafka版執行個體預設存取點中的任意一個IP地址。

    說明

    您可以在阿里雲訊息佇列Kafka版執行個體的基本資料頁面中,擷取預設存取點對應的IP地址。

    連接埠

    阿里雲訊息佇列Kafka版執行個體的服務連接埠,預設為9092

    資料庫帳號

    填入阿里雲訊息佇列Kafka版執行個體的資料庫帳號。

    說明

    如果阿里雲訊息佇列Kafka版執行個體的執行個體類型為VPC執行個體,無需配置資料庫帳號資料庫密碼

    資料庫密碼

    填入該資料庫帳號對應的密碼。

    Kafka版本

    根據Kafka執行個體版本,選擇對應的版本資訊。

    串連方式

    根據業務及安全需求,選擇非加密串連SCRAM-SHA-256

    Topic

    在下拉框中選擇具體的Topic。

    儲存DDL的Topic

    在下拉框中選擇具體的Topic,用於儲存DDL資訊。如果未指定,DDL資訊預設儲存在Topic選擇的Topic中。

    是否使用Kafka Schema Registry

    Kafka Schema Registry是中繼資料提供服務層,提供了一個RESTful介面,用於儲存和檢索Avro Schema。

    • :不使用Kafka Schema Registry。

    • :使用Kafka Schema Registry。您需要輸入Avro Schema在Kafka Schema Registry註冊的URL或IP。

  4. 配置完成後,在頁面下方單擊測試連接以進行下一步,並在彈出的DTS伺服器訪問授權對話方塊單擊測試連接

    說明

    請確保DTS服務的IP位址區段能夠被自動或手動添加至源庫和目標庫的安全設定中,以允許DTS伺服器的訪問。更多資訊,請參見添加DTS伺服器的IP位址區段

  5. 配置任務對象。

    1. 對象配置頁面,配置待遷移的對象。

      配置

      說明

      遷移類型

      • 如果只需要進行全量遷移,建議同時選中庫表結構遷移全量遷移

      • 如果需要進行不停機遷移,建議同時選中庫表結構遷移全量遷移增量遷移

      說明
      • 若未選中庫表結構遷移,請確保目標庫中存在接收資料的資料庫和表,並根據實際情況,在已選擇對象框中使用庫表列名映射功能。

      • 若未選中增量遷移,為保障資料一致性,資料移轉期間請勿在源執行個體中寫入新的資料。

      目標已存在表的處理模式

      • 預檢查並報錯攔截:檢查目標資料庫中是否有同名的表。如果目標資料庫中沒有同名的表,則通過該檢查專案;如果目標資料庫中有同名的表,則在預檢查階段提示錯誤,資料移轉任務不會被啟動。

        說明

        如果目標庫中同名的表不方便刪除或重新命名,您可以更改該表在目標庫中的名稱,請參見庫表列名映射

      • 忽略報錯並繼續執行:跳過目標資料庫中是否有同名表的檢查項。

        警告

        選擇為忽略報錯並繼續執行,可能導致資料不一致,給業務帶來風險,例如:

        • 表結構一致的情況下,在目標庫遇到與源庫主鍵的值相同的記錄:

          • 全量期間,DTS會保留目的地組群中的該條記錄,即源庫中的該條記錄不會遷移至目標資料庫中。

          • 增量期間,DTS不會保留目的地組群中的該條記錄,即源庫中的該條記錄會覆蓋至目標資料庫中。

        • 表結構不一致的情況下,可能導致只能遷移部分列的資料或遷移失敗,請謹慎操作。

      投遞到Kafka的資料格式

      根據需求選擇遷移到Kafka執行個體中的資料存放區格式。

      Kafka壓縮格式

      根據需求選擇Kafka壓縮訊息的壓縮格式。

      • LZ4(預設):壓縮率較低,壓縮速率較高。

      • GZIP:壓縮率較高,壓縮速率較低。

        說明

        對CPU的消耗較高。

      • Snappy:壓縮率中等,壓縮速率中等。

      投遞到Kafka Partition策略

      根據業務需求選擇策略

      消息確認機製

      根據業務需求選擇訊息確認機制

      源庫對象

      源庫對象框中單擊待遷移的對象,然後單擊向右小箭頭將其移動到已選擇對象框。

      已選擇對象

      本樣本無需額外配置。您可以使用映射功能,設定源表在目標Kafka執行個體中的Topic名稱、Topic的Partition數量、Partition Key等資訊。更多資訊,請參見映射資訊

      說明
      • 如果使用了對象名映射功能,可能會導致依賴這個對象的其他對象遷移失敗。

      • 如需選擇增量遷移的SQL操作,請在已選擇對象中右擊待遷移對象,並在彈出的對話方塊中選擇所需遷移的SQL操作。

    2. 單擊下一步高級配置,進行進階參數配置。

      配置

      說明

      選擇調度該任務的專屬叢集

      DTS預設將任務調度到共用叢集上,您無需選擇。若您希望任務更加穩定,可以購買專屬叢集來運行DTS遷移任務。更多資訊,請參見什麼是DTS專屬叢集

      源庫、目標庫無法串連後的重試時間

      在遷移任務啟動後,若源庫或目標庫串連失敗則DTS會報錯,並會立即進行持續的重試串連,預設重試720分鐘,您也可以在取值範圍(10~1440分鐘)內自訂重試時間,建議設定30分鐘以上。如果DTS在設定的時間內重新串連上源、目標庫,遷移任務將自動回復。否則,遷移任務將失敗。

      說明
      • 針對同源或者同目標的多個DTS執行個體,網路重試時間以後建立任務的設定為準。

      • 由於串連重試期間,DTS將收取任務運行費用,建議您根據業務需要自訂重試時間,或者在源和目標庫執行個體釋放後儘快釋放DTS執行個體。

      源庫、目標庫出現其他問題後的重試時間

      在遷移任務啟動後,若源庫或目標庫出現非串連性的其他問題(如DDL或DML執行異常),則DTS會報錯並會立即進行持續的重試操作,預設持續重試時間為10分鐘,您也可以在取值範圍(1~1440分鐘)內自訂重試時間,建議設定10分鐘以上。如果DTS在設定的重試時間內相關操作執行成功,遷移任務將自動回復。否則,遷移任務將會失敗。

      重要

      源庫、目標庫出現其他問題後的重試時間的值需要小於源庫、目標庫無法串連後的重試時間的值。

      是否限制全量遷移速率

      在全量遷移階段,DTS將佔用源庫和目標庫一定的讀寫資源,可能會導致資料庫的負載上升。您可以根據實際情況,選擇是否對全量遷移任務進行限速設定(設定每秒查詢源庫的速率QPS每秒全量遷移的行數RPS每秒全量遷移的數據量(MB)BPS),以緩解目標庫的壓力。

      說明

      僅當遷移類型選擇了全量遷移,才有此配置項。

      是否限制增量遷移速率

      您也可以根據實際情況,選擇是否對增量遷移任務進行限速設定(設定每秒增量遷移的行數RPS每秒增量遷移的數據量(MB)BPS),以緩解目標庫的壓力。

      說明

      僅當遷移類型選擇了增量遷移,才有此配置項。

      環境標籤

      您可以根據實際情況,選擇用於標識執行個體的環境標籤。本樣本無需選擇。

      實際業務寫入編碼

      您可以根據實際情況,選擇資料寫入目標端的編碼類別型。

      配置ETL功能

      選擇是否配置ETL功能。關於ETL的更多資訊,請參見什麼是ETL

      監控警示

      是否設定警示,當遷移失敗或延遲超過閾值後,將通知警示連絡人。

  6. 儲存任務並進行預檢查。

    • 若您需要查看調用API介面配置該執行個體時的參數資訊,請將滑鼠游標移動至下一步儲存任務並預檢查按鈕上,然後單擊氣泡中的預覽OpenAPI參數

    • 若您無需查看或已完成查看API參數,請單擊頁面下方的下一步儲存任務並預檢查

    說明
    • 在遷移任務正式啟動之前,會先進行預檢查。只有預檢查通過後,才能成功啟動遷移任務。

    • 如果預檢查失敗,請單擊失敗檢查項後的查看詳情,並根據提示修複後重新進行預檢查。

    • 如果預檢查產生警告:

      • 對於不可以忽略的檢查項,請單擊失敗檢查項後的查看詳情,並根據提示修複後重新進行預檢查。

      • 對於可以忽略無需修複的檢查項,您可以依次單擊點擊確認警示詳情確認屏蔽確定重新進行預檢查,跳過警示檢查項重新進行預檢查。如果選擇屏蔽警示檢查項,可能會導致資料不一致等問題,給業務帶來風險。

  7. 購買執行個體。

    1. 預檢查通過率顯示為100%時,單擊下一步購買

    2. 購買頁面,選擇資料移轉執行個體的鏈路規格,詳細說明請參見下表。

      類別

      參數

      說明

      資訊配置

      資源群組配置

      選擇執行個體所屬的資源群組,預設為default resource group。更多資訊,請參見什麼是資源管理

      鏈路規格

      DTS為您提供了不同效能的遷移規格,遷移鏈路規格的不同會影響遷移速率,您可以根據業務情境進行選擇。更多資訊,請參見資料移轉鏈路規格說明

    3. 配置完成後,閱讀並選中《資料轉送(隨用隨付)服務條款》

    4. 單擊購買並啟動,並在彈出的確認對話方塊,單擊確定

      您可以在遷移任務列表頁面,查看遷移執行個體的具體進度。

      說明
      • 若遷移執行個體不包含增量遷移任務,則遷移執行個體會自動結束。遷移執行個體自動結束後,運行狀態已完成

      • 若遷移執行個體包含增量遷移任務,則遷移執行個體不會自動結束,增量遷移任務會持續進行。在增量遷移任務正常運行期間,遷移執行個體的運行狀態運行中

映射資訊

  1. 已選擇對象地區框中,將滑鼠指標放置在目標Topic名上。

  2. 單擊目標Topic名後出現的編輯

  3. 在彈出的編輯表對話方塊中,配置映射資訊。

    說明
    • 若庫層級和表層級均使用了映射功能,則以表層級的映射為準(庫層級的映射不生效)。

    • 庫層級是編輯Schema對話方塊,且支援配置的參數少;表層級是編輯表對話方塊。

    配置

    說明

    表名稱

    源表遷移到的目標Topic名稱,預設為源庫及目標庫配置階段在目標庫資訊選擇的Topic

    重要
    • 目標庫為阿里雲訊息佇列Kafka版執行個體時,填寫的Topic名稱必須在目標Kafka執行個體中真實存在,否則將會導致資料移轉失敗。目標庫為自建Kafka資料庫,且遷移執行個體包含庫表結構任務時,DTS會嘗試在目標庫中建立您填寫的Topic。

    • 若您修改了表名稱,資料將會被寫入到您填寫的Topic中。

    過濾條件

    詳情請參見設定過濾條件

    設定建立Topic的Partition數量

    資料寫入到目標Topic時的分區數。

    Partition Key

    投遞到Kafka Partition策略選擇為按主鍵的hash值投遞到不同Partition時,您可以配置本參數,指定單個或多個列作為Partition Key來計算Hash值,DTS將根據計算得到的Hash值將不同的行投遞到目標Topic的各Partition中。

    說明

    取消選中全表同步後,才可以勾選Partition Key

  4. 單擊確定