全部產品
Search
文件中心

ApsaraDB for ClickHouse:將自建ClickHouse遷移至雲資料庫 ClickHouse 企業版

更新時間:Feb 11, 2026

本文介紹如何通過控制台或手動遷移方式將自建ClickHouse遷移到雲資料庫 ClickHouse 企業版叢集。

前提條件

  • 自建叢集:已建立資料庫帳號和密碼,且帳號許可權需具備庫表讀許可權、SYSTEM命令執行許可權(如果需要遷移涉及賬戶密碼的外表,要求賬戶有displaySecretsInShowAndSelect許可權)。

  • 目的地組群:已建立資料庫帳號和密碼,且具備最高許可權

  • 網路連通性

    • 如果自建叢集和目的地組群位於同一個VPC下,您還需要將目的地組群所有節點的IP地址以及其交換器的IPv4網段,添加到自建叢集的白名單中。

      • 雲資料庫ClickHouse中如何添加白名單,請參見設定白名單

      • 自建叢集如何添加白名單,請參見自身產品文檔。

      • 可通過SELECT * FROM system.clusters WHERE internal_replication = 1; 查看雲資料庫ClickHouse叢集所有節點的IP地址。

    • 如果自建叢集和目的地組群位於不同VPC,或自建叢集位於本地IDC或其他雲廠商時,請先解決網路問題,具體操作請參見如何解決目的地組群與資料來源網路互連問題?

      說明

      在此情況下,為避免不同VPC之間的網段衝突問題,可能會出現IP映射的情況,若您做了IP映射相關的操作,則映射後的IP也需要添加到兩端叢集的白名單中。

遷移驗證

在您正式開始遷移資料前,強烈建議您建立一個測試環境,以驗證業務的相容性、效能以及遷移是否能夠順利完成。在遷移驗證完成後,再在生產環境中進行資料移轉。這一步驟至關重要,它可以協助您提前識別並解決潛在問題,確保遷移過程順利,並且避免對生產環境造成不必要的影響。

  1. 建立遷移任務,進行資料移轉。

  2. 效能瓶頸分析以及是否能完成遷移。

  3. 上雲相容性驗證提供兩種方式:

    1. 手工驗證,請參見相容性分析與解決

    2. 控制台驗證,請參見(可選)檢查SQL相容性

選擇方案

遷移方案

優點

缺點

適用情境

控制台遷移

可視化操作,無需手動遷移中繼資料。

只能進行整叢集資料的全量和增量遷移,無法僅遷移指定的部分庫表或部分歷史資料。

整個叢集資料移轉。

手動遷移

可自主控制遷移哪些庫表資料。

操作繁雜,需要手動遷移中繼資料。

  • 部分庫表資料移轉。

  • 單節點冷存資料超過1 TB。

  • 單節點熱資料超過10 TB。

  • 無法滿足控制台遷移條件的整個叢集資料移轉。

操作步驟

控制台遷移

注意事項

遷移過程中

  • 目的地組群進行遷移的庫表會暫停合并(Merge),但自建叢集不會。

    說明

    遷移資料時間過長,將會導致目的地組群的中繼資料積累過多,建議遷移任務的持續時間長度不要超過5天。超過5天,任務將自動取消

  • 目的地組群必須使用default叢集。如果您自建叢集的命名使用了其他名字,則會自動將分布式表中的cluster定義轉化為default。

支援遷移的內容

說明

部分引擎的庫表結構在遷移時,會發生轉換,遷移後的引擎資訊請參見下方。

  • 庫結構:支援遷移的庫引擎如下表所示。

    引擎名

    引擎轉換說明

    Atomic

    Replaced with Replicated database

    Replicated

    無變化

    Ordinary

    Replaced with Replicated database

  • 表結構:支援遷移的表引擎如下表所示。

    引擎名

    引擎轉換說明

    MaterializedView

    無變化

    View

    GenerateRandom

    Buffer

    URL

    Null

    Merge

    SharedMergeTree

    SharedVersionedCollapsingMergeTree

    SharedSummingMergeTree

    SharedReplacingMergeTree

    SharedAggregatingMergeTree

    SharedCollapsingMergeTree

    SharedGraphiteMergeTree

    MergeTree

    It will be replaced with SharedMergeTree

    ReplicatedMergeTree

    VersionedCollapsingMergeTree

    It will be replaced with SharedVersionedCollapsingMergeTree

    ReplicatedVersionedCollapsingMergeTree

    SummingMergeTree

    It will be replaced with SharedSummingMergeTree

    ReplicatedSummingMergeTree

    ReplacingMergeTree

    It will be replaced with SharedReplacingMergeTree

    ReplicatedReplacingMergeTree

    AggregatingMergeTree

    It will be replaced with SharedAggregatingMergeTree

    ReplicatedAggregatingMergeTree

    ReplicatedCollapsingMergeTree

    It will be replaced with SharedCollapsingMergeTree

    CollapsingMergeTree

    GraphiteMergeTree

    It will be replaced with SharedGraphiteMergeTree

    ReplicatedGraphiteMergeTree

  • 資料:增量遷移MergeTree族表的資料。

重要
  • 以上所示的庫表結構能夠正常遷移,其餘庫表結構需根據遷移過程中的警告、錯誤資訊手動處理

  • 如果資料不滿足以上條件,可選擇手動遷移

叢集影響

  • 自建叢集

    • 讀取自建叢集過程中,自建叢集的CPU和記憶體使用量率會升高。

    • 不允許進行DDL操作。

  • 目的地組群

    • 寫入資料過程中,目的地組群的CPU和記憶體使用量率會升高。

    • 遷移的庫表不允許進行DDL操作,不需要遷移的庫表沒有此限制。

    • 遷移中的庫錶停止merge,不需要遷移的庫表不會停止merge。

    • 遷移結束後,叢集會持續一段時間高頻merge操作,這會導致IO使用率上升,從而引起業務請求的延遲增加。建議您計算遷移結束後的merge時間,提前規劃以應對業務請求延遲的潛在影響。

步驟一:檢查自建叢集並開啟使用系統資料表system

在資料移轉之前,需要根據自建叢集是否已啟用system.part_log和system.query_log,對config.xml檔案進行修改配置,以實現增量遷移。

未啟用system.part_log和system.query_log

如果您未啟用system.part_logsystem.query_log,您需在config.xml檔案中增加以下內容。

system.part_log
<part_log>
    <database>system</database>
    <table>part_log</table>
    <partition_by>event_date</partition_by>
    <order_by>event_time</order_by>
    <ttl>event_date + INTERVAL 15 DAY DELETE</ttl>
    <flush_interval_milliseconds>7500</flush_interval_milliseconds>
</part_log>
system.query_log
<query_log>
    <database>system</database>
    <table>query_log</table>
    <partition_by>event_date</partition_by>
    <order_by>event_time</order_by>
    <ttl>event_date + INTERVAL 15 DAY DELETE</ttl>
    <flush_interval_milliseconds>7500</flush_interval_milliseconds>
</query_log>

已啟用system.part_log和system.query_log

  1. 您需根據下述內容,檢查config.xml中system.part_logsystem.query_log的配置,如果存在不一致之處,需將其修改為以下配置,否則可能會導致遷移失敗或遷移速度緩慢。

    system.part_log
    <part_log>
        <database>system</database>
        <table>part_log</table>
        <partition_by>event_date</partition_by>
        <order_by>event_time</order_by>
        <ttl>event_date + INTERVAL 15 DAY DELETE</ttl>
        <flush_interval_milliseconds>7500</flush_interval_milliseconds>
    </part_log>
    system.query_log
    <query_log>
        <database>system</database>
        <table>query_log</table>
        <partition_by>event_date</partition_by>
        <order_by>event_time</order_by>
        <ttl>event_date + INTERVAL 15 DAY DELETE</ttl>
        <flush_interval_milliseconds>7500</flush_interval_milliseconds>
    </query_log>
  2. 修改配置後,您還需執行語句drop table system.part_logdrop table system.query_log,在業務表插入資料後,會重新觸發建立system.part_logsystem.query_log

步驟二:配置目的地組群相容自建叢集版本

為確保目的地組群與自建叢集的行為儘可能相容,需串連目的地組群,修改compatibility參數,使目的地組群與自建叢集的版本號碼一致。

重要

若將compatibility設定到低版本,會導致ParallelRepica等部分新特性失效。

樣本如下:

SELECT currentProfiles(); //擷取使用者使用的profile
SELECT
    profile_name,
    setting_name,
    value
FROM system.settings_profile_elements
WHERE (setting_name = 'compatibility') AND (profile_name = 'xxxx'); // 查詢compatibility配置值
ALTER PROFILE XXXX SETTINGS compatibility = '23.8'; // 修改profile

步驟三:建立遷移任務

  1. 登入雲資料庫ClickHouse控制台,在集群清單頁面,選擇企业版实例列表,並單擊目的地組群ID。

  2. 在左側導覽列,單擊数据迁移及同步 > 實例遷移

  3. 單擊創建遷移任務

  4. 選擇源及目標執行個體。

    配置項

    說明

    樣本

    任務名稱

    遷移任務名稱,只能由大小寫英文字母和數字組成,且不允許重複,大小寫不敏感。

    MigrationTask1229

    源实例cluster名称

    通過SELECT * FROM system.clusters; 擷取自建執行個體cluster名稱。

    default

    VPC IP地址

    叢集每個shard的IP和PORT地址,使用英文逗號隔開。格式:IP:PORT,IP:PORT,....

    您可以使用以下SQL擷取自建叢集的IP和PORT:

    SELECT shard_num, replica_num, host_address as ip, port FROM system.clusters WHERE cluster = '<cluster_name>' and replica_num = 1;

    參數說明:

    • cluster_name:目的地組群的名字。

    • replica_num=1表示選擇第一個複本集,也可以選擇其他複本集或者自行挑選每個shard的一個副本組成。

    重要
    • 不能使用ClickHouse的VPC網域名稱地址或者SLB地址。

    • 如果IP和連接埠發生轉換後映射到阿里雲,則需要根據網路打通情況配置對應的IP和PORT。

    192.168.0.5:9000,192.168.0.6:9000

    數據庫賬號

    自建叢集資料庫帳號。

    test

    數據庫密碼

    自建叢集資料庫帳號密碼。

    test******

    源实例内核版本

    單擊获取版本

    22.8.5.29

  5. 根據擷取到的源執行個體版本資訊,執行對應操作:

    • 源執行個體版本大於等於22.10:單擊下一步

    • 源執行個體版本小於22.10:根據提示填寫目標實例信息,單擊下一步

    • 擷取版本失敗:源執行個體資訊填寫錯誤、網路未打通等情況會導致擷取版本失敗,請根據提示資訊處理後,重新單擊获取版本

    說明

    由於低版本社區版與企業版之間存在參數不相容的問題,當源執行個體版本低於22.10時,需要通過源端向目的端推送資料的方式進行同步。在這種情況下,需要將目的端的IP映射至自建網路。如果自建網路與企業版執行個體處於同一 VPC,或雙方網路已通過VPC對等串連連通,則可直接使用原有IP地址進行串連。

  6. 檢查連通性和配置。

    1. 單擊開始檢查

      點擊查看檢查項。

      • 連通性驗證:自建執行個體和目標執行個體之間的網路完全打通,兩端各個節點之間能夠互相訪問。

      • 賬戶許可權驗證源端賬戶、密碼輸入正確,能夠串連到源端執行個體。

      • 檢查源執行個體系統資料表:自建執行個體必須有system.query_logsystem.partssystem.part_log三個系統資料表。

      • 檢查配置:自建執行個體和目標執行個體時區相同、目標執行個體的compatibility配置項與源端版本相同

    2. 檢查過程中可以單擊右上方的image即時查看檢查進度。

    3. 檢查完成後,請根據檢查結果,完成後續操作。

      您可以選擇結果層級與檢查項,然後單擊image按鈕,查看對應的檢查結果,檢查結果說明如下。

      • 成功:若所有檢查項均通過,單擊下一步繼續操作。

      • 警告非強制卡點項,需自行確認該警告項是否會對業務和遷移任務造成影響。您可選擇忽略警示,或根據警示內容處理對應的警示項後,再次單擊開始檢查,重新檢查連通性與配置。

      • 錯誤強制卡點項,需根據錯誤內容處理對應的錯誤項後,再次單擊開始檢查,重新檢查連通性與配置。

        檢測報錯資訊以及解決方案,請參見常見問題

  7. 檢查庫表結構。

    1. 單擊開始檢查

    2. 檢查過程中可以單擊右上方的image即時查看檢查進度。

    3. 檢查完成後,請根據檢查結果,完成後續操作。

      檢查結果說明請參見步驟5。

  8. 庫表結構遷移。

    1. 單擊開始遷移

    2. 遷移過程中可以單擊右上方的image即時查看遷移進度。

    3. 檢查完成後,請根據檢查結果,完成後續操作。

      檢查結果說明請參見步驟5。

  9. (可選)檢查SQL相容性。

    SQL相容性檢查通過在目標執行個體上對自建執行個體的SQL語句進行回放,來驗證不同核心版本的文法相容性,請您根據自身需求,決定是否需要執行此步驟。

    • 無需執行,則單擊跳過

    • 若需要執行,需選擇請求重放時間後,再單擊開始檢查。檢查通過後單擊下一步,檢查不通過時的處理方法請參見步驟5。

      重要
      • 執行個體庫表無資料,僅提供驗證文法相容性的能力。如果需要有資料,可先執行下一步驟遷移部分資料。

      • 由於回放SQL的用戶端版本和目標執行個體不匹配,可能存在誤判。針對異常情況,您可以自行執行SQL驗證。

  10. 啟動同步。

    1. 單擊開始同步

    2. 同步過程中可以單擊右上方的image即時查看同步進度。

      同步過程中,支援執行停止重啟取消遷移操作控制遷移流程,點擊查看操作含義及影響等資訊。

      操作

      功能含義

      影響

      使用情境

      停止

      立刻停止遷移資料,遷移剩餘的庫表結構。

      • 資料可能未完全遷移。

      • 在您重新發起遷移之前,必須先清理目的地組群中已遷移的資料,避免出現資料重複的情況。

      • 全部資料移轉完成後,主動停止遷移任務。

      • 期望遷移一部分資料後測試,但是不想停寫自建叢集。

      重啟

      在檢查並清理其他庫表、遷移資料、遷移剩餘庫表結構過程中出現異常,客戶根據錯誤資訊處理之後,將重試當前步驟,並正常執行後續步驟。

      遷移過程出現異常,客戶根據提示資訊解決之後想要斷點重試

      取消遷移

      強製取消任務,跳過後續步驟。

      重要

      取消遷移後,該遷移任務將被鎖定,即不允許修改遷移流程,您可通過上一步下一步重繪按鈕查看遷移步驟執行結果。

      • 遷移任務強制終止,目標執行個體庫表結構和配置可能不完整,不可作為業務正常使用。

      • 在您重新發起遷移之前,必須先清理目的地組群中已遷移的資料,避免出現資料重複的情況。

      遷移任務影響了自建叢集,希望儘快結束遷移,開啟寫入。

    3. 當執行到遷移資料時,切換到遷移資料頁簽,單擊image按鈕查看遷移進度預估剩餘時間

      點擊查看如何評估遷移是否可以完成

      遷移是否可以完成取決於遷移速度與自建叢集寫入速度的關係。

      • 遷移速度的測試實驗資料如下

        資料表的Part平均大小

        源端執行個體規格

        源端磁碟規格

        目標端執行個體規格

        目標端儲存介質

        叢集節點數

        單節點遷移速度

        整體遷移速度

        402.54MB

        8C32G

        PL1

        16CCU

        OSS

        16

        47MB/s

        752.34MB/s

        402.54MB

        80C384G

        PL3

        48CCU

        ESSD_L2

        8

        197.74MB/s

        1581.95MB/s

      • 判斷目的地組群與自建叢集的寫入速度的關係:

        資料移轉的速度與part大小(在測試實驗中,平均part大小在100MB~10GB的範圍內,能夠保持較快的遷移速度)、執行個體規格、磁碟規格、業務資料特性等要素相關,因此測試實驗資料僅供參考。目的地組群的真實寫入速度需要您通過查看目的地組群的磁碟吞吐來判斷如何查看磁碟吞吐,請參見查看叢集監控資訊

        • 目的地組群寫入速度小於自建叢集的寫入速度:遷移失敗率較高,建議您取消遷移任務,使用手動遷移進行資料移轉。

        • 目的地組群寫入速度大於自建叢集的寫入速度:可繼續後續步驟,為提高遷移成功率,建議資料量 /(遷移速度-自建執行個體寫入速度)所得的遷移所需時間小於等於 5天

      重要

      您需重點監控目標任務的遷移進度,根據預估剩餘時間主動停寫自建叢集並處理Kafka和RabbitMQ引擎表。

      點擊查看如何預估何時停寫自建叢集。

      業務切流前需要確保自建執行個體無新資料產生,進而保證遷移後資料的完整性。故需停止業務寫入,並刪除Kafka和RabbitMQ表,其具體操作如下:

      1. 登入自建叢集,通過以下語句,查詢需要處理的表。

        SELECT * FROM system.tables WHERE engine IN ('RabbitMQ', 'Kafka');
      2. 查看目標表的建表語句。

        SHOW CREATE TABLE <aim_table_name>;
      3. 串連目的地組群,並執行上一步擷取的建表語句。

      4. 登入自建叢集,刪除已經遷移了的Kafka和RabbitMQ引擎表。

        重要

        刪除Kafka時,需同時刪除引用Kafka表的物化視圖,否則會導致物化視圖遷移無法完成,最終導致遷移無法完成。

    4. 遷移進度為100%,且確認源端執行個體已經進入停寫狀態後,需要您單擊停止按鈕結束遷移流程,執行後續流程。

      image

    5. 同步完成後單擊完成

      重要

      “啟動同步”步驟完成後,該遷移任務將被鎖定,即不允許修改遷移流程,您可通過上一步下一步重繪按鈕查看遷移步驟執行結果。

步驟四:遷移非MergeTree類型表的業務資料

遷移任務中,非MergeTree類型的表僅支援遷移表結構(例如MySQL表)或者不支援遷移(例如Log表)。因此,遷移任務完成後,目的地組群可能存在只有表結構,沒有具體的業務資料的表,您需自主完成業務資料移轉,具體操作如下:

  1. 登入自建叢集,查看需要遷移資料的非MergeTree類型的表。

    SELECT
        `database` AS database_name,
        `name` AS table_name,
        `engine`
    FROM `system`.`tables`
    WHERE (`engine` NOT LIKE '%MergeTree%') AND (`engine` != 'Distributed') AND (`engine` != 'MaterializedView') AND (`engine` NOT IN ('Kafka', 'RabbitMQ')) AND (`database` NOT IN ('system', 'INFORMATION_SCHEMA', 'information_schema')) AND (`database` NOT IN (
        SELECT `name`
        FROM `system`.`databases`
        WHERE `engine` IN ('MySQL', 'MaterializedMySQL', 'MaterializeMySQL', 'Lazy', 'PostgreSQL', 'MaterializedPostgreSQL', 'SQLite')
    ))
  2. 登入目的地組群,通過remote函數執行資料移轉

手動遷移

從自建ClickHouse向企業版遷移

image.png

說明

雲資料庫 ClickHouse 企業版中,無論您的源表是否存在分區或副本,您只需建立對應的目標表即可(在該表中,您可以省略Engine參數,因為系統將自動使用SharedMergeTree表引擎)。雲資料庫 ClickHouse 企業版叢集會自動處理垂直和水平擴充,您無需擔心複製和分區的具體實現方式。

操作概述

從自建ClickHouse向雲資料庫 ClickHouse 企業版叢集遷移的流程如下。

  1. 在源叢集中添加一個唯讀使用者。

  2. 在目的地組群上複製源表結構。

  3. 如果源叢集支援從外部網路訪問時,您可以將源叢集資料讀取至目的地組群;如果源叢集不支援從外部網路訪問時,您可以將源叢集資料推送至目的地組群。

  4. (可選)在目的地組群上將源叢集的IP地址刪除。

  5. 從源叢集中刪除唯讀使用者。

操作步驟

  1. 在源叢集上執行以下操作(源表中已有資料):

    1. 增加一個唯讀使用者到表db.table中。

      CREATE USER exporter
      IDENTIFIED WITH SHA256_PASSWORD BY 'password-here'
      SETTINGS readonly = 1;
      GRANT SELECT ON db.table TO exporter;
    2. 複製源表結構。

      SELECT create_table_query
      FROM system.tables
      WHERE database = 'db' and table = 'table'
  2. 在目的地組群上執行以下操作。

    1. 建立資料庫。

      CREATE DATABASE db
    2. 使用來源資料表的CREATE TABLE語句來建立目標資料表。

      說明

      在運行CREATE TABLE語句時,將ENGINE更改為SharedMergeTree,但是不能包含任何參數,因為雲資料庫 ClickHouse 企業版叢集始終會複製表並提供正確的參數。ORDER BYPRIMARY KEYPARTITION BYSAMPLE BYTTLSETTINGS子句定義了表的結構和中繼資料資訊,請保留這些子句,以確保表在目標雲資料庫 ClickHouse 企業版叢集中正確地建立。

      CREATE TABLE db.table ...
    3. 使用Remote函數讀取資料或推送資料。

      說明

      如果源ClickHouse伺服器不可從外部網路訪問,您可以選擇將資料推送而不是讀取,因為Remote函數適用於選擇和插入操作。

      • 在目的地組群中使用Remote函數從源叢集的源表中讀取資料。

        image.png

        INSERT INTO db.table SELECT * FROM
        remote('source-hostname:9000', db, table, 'exporter', 'password-here')
      • 在源叢集中使用Remote函數將資料推送到目的地組群中。

        image.png

        說明

        為了使Remote函數能夠串連到您的雲資料庫 ClickHouse 企業版叢集上,您需要將源叢集的IP地址添加到目的地組群的白名單中。具體操作,請參見設定白名單

        INSERT INTO FUNCTION
        remote('target-hostname:9000', 'db.table',
        'default', 'PASS') SELECT * FROM db.table

常見問題

檢查連通性與配置中的報錯資訊及解決方案

報錯資訊

含義

解決方案

Tcp connectivity check failed for '{host}:{port}':{error}.

自建叢集網路連接逾時。

根據報錯資訊,排查網路問題。

No such cluster: {cluster}, please run 'SELECT DISTINCT(cluster) FROM system.clusters;' to check

自建叢集中不存在建立遷移任務時配置的cluster。

通過SQL查詢自建叢集的cluster,並修改遷移任務的配置。

not exists

自建叢集不存在system.query_logsystem.partssystem.part_log中一個或多個系統資料表。

在自建叢集建立對應的系統資料表。

Timezone mismatch with source, which may cause time data anomalies.

自建叢集與目的地組群時區不匹配。

修改時區,使其匹配。

Compatibility mismatch with source version, which may cause incompatibility.

目的地組群compatibility配置與自建叢集版本不一致。

調整目的地組群compatibility配置,使其與自建叢集版本一致。

重要

若將compatibility設定到低版本,會導致ParallelReplica等部分新特性失效。

檢查庫表結構中的報錯資訊及解決方案

報錯資訊

含義

解決方案

ERROR: Not consistent across nodes.

在自建叢集中,不同節點之間的資料庫表不一致。

檢查自建叢集各節點上的庫表,解決不一致問題。

ERROR: Cannot get secrets (shown as [HIDDEN]), please set display_secrets_in_show_and_select=1 (restart required).

庫表密碼不可見。

設定display_secrets_in_show_and_select=1,並重啟。

注意:此操作要求帳號擁有displaySecretsInShowAndSelect許可權。

ERROR: Unsupported engine.

自建叢集的庫引擎不支援遷移。

考慮更換目的端支援的庫引擎。

WARN:Unsupported engine, it will be automatically replaced with a Replicated database to bypass migration exceptions.

自建叢集的庫引擎不支援遷移。

後台自動替換為Replicated資料庫,以繞過遷移異常。

WARN:Unsupported engine, please replace the data synchronization capability with DTS, or create a same-name database to bypass migration exceptions.

自建叢集的庫引擎不支援遷移。

請使用DTS(Data Transmission Service)替代同步功能,或建立同名資料庫以繞過遷移異常。

WARN:Unsupported engine, it will be automatically ignored during migration.

自建叢集的庫引擎不支援遷移。

在遷移過程中自動被忽略。

WARN:It's not recommended to use the Distributed engine as it will cause scaling issues in enterprise instances. Please drop this table and query the underlying MergeTree table directly。

雲資料庫 ClickHouse 企業版不建議使用分布式表。

在自建叢集刪除分布式表,遷移後直接查詢MergeTree表。

WARN:Please confirm referenced IP addresses are accessible.

引用外部引擎,可能存在無法訪問的問題,但並不一定存在問題。

需要您自行確認所引用的IP地址在目標執行個體是否可以訪問。若無法訪問,則需要打通網路連接,並加白IP地址。

WARN:Only structure, does not support data migration.

部分引擎的表只會遷移表結構,不支援遷移資料。

需要您通過remote函數等方式自行遷移資料

WARN:Unsupported engine, please create a same-name MergeTree table manually to bypass migration exceptions.

部分引擎的表不支援遷移。

需要客戶在目標端建立同名的MergeTree表,並自行遷移資料。

WARN:Ignored engine, please create table manually.

部分引擎的表不支援遷移。

請參見操作步驟中的步驟四。

ERROR: Table has data in destination cluster.

檢查庫表結構時,對應的表在目標執行個體應為空白表,不能有資料。

刪除目標執行個體對應表的資料。

ERROR: Unsupported function origin.

只支援遷移客戶自訂的Function(function.origin="SQLUserDefined")

自行在目標執行個體中建立對應的function。

其他

遷移過程中的其他問題及解決方案請參見常見問題