このトピックでは、Realtime Compute for Apache Flink で JAR ジョブをデプロイして、Paimon FileSystem カタログを DLF に移行する方法について説明します。
前提条件
フルマネージド Flink ワークスペースが作成されていること。詳細については、「Realtime Compute for Apache Flink の有効化」をご参照ください。
DLF データカタログが作成されていること。詳細については、「データカタログの作成」をご参照ください。
操作手順
ステップ 1: JAR ジョブの作成
フルマネージド Flink ワークスペースのリストで、対象のワークスペース名をクリックします。
左側のナビゲーションウィンドウで、 を選択します。
[Deploy Job] をクリックし、[JAR Job] を選択して、次のパラメーターを設定します。
パラメーター
説明
例
デプロイメントモード
このパラメーターは [Batch Mode] に固定されています。
Batch Mode
デプロイメント名
JAR ジョブの名前を入力します。
migrate_paimon
[Engine Version]
リアルタイムコンピューティングエンジンバージョンを選択します。
vvr-8.0.11-flink-1.17
[JAR URI]
paimon-flink-action JAR パッケージをアップロードします。
paimon-flink-action-1.3-SNAPSHOT-for-clone-20250909.jar パッケージをアップロードします。以前にアップロードしたことがある場合は、ドロップダウンリストから選択します。
[Entry Point Class]
プログラムのエントリポイントクラスです。
空白のままにします。
[Entry Point Main Arguments]
main メソッドに渡されるパラメーターです。
ここでは空白のままにします。具体的なパラメーターはジョブによって異なります。詳細については、ステップ 2 をご参照ください。
追加の依存関係
アタッチする依存関係ファイルのパスまたはファイル名を指定します。
paimon-ali-vvr-8.0-vvp-1.3-ali-SNAPSHOT-for-clone-20250909.jar パッケージをアップロードします。以前にアップロードしたことがある場合は、ドロップダウンリストから選択します。
説明デプロイメントパラメーターの詳細については、「JAR ジョブのデプロイ」をご参照ください。
[Deploy] をクリックして JAR ジョブを作成します。
ステップ 2: パラメーターの調整とジョブの開始
Flink ジョブは、カタログ全体、データベース全体、または単一のテーブルを移行できます。移行の目的に応じて、Entry Point Main Arguments パラメーターを調整します。
[Job O&M] ページで、作成した JAR ジョブを見つけ、[Details] をクリックします。
[Deployment Details] ページの右上隅にある [Edit] をクリックし、
Entry Point Main Argumentsパラメーターを指定します。ソーステーブルのタイプによって、方法は異なります:
clone --parallelism '<parallelism>' --database '<database-name>' --table '<table-name>' --catalog_conf 'metastore=filesystem' --catalog_conf "warehouse=<warehouse>" --catalog_conf 'fs.oss.endpoint=<fs.oss.endpoint>' --catalog_conf 'fs.oss.accessKeyId=<fs.oss.accessKeyId>' --catalog_conf 'fs.oss.accessKeySecret=<fs.oss.accessKeySecret>' --target_database '<target-database-name>' --target_table '<target-table-name>' --target_catalog_conf 'metastore=rest' --target_catalog_conf 'warehouse=<target-warehouse>' --target_catalog_conf 'uri=<dlf.next.endpoint>' --target_catalog_conf 'token.provider=dlf' --target_catalog_conf 'dlf.access-key-id=<dlf.access-key-id>' --target_catalog_conf 'dlf.access-key-secret=<dlf.access-key-secret>' --clone_from 'paimon' --where '<filter-spec>'次の表に設定項目を説明します。
設定項目
説明
必須
備考
parallelism
ジョブの並列度。
いいえ
例: 16
database-name
クローンする FileSystem カタログデータベースの名前。
いいえ
例: my_database
table-name
クローンする FileSystem カタログデータテーブルの名前。
いいえ
例: my_table
warehouse
クローンする FileSystem カタログの OSS リポジトリのパス。
はい
フォーマットは
oss://<bucket>/<object>です。フォーマットの説明:bucket:ご利用の OSS バケットの名前。
object:データが格納されているパス。
バケット名とオブジェクト名は、OSS コンソールで確認できます。
fs.oss.endpoint
OSS サービスのエンドポイント。
はい
エンドポイントの取得方法の詳細については、「リージョンとエンドポイント」をご参照ください。
OSS の例: oss-cn-hangzhou-internal.aliyuncs.com。
OSS-HDFS の例:
cn-hangzhou.oss-dls.aliyuncs.com
fs.oss.accessKeyId
OSS に対する読み取りおよび書き込み権限を持つ Alibaba Cloud アカウントまたは RAM ユーザーの AccessKey ID。
はい
既存の AccessKey を使用するか、新しい AccessKey を作成します。詳細については、「AccessKey の作成」をご参照ください。
説明AccessKey Secret の漏洩リスクを軽減するため、AccessKey Secret は作成時にのみ表示され、後から取得することはできません。AccessKey Secret は安全に保管してください。
fs.oss.accessKeySecret
OSS に対する読み取りおよび書き込み権限を持つ Alibaba Cloud アカウントまたは RAM ユーザーの AccessKey Secret。
はい
target-database-name
クローンされた DLF データベースの名前。
いいえ
例: target_database
target-table-name
クローンされた DLF データテーブルの名前。
いいえ
例: targety_table
target-warehouse
クローンされた DLF データカタログの名前。
はい
dlf.next.endpoint
DLF サービスのエンドポイント。
はい
詳細については、「エンドポイント」をご参照ください。
例: cn-hangzhou-vpc.dlf.aliyuncs.com
dlf.access-key-id
DLF サービスへのアクセスに必要な AccessKey ID。
はい
既存の AccessKey を使用するか、新しい AccessKey を作成します。詳細については、「AccessKey の作成」をご参照ください。
説明AccessKey Secret の漏洩リスクを軽減するため、AccessKey Secret は作成時にのみ表示され、後から取得することはできません。AccessKey Secret は安全に保管してください。
dlf.access-key-secret
DLF サービスへのアクセスに必要な AccessKey Secret。
はい
clone_from
クローンするソーステーブルのタイプ。
はい
'paimon'
filter-spec
クローン時のパーティションに対するフィルター条件。
いいえ
dt = '2024-10-01'
重要データベース全体を移行する場合は、
table-nameおよびtarget-table-nameパラメーターを設定しないでください。データカタログ全体を移行する場合は、
database-nameおよびtarget-database-nameパラメーターを設定しないでください。データカタログまたはデータベース全体を移行する場合、
--excluded_tables <excluded-tables-spec>パラメーターを設定することで、特定のテーブルを除外できます。例: my_db.my_tbl,my_db2.my_tbl2。単一テーブルの移行では、このパラメーターを設定しないでください。
パラメーターを設定した後、[Deployment Details] ページで [Save] をクリックします。
[Job O&M] ページで、対象の JAR ジョブの横にある [Start] をクリックします。その後、デフォルトのパラメーターでジョブを開始します。
ステップ 3: 結果の検証
ジョブのステータスが [完了] に変わったら、DLF コンソールにログインし、移行が成功したことを確認します。
カタログ全体の移行の場合: DLF のカタログ構造、データベース、およびテーブルが、FileSystem カタログのものと一致していることを確認します。
データベース全体の移行の場合: DLF のデータベースとテーブルの構造が、FileSystem カタログのものと一致していることを確認します。
単一テーブルの移行の場合: DLF のテーブル構造が、FileSystem カタログのものと一致していることを確認します。