すべてのプロダクト
Search
ドキュメントセンター

Data Management:DMSNotebookOperator

最終更新日:Nov 09, 2025

このトピックでは、DMSNotebookOperator 操作の構成情報について説明します。

機能説明

DMS によって管理される Notebook ファイル (.pynb) を実行します。

前提条件

パラメーター

説明

パラメーター file_pathrun_paramsprofilesession_idprofile_idcluster_idsession_nameprofile_namecluster_nameJinja テンプレートを使用できます。

パラメーター

タイプ

必須

説明

file_path

文字列

はい

Notebook ファイル (.pynb) のパス。

profile

dict

いいえ

Notebook セッションの構成情報。

  • autoStopTime: リソースがリリースされる時間。

  • mountPoints: データストレージの場所。

    フォーマットは [{"mntPath" : "/mnt/data***","dataPath" : "oss://test/***"},......] です。mntPath はマウントパスを示し、dataPath は OSS パスを示します。

  • dependencies: Pypi パッケージ管理。

  • environments: 環境変数。

profile_id

文字列

いいえ

説明

セッションを再利用しない場合に必須です。

  • profile_id: 構成の ID。

  • profile_name: 構成の名前。

    説明

    2 つのうちの 1 つを選択します。profile_id の方が優先度が高いです。

profile_name

文字列

cluster_type

文字列

DMS ワークスペースの計算クラスターのタイプ。有効な値:

  • cpu

  • spark

cluster_id

文字列

  • cluster_id: DMS ワークスペースの計算クラスターの ID。

  • cluster_name: DMS ワークスペースの計算クラスターの名前。

説明

2 つのうちの 1 つを選択します。cluster_id の方が優先度が高いです。

cluster_name

文字列

spec

文字列

ドライバーのリソース仕様。有効な値:

  • 1C4G: 1 コア、4 GB

  • 2C8G: 2 コア、8 GB

  • 4C16G: 4 コア、16 GB

  • 8C32G: 8 コア、32 GB

  • 16C64G: 16 コア、64 GB

runtime_name

文字列

イメージ名。

session_id

文字列

いいえ

説明

セッションを再利用する場合に必須です。

再利用されるセッションの情報。

  • session_id: セッションの ID。

  • session_name: セッションの名前。

説明

2 つのうちの 1 つを選択します。session_id の方が優先度が高いです。

session_name

文字列

run_params

dict

いいえ

Notebook ファイル内の変数を置き換えることができる実行時パラメーター。

timeout

int

いいえ

Notebook ファイルの実行期間 (タイムアウト期間) (秒単位)。

polling_interval

int

いいえ

実行結果がリフレッシュされる間隔。単位は秒です。デフォルト値は 10 です。

説明

task_iddag は Airflow の特定のパラメーターです。詳細については、「Airflow 公式ドキュメント」をご参照ください。

from airflow import DAG
from airflow.decorators import task
from airflow.models.param import Param
from airflow.operators.bash import BashOperator
from airflow.operators.empty import EmptyOperator

import json
from airflow.providers.alibaba_dms.cloud.operators.dms_notebook import DMSNotebookOperator


with DAG(
    "dms_notebook_test",
    params={
        "x":3
    },
) as dag:

    notebook_operator = DMSNotebookOperator(
        task_id='notebook_test_hz_name',
        profile_name='hansheng_profile.48',
        profile={},
        cluster_type='spark',
        cluster_name='spark_general2.218',
        spec='4C32G',
        runtime_name='Spark3.5_Scala2.12_Python3.9_General:1.0.9',
        file_path='/Workspace/code/default/test.ipynb',
        run_params={
            'a':"{{ params.x }}"
        },
        polling_interval=5,
        dag=dag
    )

    run_this_last = EmptyOperator(
        task_id="run_this_last",
        dag=dag,
    )

    notebook_operator >> run_this_last

if __name__ == "__main__":
    dag.test(
        run_conf={}
    )