すべてのプロダクト
Search
ドキュメントセンター

Dataphin:DM データソースを作成する

最終更新日:May 29, 2025

DM データソースを作成することで、Dataphin が DM からビジネスデータを読み取ったり、DM にデータを書き込んだりできるようになります。このトピックでは、DM データソースを作成する方法について説明します。

背景情報

DM は、業務システムに統合された OLTP データベースです。 DM データベースは、高度な技術的概念と主流のデータベース製品の利点を組み込んでおり、分散システム、エラスティックコンピューティング、およびクラウドコンピューティングの利点を組み合わせています。柔軟性、使いやすさ、信頼性、そして高いセキュリティを備えています。 DM を使用していて、Dataphin データを DM にエクスポートする場合、最初に DM データソースを作成する必要があります。

権限要件

カスタムグローバルロールで [データソースの作成] 権限ポイントを持つユーザー、または [スーパー管理者][プロジェクト管理者][ドメインアーキテクト]、または [データソース管理者] システムロールを持つユーザーのみがデータソースを作成できます。

手順

  1. Dataphin ホームページの上部ナビゲーションバーで、[管理センター] > [データソース管理] を選択します。

  2. [データソース] ページで、[+データソースの作成] をクリックします。

  3. [データソースの作成] ページで、[リレーショナルデータベース] セクションの [DM] を選択します。

    最近 DM を使用したことがある場合は、[最近使用したデータソース] セクションで DM を選択することもできます。また、検索ボックスにキーワード [DM] を入力して、すばやく見つけることもできます。

  4. [DM データソースの作成] ページで、接続パラメーターを構成します。

    1. データソースの基本情報を構成します。

      パラメーター

      説明

      データソース名

      名前は次の要件を満たしている必要があります。

      • 漢字、英字、数字、アンダースコア (_)、およびハイフン (-) のみを含めることができます。

      • 長さは 64 文字を超えることはできません。

      データソースコード

      data_source_code.table_namedata_source_code.schema.table_name${data_source_code}.table${data_source_code}.スキーマ.tableデータソースコードを構成した後、 または の形式を使用して、Flink_SQL タスクでデータソース内のテーブルを参照できます。現在の環境に基づいて対応する環境のデータソースに自動的にアクセスする必要がある場合は、変数形式 または を使用します。詳細については、「Dataphin データソーステーブル開発方法」をご参照ください。

      重要
      • データソースコードは、正常に構成された後は変更できません。

      • データソースコードが正常に構成されると、アセットディレクトリとアセットインベントリのオブジェクト詳細ページでデータをプレビューできます。

      • Flink SQL では、現在、MySQL、Hologres、MaxCompute、Oracle、StarRocks、Hive、および SelectDB データソースのみがサポートされています。

      データソースの説明

      データソースの簡単な説明。長さは 128 文字を超えることはできません。

      データソースの構成

      構成するデータソースを選択します。

      ビジネスデータソースが本番データソースと開発データソースを区別している場合は、[本番 + 開発データソース] を選択します。

      ビジネスデータソースが本番データソースと開発データソースを区別していない場合は、[本番データソース] を選択します。

      タグ

      ラベルを使用してデータソースを分類およびタグ付けできます。タグの作成方法については、「データソースタグの管理」をご参照ください。

    2. データソースと Dataphin 間の接続パラメーターを構成します。

      データソース構成で [本番 + 開発データソース] を選択した場合は、[本番 + 開発データソース] の接続情報を構成する必要があります。データソースが [本番データソース] として構成されている場合は、[本番データソース] の接続情報のみを構成する必要があります。

      説明

      通常、本番環境と開発環境のデータソースは、環境を分離し、開発活動が本番環境に与える影響を軽減するために、別々のデータソースとして構成する必要があります。ただし、Dataphin では、同じパラメーター値を持つ同じデータソースとして構成することもサポートされています。

      パラメーター

      説明

      接続方法

      [単一サーバー][負荷分散] 接続方法をサポートしています。 DM データソースのデプロイメントに基づいて適切な方法を選択してください。

      JDBC URL

      データソースの JDBC URL アドレスを入力します。

      • 単一サーバー: デフォルトのフォーマットは jdbc:dm://{server_address}:{port}/{database_name} です。

      • ロード バランシング: DM データソースがクラスタモードの場合、クラスタモードアドレスを入力できます。フォーマットは jdbc:dm://servicename?servicename=({server_address}:{port},{server_address}:{port})&LOGIN_MODE={login_mode_code} です。

      スキーマ

      スキーマは必須です。 DM データベースでは、ユーザーはユーザー名と同じ名前のデフォルトスキーマと、手動で作成されたスキーマの両方を持っています。

      ユーザー名、パスワード

      データベースにログインするために使用するユーザー名とパスワード。

      SSL 暗号化

      SSL を使用して暗号化接続を確立する必要がある場合は、[SSL 暗号化を有効にする][キーストア証明書をアップロードする]、および [キーストア証明書のパスワード] を入力する必要があります。

    3. データソースの高度な設定を構成します。

      パラメーター

      説明

      connectTimeout

      データベース接続タイムアウト期間 (ミリ秒)。デフォルトは 900,000 ミリ秒 (15 分) です。

      説明
      • JDBC URL に connectTimeout 構成を含めた場合、JDBC URL の connectTimeout 値が使用されます。

      • Dataphin V3.11 より前に作成されたデータソースの場合、デフォルトの connectTimeout は -1 で、タイムアウト制限がないことを意味します。

      socketTimeout

      データベースソケットタイムアウト期間 (ミリ秒)。デフォルトは 1,800,000 ミリ秒 (30 分) です。

      説明
      • JDBC URL に socketTimeout 構成を含めた場合、JDBC URL の socketTimeout 値が使用されます。

      • Dataphin V3.11 より前に作成されたデータソースの場合、デフォルトの socketTimeout は -1 で、タイムアウト制限がないことを意味します。

      接続再試行回数

      データベース接続がタイムアウトした場合、システムは指定された再試行回数に達するまで接続を自動的に再試行します。最大再試行回数後も接続に失敗した場合、接続は失敗したと見なされます。

      説明
      • デフォルトの再試行回数は 1 です。 0 から 10 までの値を構成できます。

      • 接続再試行回数は、デフォルトで [オフライン統合タスク][グローバル品質] (アセット品質機能モジュールを有効にする必要があります) に適用されます。オフライン統合タスクでは、タスクレベルの再試行回数を個別に構成できます。

  5. データベース SQL、オフラインデータベース移行、データプレビューなど、現在のデータソースに関連するタスクを実行するために使用される [デフォルトリソースグループ] を選択します。

  6. [接続テスト] をクリックするか、直接 [OK] をクリックして、DM データソースの作成を保存して完了します。

    [接続テスト] をクリックすると、システムはデータソースが Dataphin に正しく接続できるかどうかをテストします。 [OK] を直接クリックすると、システムは選択したすべてのクラスターの接続を自動的にテストします。ただし、選択したすべてのクラスターが接続テストに失敗した場合でも、データソースは正常に作成できます。