すべてのプロダクト
Search
ドキュメントセンター

AnalyticDB:Enterprise Edition、Basic Edition、Data Lakehouse Edition のクイックスタート

最終更新日:Feb 10, 2026

AnalyticDB for MySQL は、高並列オンライン分析処理(OLAP)向けに設計された、クラウドホスト型のペタバイト規模リアルタイムデータウェアハウスです。本トピックでは、セットアップからジョブ開発まで、AnalyticDB for MySQL クラスターの作成および利用手順を説明します。

重要

Data Lakehouse Edition は新規購入が終了しています。すでに Data Lakehouse Edition クラスターをご購入済みの場合、本トピックの手順に従ってご利用いただけます。

事前準備

  • Alibaba Cloud アカウントをお持ちです。

    お持ちでない場合は、 または Alibaba Cloud ウェブサイト から登録してください。組織内で複数のユーザーがリソースを共同で利用する必要がある場合は、Alibaba Cloud アカウント(ルートアカウント)配下に Resource Access Management (RAM) ユーザーを作成し、必要な権限を割り当ててください。これにより、各 RAM ユーザー が、必要なリソースのみにアクセスできるようになります。

  • 初めて AnalyticDB for MySQL Enterprise Edition、Basic Edition、またはData Lakehouse Edition を使用する場合は、「プロダクトの概要」を参照して、AnalyticDB for MySQL のプロダクトの概念、メリット、および一般的なシナリオについて学んでください。

費用

クラスターの作成には、計算リソースおよびストレージの課金が発生します。詳細については、「Enterprise Edition および Basic Edition の料金」および「Data Lakehouse Edition の料金」をご参照ください。

操作手順

ステップ 1:クラスターの作成

  1. AnalyticDB for MySQL コンソール にログインします。ページ右上隅の 作成クラスタ をクリックします。

  2. 購入ページで、クラスタータイプを素早く選択できるよう、主要パラメーターを設定します。その他のパラメーターはデフォルト値のままとします。各パラメーターの詳細については、「クラスターの作成」をご参照ください。

    設定項目

    説明

    プロダクトタイプ

    • 従量課金:使用後に時間単位で課金されます。短期間の利用に最適です。利用終了後はクラスターを解放して、コストを削減してください。

    • サブスクリプション:クラスター作成時に前払いとなります。長期的な利用に最適です。従量課金よりも低価格で、契約期間が長いほど割引率が高くなります。

    バージョン

    • Enterprise Edition:マルチレプリカエディション。マルチレプリカストレージおよび分散コンピューティングを使用し、高可用性(HA)を提供します。

    • Basic Edition:シングルレプリカエディション。シングルレプリカストレージを使用し、高可用性(HA)を提供しません。

    Enterprise Edition および Basic Edition の詳細については、「エディション」をご参照ください。

    デプロイモード

    • Enterprise Editionシングルゾーンデプロイメント または マルチゾーンデプロイメント をサポートします。

      重要

      マルチゾーンデプロイメントは、中国(杭州)、中国(上海)、中国(北京)、中国(張家口)、中国(深セン)、中国(香港)、シンガポールでのみサポートされています。

    • Basic Edition: [シングルゾーンデプロイメント] に固定されています。

    地域:

    クラスターが実行される地理的場所です。購入後にリージョンを変更することはできません。アクセス速度を向上させるため、ビジネスに最も近いリージョンを選択してください。

    プライマリゾーン

    クラスターのプライマリゾーンを選択します。

    セカンダリゾーン

    クラスターのセカンダリゾーンを選択します。プライマリゾーンが障害を起こした場合、サービスは自動的にセカンダリゾーンに切り替わります。この切り替え中、クラスターは読み取り/書き込み不可状態になったり、タイムアウトが発生したりする可能性があります。

    重要

    このパラメーターを設定するのは、デプロイモードマルチゾーンデプロイメント に設定した場合のみです。

    仮想プライベートクラウド(VPC)

    プライマリゾーンの vSwitch

    セカンダリゾーンの vSwitch

    • ネットワークプランに合致する VPC を既に作成済みの場合は、それを選択します。たとえば、ネットワークプランに合致する VPC 内に ECS インスタンスを作成済みの場合は、その VPC を選択します。

    • ネットワークプランに合致する VPC をまだ作成していない場合は、デフォルト VPC および vSwitch を使用します。

    • デフォルト VPC および vSwitch が要件を満たさない場合は、独自の VPC および vSwitch を作成します。

    重要
    • Elastic Compute Service (ECS) や ApsaraDB RDS などの他の Alibaba Cloud サービスを利用する場合、AnalyticDB for MySQL クラスターとそれらのサービスが同じ VPC 内にあることを確認してください。そうでないと、内部ネットワーク経由での相互接続が不可能となり、最適なパフォーマンスが得られません。

    • セカンダリゾーンの vSwitch を設定するのは、デプロイモードマルチゾーンデプロイメント に設定した場合のみです。

    予約済みリソースノード仕様

    デフォルトの予約済みリソースノード仕様は 8 ACU です。これにより以下が可能になります:

    • データ計算:予約済みリソースを増やすことでクエリ速度が向上します。

    • 各グループの予約済みリソースは、最大 8 TB のホットデータストレージをサポートします。ホットデータストレージの課金は、実際の使用量に基づきます。

    説明

    以前に Data Warehouse Edition または Data Lakehouse Edition を購入済みの場合、Enterprise Edition の仕様を選択する際に、「Enterprise Edition と Data Lakehouse Edition または Data Warehouse Edition の仕様のマッピング」をご参照ください。

    予約済みリソースノード数

    • Enterprise Edition クラスター:デフォルトは 3 ノード、増分は 3 です。

      説明

      Enterprise Edition」では、予約済みリソースノード数を 0 に設定できます。これを実行すると、購入価格がページの右下隅に表示されなくなります。以下の点に注意してください:

      • 予約済みリソースノード数が 0 の場合、外部テーブルのみを利用できます。AnalyticDB for MySQL の内部テーブルを利用するには、0 より大きい値を設定してください。

      • クラスター作成時に予約済みリソースノード数を 0 に設定した場合、後からスケールアウトによって予約済みリソースを追加できます。詳細については、「Enterprise Edition および Basic Edition のスケーリング」をご参照ください。

    • Basic Edition クラスター:デフォルトは 1 ノード、増分は 1 です。

  3. コンソールに表示される残りの購入手順に従って、購入手続きを完了します。

    支払いが完了すると、約 10~15 分待ちます。クラスターリスト ページで、クラスターのステータスが 操作中 に変化すれば、クラスターの作成が完了しています。

ステップ 2:データベースアカウントの作成

重要

AnalyticDB for MySQL では、以下のデータベースアカウントがサポートされています:

  • 特権アカウント:すべての標準アカウントおよびデータベースを管理できます。MySQL の root アカウントに相当します。

  • 標準アカウント:権限を手動で付与する必要があります。特権アカウントと標準アカウントの違いおよび作成方法については、「特権アカウントと標準アカウント」をご参照ください。

この Topic では、特権アカウントを例に、その作成ステップを説明します。

  1. クラスター一覧ページで、対象のクラスター ID をクリックして、クラスター詳細ページを開きます。

  2. 左側のナビゲーションウィンドウで、アカウント管理 をクリックします。

  3. ユーザーアカウント タブで、アカウントの作成 をクリックします。

  4. アカウントの作成 パネルで、パラメーターを設定します。

    パラメーター

    説明

    データベースアカウント

    特権アカウントの名前です。画面の指示に従って有効な名前を入力してください。

    アカウントタイプ

    高特権アカウント を選択します。

    新しいパスワード

    特権アカウントのパスワードです。画面の指示に従って有効なパスワードを入力してください。

    パスワードの確認

    特権アカウントのパスワードを再入力します。

    記述

    今後の管理を容易にするための、アカウントに関する任意の備考です。

  5. を決定 をクリックしてアカウントを作成します。

    説明

    標準アカウントを作成した後は、アカウント横の 操作 をクリックし、権限 をクリックして、その権限を設定してください。

ステップ 3:リソースグループの作成

AnalyticDB for MySQL では、リソースグループ間で計算リソースが分離されており、コアワークロードが複雑な計算や予期しない負荷の急増から保護されます。

今後のジョブ開発およびテストを容易にするため、本セクションでは ジョブリソースグループ を例として、その作成手順を説明します。また、ジョブ開発の種類に応じて、対応するエンジン用のリソースグループを作成することもできます。サポートされているリソースグループの種類を以下に示します。「リソースグループおよび計算エンジン」の詳細については、「リソースグループの作成と管理」および「機能」をご参照ください。

種類

実行されるタスク

一般的なユースケース

インタラクティブリソースグループ

作成時にエンジンを指定する必要があります。サポートされるタスクは以下のとおりです:

  • XIHE エンジン:XIHE MPP SQL をサポートします。

  • Spark エンジン:Spark SQL をサポートします。

高 QPS、低応答時間(RT)のオンラインまたはインタラクティブ分析シナリオ。

ジョブリソースグループ

作成時にエンジンは不要です。以下のタスクをサポートします:

  • Xihe BSP SQL

  • Spark SQL および Spark アプリケーション

スループット重視のオフラインシナリオ。

AI リソースグループ

MLSQL モデル実行および Ray 管理コンピューティング。

異種コンピューティングシナリオ。

  1. クラスター詳細ページの左側ナビゲーションウィンドウで、クラスター管理 > リソース管理 をクリックします。

  2. リソースグループ管理 タブをクリックします。リソースグループ一覧の左上隅にある 新規リソースグループ をクリックします。

  3. リソースグループ名 を入力します。タスクタイプ には ジョブ を選択します。

    説明

    本チュートリアルでは、最小リソースを計算する を 0 ACU、最大リソースの計算 を 8 ACU に設定します。これらの値はクイックスタートのテスト専用です。

  4. を決定 をクリックします。

ステップ 4:(任意)SQL エディターで組み込みテストスクリプトを実行

説明

クラスターを素早く試すかテストするだけの場合は、本セクションの手順に従って、組み込みデータセットを読み込んで分析してください。

  1. クラスター詳細ページの左側ナビゲーションウィンドウで、ジョブを開発する > Sql開発 をクリックします。

  2. ライブラリテーブル タブで、組み込みデータセットの読み込み をクリックします。

  3. スクリプト タブで、スクリプトをダブルクリックし、SQLConsole で SQL 文を実行してクラスターをテストします。

    説明

    組み込みデータセットのテーブル詳細については、「組み込みデータセットのテーブル詳細」をご参照ください。

ステップ 5:ジョブの開発

種類

前提条件

外観

Spark SQL ジョブ開発

Spark エンジンを備えたジョブ リソースグループまたはインタラクティブ リソースグループの作成を行いました。

Xihe BSP SQL ジョブ開発

ジョブ リソースグループ」を作成しました。

内部テーブル

Spark SQL ジョブ開発

Spark エンジンを備えた ジョブ リソースグループまたはインタラクティブ リソースグループ を作成しました。

  • Enterprise Edition クラスターの予約済みリソースは、0 ACU であってはなりません。

  • Data Lakehouse Edition クラスターは、最低でも 16 ACU の計算予約リソースおよび 24 ACU のストレージ予約リソースを備える必要があります。

Xihe BSP SQL ジョブ開発

ジョブ リソースグループを作成しました。ジョブ リソースグループ

Data Lakehouse Edition クラスターは、最低でも 16 ACU の計算予約リソースおよび 24 ACU のストレージ予約リソースを備える必要があります。

ジョブ開発(外部テーブル)

Spark SQL を使用した外部テーブルジョブの開発

以下の手順に従います:

外表

  1. AnalyticDB for MySQL クラスターと同じリージョンで OSS バケットおよびディレクトリを作成します。詳細については、「OSS の有効化」、「OSS バケットの作成(コンソール)」、「ディレクトリの作成」をご参照ください。

  2. OSS Hudi 外部テーブルを作成します。

    1. クラスター詳細ページの左側ナビゲーションウィンドウで、ジョブを開発する > Sql開発 をクリックします。

    2. SQLConsole ウィンドウで、Spark エンジン、ジョブリソースグループ、または Spark エンジン付きインタラクティブリソースグループを選択します。

    3. 以下の文を入力し、SQL の実行 (F8) をクリックして、Hudi データを格納する外部データベース spark_external_db を作成します。この例ではパス oss://testBucketName/adb-test-1/ を使用します。

      CREATE DATABASE spark_external_db
      LOCATION 'oss://testBucketName/adb-test-1/';
    4. spark_hudi_table という名前の外部テーブルを spark_external_db データベース内に作成し、Hudi データを格納します。この例ではパス oss://testBucketName/adb-test-1/spark_external_db/ を使用します。

      CREATE TABLE spark_external_db.spark_hudi_table
      (id int,
       name string,
       score int,
       city string
      )
      using hudi
      partitioned by (id)
      tblproperties
      (primaryKey = 'id', 
      preCombineField = 'city')
      LOCATION 'oss://testBucketName/adb-test-1/spark_external_db/';
    5. データを挿入します。

      INSERT OVERWRITE spark_external_db.spark_hudi_table PARTITION(id) VALUES
      (001,'Anna',99,'London'),
      (002,'Bob',67,'USA'),
      (003,'Cindy',78,'Spain'),
      (004,'Dan',100,'China');
  3. OSS Hudi 外部テーブルのデータをクエリします。

    1. 以下の文を入力し、SQL の実行 (F8) をクリックして、外部テーブル spark_hudi_table のデータをクエリします。

      SELECT * FROM spark_external_db.spark_hudi_table;
      説明

      Data Lakehouse Edition クラスターに計算予約リソースが設定されている場合、または Enterprise Edition クラスターに予約済みリソースが設定されている場合、Xihe MPP SQL オンラインモード(Xihe エンジンおよびインタラクティブリソースグループを選択)を使用して外部テーブルのデータをクエリできます。

    2. ジョブを開発する > Spark Jar 開発 ページの アプリケーションリスト 一覧で、SQL クエリの横にある 操作 をクリックし、ログ をクリックします。ログでテーブルのデータを確認します。

Xihe BSP SQL を使用した外部テーブルジョブの開発

以下の手順に従います:

xihe外表

  1. AnalyticDB for MySQL クラスターと同じリージョンで OSS バケットおよびディレクトリを作成します。詳細については、「OSS の有効化」、「OSS バケットの作成(コンソール)」、「ディレクトリの作成」をご参照ください。

  2. サンプルデータをアップロードします。

    この例では、データファイル xihe_oss.txt を OSS パス oss://adb-test-1/test_xihe/ にアップロードします。行は改行で区切られ、列はカンマ(,)で区切られます。サンプルデータは以下のとおりです:

    001,Anna,99,London
    002,Bob,67,USA
    003,Cindy,78,Spain
    004,Dan,100,China
  3. OSS 外部テーブルを作成します。

    1. クラスター詳細ページの左側ナビゲーションウィンドウで、ジョブを開発する > Sql開発 をクリックします。

    2. SQLConsole ウィンドウで、ジョブリソースグループおよび Xihe エンジンを選択します。

    3. 以下の文を入力し、SQL の実行 (F8) をクリックして、外部データベース xihe_external_db を作成します。

      CREATE EXTERNAL DATABASE xihe_external_db;
    4. 以下の文を入力し、SQL の実行 (F8) をクリックして、外部テーブル xihe_oss_table を作成します。

      CREATE EXTERNAL TABLE xihe_external_db.xihe_oss_table
      (
       id int ,
       name string ,
       score int,
       city string
      )
      ROW FORMAT DELIMITED FIELDS TERMINATED BY  ','
      STORED AS TEXTFILE
      LOCATION 'oss://adb-test-1/test_xihe/xihe_oss.txt';
  4. OSS 外部テーブルをクエリします。

    以下の文を入力し、SQL の実行 (F8) をクリックして、外部テーブル xihe_oss_table のデータをクエリします。

    SELECT * FROM xihe_external_db.xihe_oss_table;
    説明

    Data Lakehouse Edition クラスターに計算予約リソースが設定されている場合、または 、Xihe MPP SQL オンラインモード(Xihe エンジンおよびインタラクティブリソースグループを選択)を使用して外部テーブルのデータをクエリできます。

ジョブ開発(内部テーブル)

AnalyticDB for MySQL は、3 層構造のデータウェアハウスアーキテクチャを採用しています:

  • ODS レイヤー:運用データストア(ODS)レイヤー。ソースデータに対して抽出・変換・書き出し(ETL)を実行します。実際には、ODS がデータソースからデータをプルします。新規ユーザーが本チュートリアルを簡単に完了できるよう、本チュートリアルではテストデータを ODS レイヤーに読み込みます。

  • DWD レイヤー:データウェアハウス詳細(DWD)レイヤー。ODS レイヤーのデータをクリーニングおよびフィルター処理します。本チュートリアルでは、フィルター処理を例として使用します。

  • ADS レイヤー:アプリケーションデータサービス(ADS)レイヤー。ビジネス分析およびレポート生成に使用されるデータを格納します。

Spark SQL を使用した内部テーブルジョブの開発

  1. ODS レイヤーのデータテーブルを作成します。

    1. クラスター詳細ページの左側ナビゲーションウィンドウで、ジョブを開発する > Sql開発 をクリックします。

    2. SQLConsole ウィンドウで、Spark エンジンおよびジョブリソースグループを選択します。

    3. 以下の文を入力し、SQL の実行 (F8) をクリックして、データベース test_spark_db を作成します。

      CREATE DATABASE test_spark_db;
    4. adb_spark_ods という名前のインデックスなしパーティションテーブルを test_spark_db データベース内に ODS レイヤー用に作成し、データを挿入します。

      CREATE TABLE test_spark_db.adb_spark_ods
        (id int,
         name string,
         age int)
      USING adb
      tblproperties (
      'distributeType' = 'HASH',
      'distributeColumns' = 'id',
      'partitionType' = 'VALUE',
      'partitionColumn' = 'age', 
      'partitionCount' = '200', 
      'indexAll' = 'false')
      INSERT OVERWRITE test_spark_db.adb_spark_ods PARTITION(age) VALUES
      (001,'Anna',18),
      (002,'Bob',22),
      (003,'Cindy',12),
      (004,'Dan',25);
  2. DWD レイヤーのデータテーブルを作成します。

    本チュートリアルでは、ODS レイヤーのテーブルからデータを読み取り、フィルター処理した後、DWD レイヤーのテーブルに書き込みます。

    1. adb_spark_dwd という名前のインデックスなしパーティションテーブルを test_spark_db データベース内に作成します。

      CREATE TABLE test_spark_db.adb_spark_dwd (
        id int,
        name string,
        age int
      )
      USING adb
      TBLPROPERTIES(
        'distributeType'='HASH', 
        'distributeColumns'='id', 
        'partitionType'='value',
        'partitionColumn'='age',
        'partitionCount'='200',
        'indexAll'='false')
    2. (任意)オフラインホットデータをクエリする前に、SQLConsole ウィンドウで Xihe エンジンおよび(インタラクティブ)user_default リソースグループを選択し、以下の文を実行します:

      SET adb_config CSTORE_HOT_TABLE_ALLOW_SINGLE_REPLICA_BUILD=true;
      SET adb_config ELASTIC_ENABLE_HOT_PARTITION_HAS_HDD_REPLICA=true;
      SET adb_config ELASTIC_PRODUCT_ENABLE_MIXED_STORAGE_POLICY=true;
      重要

      オフラインホットデータをクエリする前にこれらのパラメーターを正しく設定しないと、その後の SQL 文が失敗します。

    3. Spark エンジンに切り替え、adb_spark_ods の ODS レイヤーのテーブルから id 列が 002 でないデータを読み取り、DWD レイヤーのテーブルに書き込みます。

      INSERT OVERWRITE test_spark_db.adb_spark_dwd partition(age) 
      SELECT 
        id,
        name,
        age
      FROM test_spark_db.adb_spark_ods WHERE id != 002;
    4. adb_spark_dwd テーブルのデータをクエリします。

      SELECT * FROM test_spark_db.adb_spark_dwd;
      説明

      Spark SQL を使用して SELECT 文を実行すると、結果としてテーブルのデータは表示されません。テーブルのデータを表示するには、以下の任意の手順に従ってください。

    5. 任意:Spark JAR 開発 ページの アプリケーション 一覧で、SQL クエリの横にある 操作 をクリックし、ログ をクリックします。ログでテーブルのデータを確認します。

  3. ADS レイヤーのデータを作成します。

    ADS レイヤーのデータは、DWD レイヤーから精緻化されたフィルター処理を経て派生され、ビジネス分析に直接使用可能な状態です。ADS レイヤーのテーブルは高速なクエリ性能を必要とするため、ADS レイヤーのテーブルを作成する際にインデックスを追加する必要があります。このチュートリアルでは、adb_spark_dwd テーブル(`age` 列の値が 15 より大きい)からデータを読み取り、ADS レイヤーのテーブル adb_spark_ads に書き込みます。

    1. adb_spark_ads という名前のインデックス付きパーティションテーブルを test_spark_db データベース内に作成します。

      CREATE TABLE test_spark_db.adb_spark_ads (
        id int,
        name string,
        age int
      )
      USING adb
      TBLPROPERTIES(
        'distributeType'='HASH', 
        'distributeColumns'='id', 
        'partitionType'='value',
        'partitionColumn'='age',
        'partitionCount'='200',
        'indexAll'='true')
    2. DWD レイヤーのデータテーブル adb_spark_dwd から age が 15 より大きいデータを読み取り、ADS レイヤーのデータテーブル adb_spark_ads に書き込みます。

      INSERT OVERWRITE test_spark_db.adb_spark_ads partition(age) 
      SELECT 
        id,
        name,
        age 
      FROM test_spark_db.adb_spark_dwd WHERE age > 15;
  4. ADS レイヤーのテーブルデータをクエリします。

    AnalyticDB for MySQL Enterprise Edition、Basic Edition、および Data Lakehouse Edition クラスターでは、オフラインデータクエリ(Spark SQL または Xihe BSP SQL を使用)およびオンラインリアルタイムクエリ(Xihe MPP SQL を使用)の両方がサポートされています。リアルタイムの結果を保証するため、本チュートリアルでは Xihe MPP SQL オンラインモードを使用して ADS レイヤーのテーブルデータをクエリします。

    1. SQLConsole ウィンドウで、Xihe エンジンおよび(インタラクティブ)user_default リソースグループを選択します。

    2. 以下の文を実行して、ADS レイヤーのテーブルデータをクエリします。

      SELECT * FROM test_spark_db.adb_spark_ads;

      結果:

      +------+-------+------+
      | id   | name  | age  |
      +------+-------+------+
      |    4 | Dan   |   25 |
      |    1 | Anna  |   18 |
      +------+-------+------+

Xihe BSP SQL を使用したジョブの開発

  1. ODS レイヤーのデータテーブルを作成します。

    1. クラスター詳細ページの左側ナビゲーションウィンドウで、ジョブを開発する > Sql開発 をクリックします。

    2. SQLConsole ウィンドウで、Xihe エンジンおよびジョブリソースグループを選択します。

    3. 以下の文を入力し、SQL の実行 (F8) をクリックします。test_xihe_db という名前のデータベースを作成します。

      CREATE DATABASE test_xihe_db;
    4. 以下の文を入力し、SQL の実行 (F8) をクリックします。test_xihe_db データベース内に、ODS レイヤー用のインデックスなしパーティションテーブル adb_xihe_ods を作成し、データを挿入します。

      CREATE TABLE test_xihe_db.adb_xihe_ods (id int, name string, age int)DISTRIBUTED BY HASH (id)PARTITION BY VALUE (age)LIFECYCLE 4INDEX_ALL='N';
      INSERT INTO test_xihe_db.adb_xihe_ods(id,name,age) VALUES(001,'Anna',18),(002,'Bob',22),(003,'Cindy',12),(004,'Dan',25);
  2. DWD レイヤーのデータテーブルを作成します。

    本チュートリアルでは、ODS レイヤーのテーブルからデータを読み取り、フィルター処理した後、DWD レイヤーのテーブルに書き込みます。

    1. 以下の文を入力し、SQL の実行 (F8) をクリックします。test_xihe_db データベース内に、インデックスなしパーティションテーブル adb_xihe_dwd を作成します。

      CREATE TABLE test_xihe_db.adb_xihe_dwd( id int, name string, age int)DISTRIBUTED BY HASH (id)PARTITION BY VALUE (age)LIFECYCLE 4INDEX_ALL = 'N';
    2. 以下の文を入力し、SQL の実行 (F8) をクリックします。運用データストア(ODS)レイヤーのテーブル adb_xihe_ods から id 列が 002 でないデータを読み取り、DWD レイヤーのテーブル adb_xihe_dwd に書き込みます。

      INSERT INTO test_xihe_db.adb_xihe_dwd SELECT  id, name, age FROM test_xihe_db.adb_xihe_ods where id != 002;
    3. 以下の文を入力し、SQL の実行 (F8) をクリックします。adb_xihe_dwd テーブルのデータをクエリします。

      SELECT * FROM test_xihe_db.adb_xihe_dwd;

      結果:

      +------+-------+------+| id   | name  | age  |+------+-------+------+|    4 | Ban   |   25 ||    1 | Anna  |   18 ||    3 | Cindy |   12 |+------+-------+------+
  3. ADS レイヤーのデータテーブルを作成します。

    ADS レイヤーのテーブルデータは、DWD レイヤーからさらに詳細なフィルター処理を経て書き込まれ、ビジネス分析に直接利用可能です。ADS レイヤーのテーブルは、高速なクエリ応答を実現するためにインデックスを備える必要があります。本チュートリアルでは、DWD レイヤーのテーブル adb_xihe_dwd から age 列の値が 15 より大きいデータを読み取り、ADS レイヤーのテーブル adb_xihe_ads に書き込みます。

    1. 以下の文を入力し、SQL の実行 (F8) をクリックします。test_xihe_db データベース内に、インデックス付きパーティションテーブル AnalyticDB for MySQL adb_xihe_ads を作成します。

      CREATE TABLE test_xihe_db.adb_xihe_ads (id int, name string, age int)DISTRIBUTED BY HASH (id)PARTITION BY VALUE (age)LIFECYCLE 4; 
    2. 以下の文を入力し、SQL の実行 (F8) をクリックします。DWD レイヤーのデータテーブル adb_xihe_dwd から age 列の値が 15 より大きいデータを読み取り、ADS レイヤーのデータテーブル adb_xihe_ads に書き込みます。

      INSERT INTO test_xihe_db.adb_xihe_ads SELECT  id, name, age FROM test_xihe_db.adb_xihe_dwd WHERE age > 15;
  4. ADS レイヤーのデータをクエリします。

    AnalyticDB for MySQL Data Lakehouse Edition クラスターでは、オフラインデータクエリ(Spark SQL または Xihe BSP SQL を使用)およびオンラインリアルタイムクエリ(Xihe MPP SQL を使用)の両方がサポートされています。リアルタイムの結果を保証するため、本チュートリアルでは Xihe MPP SQL オンラインモードを使用して ADS レイヤーのテーブルデータをクエリします。

    1. SQLConsole ウィンドウで、Xihe エンジンおよび(インタラクティブ)user_default リソースグループを選択します。

    2. 以下の文を入力し、SQL の実行 (F8) をクリックします。ADS レイヤーのテーブルデータをクエリします。

      SELECT * FROM test_xihe_db.adb_xihe_ads;

      結果:

      +------+-------+------+| id   | name  | age  |+------+-------+------+|    4 | Ban   |   25 ||    1 | Anna  |   18 |+------+-------+------+

次のステップ

本チュートリアルを完了した後は、「データのインポート」で、以降の手順について詳しくご確認ください。