全部产品
Search
文档中心

AnalyticDB:Mulai dengan Edisi Perusahaan, Edisi Dasar, dan Edisi Data Lakehouse

更新时间:Feb 10, 2026

AnalyticDB for MySQL adalah gudang data real-time berskala petabyte yang dihosting di cloud, dirancang untuk pemrosesan analitik online (OLAP) berkonkurensi tinggi. Topik ini memandu Anda membuat dan menggunakan kluster AnalyticDB for MySQL, mulai dari penyiapan hingga pengembangan tugas.

Penting

Data Lakehouse Edition tidak lagi tersedia untuk pembelian baru. Jika Anda telah membeli kluster Data Lakehouse Edition, Anda masih dapat mengikuti topik ini untuk menggunakannya.

Persiapan

  • Anda memiliki Akun Alibaba Cloud.

    Jika belum memilikinya, kunjungi atau website Alibaba Cloud untuk mendaftar. Jika organisasi Anda memerlukan beberapa pengguna untuk mengakses resource secara kolaboratif, buat Pengguna Manajemen Akses Sumber Daya (RAM) di bawah Akun Alibaba Cloud Anda (akun root) dan berikan izin kepada mereka. Hal ini memungkinkan setiap RAM user hanya mengakses resource yang dibutuhkan.

  • Jika Anda menggunakan AnalyticDB for MySQL Enterprise Edition, Basic Edition, atau Data Lakehouse Edition untuk pertama kalinya, baca Pengenalan Produk untuk memahami konsep produk, manfaat, dan skenario umum penggunaan AnalyticDB for MySQL.

Biaya

Pembuatan kluster akan menimbulkan biaya komputasi dan penyimpanan. Untuk detailnya, lihat Harga untuk Enterprise Edition dan Basic Edition serta Harga untuk Data Lakehouse Edition.

Prosedur

Langkah 1: Buat kluster

  1. Login ke Konsol AnalyticDB for MySQL. Di pojok kanan atas halaman, klik Create Cluster.

  2. Pada halaman pembelian, konfigurasikan parameter utama untuk memilih jenis kluster Anda dengan cepat. Biarkan parameter lain pada nilai default-nya. Untuk detail parameter lebih lanjut, lihat Buat kluster.

    Item Konfigurasi

    Deskripsi

    Product Type

    • Pay-as-you-go: Bayar per jam setelah penggunaan. Paling cocok untuk kebutuhan jangka pendek. Hentikan kluster setelah selesai untuk menghemat biaya.

    • Subscription: Bayar di muka saat membuat kluster. Paling cocok untuk kebutuhan jangka panjang. Menawarkan harga lebih rendah dibanding pay-as-you-go, dengan diskon lebih besar untuk durasi langganan yang lebih lama.

    Edition

    • Enterprise Edition: Edisi multi-replika. Menggunakan penyimpanan multi-replika dan komputasi terdistribusi. Menyediakan ketersediaan tinggi (HA).

    • Basic Edition: Edisi single-replika. Menggunakan penyimpanan single-replika. Tidak menyediakan HA.

    Untuk informasi lebih lanjut tentang Enterprise Edition dan Basic Edition, lihat Edisi.

    Deployment Mode

    • Enterprise Edition: Mendukung single-zone deployment atau multi-zone deployment.

      Penting

      Multi-zone deployment hanya didukung di China (Hangzhou), China (Shanghai), China (Beijing), China (Zhangjiakou), China (Shenzhen), China (Hong Kong), dan Singapura.

    • Basic Edition: Tetap menggunakan single-zone deployment.

    Region

    Lokasi geografis tempat kluster berjalan. Anda tidak dapat mengubah wilayah setelah pembelian. Pilih wilayah yang paling dekat dengan bisnis Anda untuk meningkatkan kecepatan akses.

    Primary Zone

    Pilih zona primer untuk kluster Anda.

    Secondary Zone

    Pilih zona sekunder untuk kluster Anda. Jika zona primer gagal, layanan secara otomatis beralih ke zona sekunder. Selama proses peralihan, kluster mungkin tidak tersedia untuk operasi baca atau tulis, atau mengalami timeout.

    Penting

    Atur parameter ini hanya jika Deployment Mode diatur ke multi-zone deployment.

    Virtual private cloud (VPC)

    vSwitch in primary zone

    vSwitch in secondary zone

    • Jika Anda telah membuat VPC yang sesuai dengan paket jaringan Anda, pilih VPC tersebut. Misalnya, jika Anda telah membuat Instance ECS dalam VPC yang sesuai dengan rencana Anda, pilih VPC tersebut.

    • Jika Anda belum membuat VPC yang sesuai dengan rencana Anda, gunakan VPC dan vSwitch default.

    • Jika VPC dan vSwitch default tidak memenuhi kebutuhan Anda, buat sendiri VPC dan vSwitch.

    Penting
    • Jika Anda menggunakan layanan Alibaba Cloud lain seperti Elastic Compute Service (ECS) atau ApsaraDB RDS, pastikan kluster AnalyticDB for MySQL Anda dan layanan tersebut berada dalam VPC yang sama. Jika tidak, mereka tidak dapat saling terhubung melalui jaringan internal dan tidak akan berkinerja optimal.

    • Atur vSwitch in secondary zone hanya jika Deployment Mode diatur ke multi-zone deployment.

    Reserved resource node specifications

    Spesifikasi node resource reservasi default adalah 8 ACU. Ini mendukung:

    • Komputasi data. Meningkatkan resource reservasi akan mempercepat kueri.

    • Setiap kelompok resource reservasi mendukung hingga 8 TB penyimpanan data hot. Anda membayar penyimpanan data hot berdasarkan penggunaan aktual.

    Catatan

    Jika Anda sebelumnya membeli Data Warehouse Edition atau Data Lakehouse Edition, lihat Pemetaan antara spesifikasi Enterprise Edition dan Data Lakehouse Edition atau Data Warehouse Edition saat memilih spesifikasi Enterprise Edition.

    Number of reserved resource nodes

    • Kluster Enterprise Edition: Default 3 node. Ukuran langkahnya 3.

      Catatan

      DiEnterprise Edition, Anda dapat mengatur jumlah node resource reservasi menjadi 0. Saat Anda melakukannya, harga pembelian tidak lagi ditampilkan di pojok kanan bawah halaman. Perhatikan hal berikut:

      • Jika jumlah node resource reservasi adalah 0, Anda hanya dapat menggunakan tabel eksternal. Untuk menggunakan tabel internal di AnalyticDB for MySQL, atur jumlahnya lebih dari 0.

      • Jika Anda mengatur jumlah node resource reservasi menjadi 0 saat membuat kluster, Anda dapat menambahkan resource reservasi nanti dengan melakukan scaling out. Untuk detailnya, lihat Scaling untuk Enterprise Edition dan Basic Edition.

    • Kluster Basic Edition: Default 1 node. Ukuran langkahnya 1.

  3. Selesaikan langkah pembelian yang tersisa sesuai petunjuk di konsol.

    Setelah pembayaran berhasil, tunggu sekitar 10–15 menit. Di halaman Clusters, status kluster berubah menjadi Running saat pembuatan selesai.

Langkah 2: Buat akun database

Penting

AnalyticDB for MySQL mendukung akun database berikut:

  • Privileged account: Dapat mengelola semua akun standar dan database. Setara dengan akun root di MySQL.

  • Standard account: Memerlukan pemberian izin manual. Untuk perbedaan antara akun istimewa dan akun standar serta cara membuatnya, lihat Akun istimewa dan akun standar.

Topik ini menggunakan akun istimewa untuk menjelaskan langkah-langkah pembuatannya.

  1. Di halaman Clusters, klik ID kluster target Anda untuk membuka halaman detail kluster.

  2. Di panel navigasi sebelah kiri, klik Accounts.

  3. Di tab Database Accounts, klik Create Account.

  4. Di panel Create Account, atur parameter-parameter berikut.

    Parameter

    Deskripsi

    Database Account

    Nama untuk akun istimewa. Masukkan nama yang valid sesuai petunjuk.

    Account Type

    Pilih Privileged Account.

    New Password

    Password untuk akun istimewa. Masukkan password yang valid sesuai petunjuk.

    Confirm Password

    Masukkan ulang password akun istimewa.

    Description

    Catatan opsional tentang akun untuk membantu pengelolaan di masa depan.

  5. Klik OK untuk membuat akun.

    Catatan

    Setelah membuat akun standar, klik Actions di samping akun tersebut, lalu klik Permissions untuk mengatur izinnya.

Langkah 3: Buat kelompok sumber daya

AnalyticDB for MySQL mengisolasi resource komputasi di seluruh kelompok sumber daya. Hal ini melindungi beban kerja inti dari komputasi kompleks dan lonjakan tak terduga.

Untuk mempermudah pengembangan dan pengujian tugas selanjutnya, bagian ini menggunakan Job resource group sebagai contoh untuk menjelaskan langkah-langkah pembuatannya. Anda juga dapat membuat kelompok sumber daya untuk engine yang sesuai berdasarkan jenis pengembangan tugas Anda. Jenis kelompok sumber daya yang didukung tercantum di bawah ini. Untuk informasi lebih lanjut tentang kelompok sumber daya dan engine komputasi, lihat Buat dan kelola kelompok sumber daya dan Fitur.

Jenis

Tugas yang dieksekusi

Skenario umum

Interactive resource group

Anda harus menentukan engine saat pembuatan. Tugas yang didukung:

  • Engine XIHE mendukung XIHE MPP SQL.

  • Engine Spark: mendukung Spark SQL.

Skema analitik online atau interaktif dengan QPS tinggi dan waktu respons (RT) rendah.

Job resource group

Tidak perlu menentukan engine saat pembuatan. Mendukung:

  • Xihe BSP SQL

  • Spark SQL dan aplikasi Spark

Skema offline throughput tinggi.

AI resource group

Eksekusi model MLSQL dan komputasi yang dikelola Ray.

Skema komputasi heterogen.

  1. Di panel navigasi sebelah kiri halaman detail kluster, klik Cluster Management > Resource Management.

  2. Klik tab Resource Groups. Di pojok kiri atas daftar kelompok sumber daya, klik Create Resource Group.

  3. Masukkan Resource Group Name. Untuk Job Type, pilih Job.

    Catatan

    Dalam tutorial ini, atur Minimum Computing Resources menjadi 0 ACU dan Maximum Computing Resources menjadi 8 ACU. Nilai-nilai ini hanya untuk pengujian quick-start.

  4. Klik OK.

Langkah 4: (Opsional) Jalankan skrip uji bawaan di editor SQL

Catatan

Jika Anda hanya ingin mencoba atau menguji kluster dengan cepat, ikuti bagian ini untuk memuat dan menganalisis dataset bawaan.

  1. Di panel navigasi sebelah kiri halaman detail kluster, klik Job Development > SQL Development.

  2. Di tab Databases and Tables, klik Load Built-in Dataset.

  3. Di tab Scripts, klik ganda skrip tersebut dan jalankan pernyataan SQL di SQLConsole untuk menguji kluster.

    Catatan

    Untuk detail tabel dalam dataset bawaan, lihat Detail tabel dataset bawaan.

Langkah 5: Membuat Pekerjaan

Jenis

Prasyarat

Appearance

Pengembangan tugas Spark SQL

Anda telah membuat Job resource group atau Interactive resource group dengan engine Spark.

Pengembangan tugas Xihe BSP SQL

Anda telah membuat Job resource group.

Tabel internal

Pengembangan tugas Spark SQL

Anda telah membuat Job resource group atau Interactive resource group dengan engine Spark.

  • Resource reservasi untuk kluster Enterprise Edition tidak boleh 0 ACU.

  • Kluster Data Lakehouse Edition harus memiliki minimal 16 ACU resource komputasi reservasi dan 24 ACU resource penyimpanan reservasi.

Pengembangan tugas Xihe BSP SQL

Anda telah membuat Job resource group.

Data Lakehouse Edition kluster harus memiliki minimal 16 ACU resource komputasi reservasi dan 24 ACU resource penyimpanan reservasi.

Pengembangan tugas (tabel eksternal)

Kembangkan tugas tabel eksternal menggunakan Spark SQL

Ikuti langkah-langkah berikut:

外表

  1. Buat Bucket OSS dan direktori di wilayah yang sama dengan kluster AnalyticDB for MySQL Anda. Untuk detailnya, lihat Aktifkan OSS, Buat Bucket OSS di konsol, dan Buat direktori.

  2. Buat tabel eksternal OSS Hudi.

    1. Di panel navigasi sebelah kiri halaman detail kluster, klik Job Development > SQL Development.

    2. Di jendela SQLConsole, pilih engine Spark, Job resource group, atau Interactive resource group dengan engine Spark.

    3. Masukkan pernyataan berikut dan klik Run SQL (F8) untuk membuat database eksternal bernama spark_external_db untuk menyimpan data Hudi. Contoh ini menggunakan path oss://testBucketName/adb-test-1/.

      CREATE DATABASE spark_external_db
      LOCATION 'oss://testBucketName/adb-test-1/';
    4. Buat tabel eksternal bernama spark_hudi_table di database spark_external_db untuk menyimpan data Hudi. Contoh ini menggunakan path oss://testBucketName/adb-test-1/spark_external_db/.

      CREATE TABLE spark_external_db.spark_hudi_table
      (id int,
       name string,
       score int,
       city string
      )
      using hudi
      partitioned by (id)
      tblproperties
      (primaryKey = 'id', 
      preCombineField = 'city')
      LOCATION 'oss://testBucketName/adb-test-1/spark_external_db/';
    5. Masukkan data.

      INSERT OVERWRITE spark_external_db.spark_hudi_table PARTITION(id) VALUES
      (001,'Anna',99,'London'),
      (002,'Bob',67,'USA'),
      (003,'Cindy',78,'Spain'),
      (004,'Dan',100,'China');
  3. Kueri data tabel eksternal OSS Hudi.

    1. Masukkan pernyataan berikut dan klik Run SQL (F8) untuk mengkueri data di tabel eksternal spark_hudi_table.

      SELECT * FROM spark_external_db.spark_hudi_table;
      Catatan

      Jika kluster Data Lakehouse Edition Anda memiliki resource komputasi reservasi, atau kluster Enterprise Edition Anda memiliki resource reservasi, Anda dapat menggunakan mode online Xihe MPP SQL (pilih engine Xihe dan Interactive resource group) untuk mengkueri data tabel eksternal.

    2. Di halaman Job Development > Spark JAR Development, di daftar Applications, klik Actions di samping kueri SQL Anda, lalu klik Logs. Lihat data tabel di log.

Kembangkan tugas tabel eksternal menggunakan Xihe BSP SQL

Ikuti langkah-langkah berikut:

xihe外表

  1. Buat Bucket OSS dan direktori di wilayah yang sama dengan kluster AnalyticDB for MySQL Anda. Untuk detailnya, lihat Aktifkan OSS, Buat Bucket OSS di konsol, dan Buat direktori.

  2. Unggah data sampel.

    Contoh ini mengunggah file data xihe_oss.txt ke path OSS oss://adb-test-1/test_xihe/. Baris dipisahkan oleh line feed. Kolom dipisahkan oleh koma (,). Data sampel:

    001,Anna,99,London
    002,Bob,67,USA
    003,Cindy,78,Spain
    004,Dan,100,China
  3. Buat tabel eksternal OSS.

    1. Di panel navigasi sebelah kiri halaman detail kluster, klik Job Development > SQL Development.

    2. Di jendela SQLConsole, pilih Job resource group dan engine Xihe.

    3. Masukkan pernyataan berikut dan klik Run SQL (F8) untuk membuat database eksternal bernama xihe_external_db.

      CREATE EXTERNAL DATABASE xihe_external_db;
    4. Masukkan pernyataan berikut dan klik Run SQL (F8) untuk membuat tabel eksternal bernama xihe_oss_table.

      CREATE EXTERNAL TABLE xihe_external_db.xihe_oss_table
      (
       id int ,
       name string ,
       score int,
       city string
      )
      ROW FORMAT DELIMITED FIELDS TERMINATED BY  ','
      STORED AS TEXTFILE
      LOCATION 'oss://adb-test-1/test_xihe/xihe_oss.txt';
  4. Kueri tabel eksternal OSS.

    Masukkan pernyataan berikut dan klik Run SQL (F8) untuk mengkueri data di tabel eksternal xihe_oss_table.

    SELECT * FROM xihe_external_db.xihe_oss_table;
    Catatan

    Jika kluster Data Lakehouse Edition Anda memiliki resource komputasi reservasi, Anda dapat menggunakan mode online Xihe MPP SQL (pilih engine Xihe dan Interactive resource group) untuk mengkueri data tabel eksternal.

Pengembangan tugas (tabel internal)

AnalyticDB for MySQL menggunakan arsitektur gudang data tiga lapis:

  • Lapisan ODS: Lapisan Operational Data Store (ODS). Melakukan ekstrak, transformasi, dan muat (ETL) pada data sumber. Dalam praktiknya, ODS menarik data dari sumber data. Untuk membantu pengguna baru menyelesaikan tutorial ini dengan mudah, tutorial ini memuat data uji ke lapisan ODS.

  • Lapisan DWD: Lapisan detail gudang data (DWD). Membersihkan dan memfilter data lapisan ODS. Tutorial ini menggunakan filtering sebagai contoh.

  • Lapisan ADS: Lapisan layanan data aplikasi (ADS). Menyimpan data yang digunakan untuk analitik bisnis dan pembuatan laporan.

Kembangkan tugas tabel internal menggunakan Spark SQL

  1. Buat tabel data lapisan ODS.

    1. Di panel navigasi sebelah kiri halaman detail kluster, klik Job Development > SQL Development.

    2. Di jendela SQLConsole, pilih engine Spark dan Job resource group.

    3. Masukkan pernyataan berikut dan klik Run SQL (F8) untuk membuat database bernama test_spark_db.

      CREATE DATABASE test_spark_db;
    4. Buat tabel partisi tanpa indeks bernama adb_spark_ods di database test_spark_db untuk lapisan ODS, lalu masukkan data.

      CREATE TABLE test_spark_db.adb_spark_ods
        (id int,
         name string,
         age int)
      USING adb
      tblproperties (
      'distributeType' = 'HASH',
      'distributeColumns' = 'id',
      'partitionType' = 'VALUE',
      'partitionColumn' = 'age', 
      'partitionCount' = '200', 
      'indexAll' = 'false')
      INSERT OVERWRITE test_spark_db.adb_spark_ods PARTITION(age) VALUES
      (001,'Anna',18),
      (002,'Bob',22),
      (003,'Cindy',12),
      (004,'Dan',25);
  2. Buat tabel data lapisan DWD.

    Tutorial ini membaca dan memfilter data dari tabel lapisan ODS, lalu menulisnya ke tabel lapisan DWD.

    1. Buat tabel partisi tanpa indeks bernama adb_spark_dwd di database test_spark_db.

      CREATE TABLE test_spark_db.adb_spark_dwd (
        id int,
        name string,
        age int
      )
      USING adb
      TBLPROPERTIES(
        'distributeType'='HASH', 
        'distributeColumns'='id', 
        'partitionType'='value',
        'partitionColumn'='age',
        'partitionCount'='200',
        'indexAll'='false')
    2. (Opsional) Sebelum mengkueri data hot offline, di jendela SQLConsole, pilih engine Xihe dan kelompok sumber daya (Interactive) user_default, lalu jalankan pernyataan-pernyataan berikut:

      SET adb_config CSTORE_HOT_TABLE_ALLOW_SINGLE_REPLICA_BUILD=true;
      SET adb_config ELASTIC_ENABLE_HOT_PARTITION_HAS_HDD_REPLICA=true;
      SET adb_config ELASTIC_PRODUCT_ENABLE_MIXED_STORAGE_POLICY=true;
      Penting

      Jika Anda tidak mengatur parameter ini dengan benar sebelum mengkueri data hot offline, pernyataan SQL selanjutnya akan gagal.

    3. Beralih ke engine Spark, baca data dari tabel lapisan ODS adb_spark_ods di mana kolom id tidak sama dengan 002, dan tulis data tersebut ke tabel lapisan DWD.

      INSERT OVERWRITE test_spark_db.adb_spark_dwd partition(age) 
      SELECT 
        id,
        name,
        age
      FROM test_spark_db.adb_spark_ods WHERE id != 002;
    4. Kueri data di tabel adb_spark_dwd.

      SELECT * FROM test_spark_db.adb_spark_dwd;
      Catatan

      Saat Anda menjalankan pernyataan SELECT menggunakan Spark SQL, hasilnya tidak menampilkan data tabel. Untuk melihat data tabel, ikuti langkah opsional di bawah ini.

    5. Opsional: Di halaman Spark JAR development, di daftar Applications, klik Actions di samping kueri SQL Anda, lalu klik Logs. Lihat data tabel di log.

  3. Buat data lapisan ADS.

    Data di lapisan ADS berasal dari lapisan DWD melalui filtering yang lebih rinci dan siap digunakan langsung untuk analisis bisnis. Karena tabel lapisan ADS memerlukan performa kueri cepat, Anda harus menambahkan indeks saat membuat tabel lapisan ADS. Tutorial ini membaca data dari tabel lapisan DWD adb_spark_dwd di mana nilai kolom `age` lebih besar dari 15, dan menulis data tersebut ke tabel lapisan ADS adb_spark_ads.

    1. Buat tabel partisi berindeks bernama adb_spark_ads di database test_spark_db.

      CREATE TABLE test_spark_db.adb_spark_ads (
        id int,
        name string,
        age int
      )
      USING adb
      TBLPROPERTIES(
        'distributeType'='HASH', 
        'distributeColumns'='id', 
        'partitionType'='value',
        'partitionColumn'='age',
        'partitionCount'='200',
        'indexAll'='true')
    2. Baca data dengan usia lebih dari 15 dari tabel data lapisan DWD adb_spark_dwd dan tulis ke tabel data lapisan ADS adb_spark_ads.

      INSERT OVERWRITE test_spark_db.adb_spark_ads partition(age) 
      SELECT 
        id,
        name,
        age 
      FROM test_spark_db.adb_spark_dwd WHERE age > 15;
  4. Kueri data tabel lapisan ADS.

    Kluster AnalyticDB for MySQL Enterprise Edition, Basic Edition, dan Data Lakehouse Edition mendukung kueri data offline (menggunakan Spark SQL atau Xihe BSP SQL) dan kueri real-time online (menggunakan Xihe MPP SQL). Untuk memastikan hasil real-time, tutorial ini menggunakan mode online Xihe MPP SQL untuk mengkueri data tabel lapisan ADS.

    1. Di jendela SQLConsole, pilih engine Xihe dan kelompok sumber daya (Interactive) user_default.

    2. Jalankan pernyataan berikut untuk mengkueri data tabel lapisan ADS.

      SELECT * FROM test_spark_db.adb_spark_ads;

      Hasil:

      +------+-------+------+
      | id   | name  | age  |
      +------+-------+------+
      |    4 | Dan   |   25 |
      |    1 | Anna  |   18 |
      +------+-------+------+

Kembangkan tugas menggunakan Xihe BSP SQL

  1. Buat tabel data lapisan ODS.

    1. Di panel navigasi sebelah kiri halaman detail kluster, klik Job Development > SQL Development.

    2. Di jendela SQLConsole, pilih engine Xihe dan Job resource group.

    3. Masukkan pernyataan berikut dan klik Run SQL (F8). Buat database bernama test_xihe_db.

      CREATE DATABASE test_xihe_db;
    4. Masukkan pernyataan berikut dan klik Run SQL (F8). Di database test_xihe_db, buat tabel partisi tanpa indeks bernama adb_xihe_ods untuk lapisan ODS, lalu masukkan data.

      CREATE TABLE test_xihe_db.adb_xihe_ods (id int, name string, age int)DISTRIBUTED BY HASH (id)PARTITION BY VALUE (age)LIFECYCLE 4INDEX_ALL='N';
      INSERT INTO test_xihe_db.adb_xihe_ods(id,name,age) VALUES(001,'Anna',18),(002,'Bob',22),(003,'Cindy',12),(004,'Dan',25);
  2. Buat tabel data lapisan DWD.

    Tutorial ini membaca dan memfilter data dari tabel lapisan ODS, lalu menulisnya ke tabel lapisan DWD.

    1. Masukkan pernyataan berikut dan klik Run SQL (F8). Di database test_xihe_db, buat tabel partisi tanpa indeks bernama adb_xihe_dwd.

      CREATE TABLE test_xihe_db.adb_xihe_dwd( id int, name string, age int)DISTRIBUTED BY HASH (id)PARTITION BY VALUE (age)LIFECYCLE 4INDEX_ALL = 'N';
    2. Masukkan pernyataan berikut dan klik Execute SQL (F8). Ini membaca data dari tabel lapisan Operational Data Store (ODS) adb_xihe_ods di mana kolom id tidak sama dengan 002 dan menulisnya ke tabel lapisan DWD adb_xihe_dwd.

      INSERT INTO test_xihe_db.adb_xihe_dwd SELECT  id, name, age FROM test_xihe_db.adb_xihe_ods where id != 002;
    3. Masukkan pernyataan berikut dan klik Run SQL (F8). Kueri data di tabel adb_xihe_dwd.

      SELECT * FROM test_xihe_db.adb_xihe_dwd;

      Hasil:

      +------+-------+------+| id   | name  | age  |+------+-------+------+|    4 | Ban   |   25 ||    1 | Anna  |   18 ||    3 | Cindy |   12 |+------+-------+------+
  3. Buat tabel data lapisan ADS.

    Data tabel di lapisan ADS ditulis dari lapisan DWD setelah filtering yang lebih detail dan dapat langsung digunakan untuk analisis bisnis. Tabel di lapisan ADS harus memiliki indeks untuk memenuhi persyaratan respons kueri cepat. Dalam tutorial ini, Anda akan membaca data dari tabel lapisan DWD adb_xihe_dwd di mana kolom age lebih besar dari 15 dan menulisnya ke tabel lapisan ADS adb_xihe_ads.

    1. Masukkan pernyataan berikut dan klik Run SQL (F8). Di database test_xihe_db, buat tabel partisi berindeks bernama AnalyticDB for MySQL adb_xihe_ads.

      CREATE TABLE test_xihe_db.adb_xihe_ads (id int, name string, age int)DISTRIBUTED BY HASH (id)PARTITION BY VALUE (age)LIFECYCLE 4; 
    2. Anda dapat memasukkan pernyataan berikut dan klik Run SQL (F8). Baca data di mana kolom age lebih besar dari 15 dari tabel data lapisan DWD adb_xihe_dwd dan tulis ke tabel data lapisan ADS adb_xihe_ads.

      INSERT INTO test_xihe_db.adb_xihe_ads SELECT  id, name, age FROM test_xihe_db.adb_xihe_dwd WHERE age > 15;
  4. Kueri data lapisan ADS.

    Kluster AnalyticDB for MySQL Data Lakehouse Edition mendukung kueri data offline (menggunakan Spark SQL atau Xihe BSP SQL) dan kueri real-time online (menggunakan Xihe MPP SQL). Untuk memastikan hasil real-time, tutorial ini menggunakan mode online Xihe MPP SQL untuk mengkueri data tabel lapisan ADS.

    1. Di jendela SQLConsole, pilih engine Xihe dan kelompok sumber daya (Interactive) user_default.

    2. Masukkan pernyataan berikut dan klik Run SQL (F8). Kueri data tabel lapisan ADS.

      SELECT * FROM test_xihe_db.adb_xihe_ads;

      Hasil:

      +------+-------+------+| id   | name  | age  |+------+-------+------+|    4 | Ban   |   25 ||    1 | Anna  |   18 |+------+-------+------+

Langkah selanjutnya

Setelah menyelesaikan tutorial ini, lihat Impor data untuk informasi lebih lanjut tentang langkah-langkah berikutnya.