全部产品
Search
文档中心

Realtime Compute for Apache Flink:Kelola Katalog Hive

更新时间:Jul 06, 2025

Setelah membuat katalog Hive, Anda dapat langsung membaca metadata Hive di konsol pengembangan Realtime Compute for Apache Flink tanpa perlu mendaftarkan tabel Hive secara manual. Hal ini meningkatkan efisiensi pengembangan dan akurasi data. Topik ini menjelaskan cara mengonfigurasi metadata Hive, membuat katalog Hive, serta menggunakan katalog Hive.

Informasi latar belakang

Setelah menyimpan file konfigurasi katalog Hive dan dependensi Hadoop di direktori yang ditentukan di Object Storage Service (OSS), Anda dapat membuat katalog Hive di konsol pengembangan Realtime Compute for Apache Flink. Setelah pembuatan katalog Hive, Anda dapat mengeksekusi pernyataan DML untuk membuat logika bisnis dan mendapatkan metadata tabel Hive di konsol pengembangan Realtime Compute for Apache Flink. Dengan cara ini, Anda tidak perlu mengeksekusi pernyataan DDL untuk mendeklarasikan informasi tabel terkait. Tabel dalam katalog Hive dapat digunakan sebagai tabel sumber atau hasil untuk penyebaran aliran dan batch.

Realtime Compute for Apache Flink memungkinkan Anda menggunakan metastores Hive atau Alibaba Cloud Data Lake Formation (DLF) sebagai pusat manajemen metadata untuk katalog Hive. Topik ini menjelaskan operasi berikut yang dapat Anda lakukan untuk mengelola katalog Hive:

Prasyarat

Sebelum menggunakan metastores Hive atau Alibaba Cloud DLF sebagai pusat manajemen metadata untuk katalog Hive, selesaikan konfigurasi berikut:

  • Gunakan metastores Hive sebagai pusat manajemen metadata untuk katalog Hive

    Item

    Deskripsi

    Layanan metastore Hive telah diaktifkan.

    Perintah terkait layanan metastore Hive:

    • Perintah untuk mengaktifkan layanan metastore Hive: hive --service metastore

    • Perintah untuk memeriksa apakah layanan metastore Hive telah diaktifkan: netstat -ln | grep 9083

      9083 adalah nomor port default layanan metastore Hive. Jika Anda menentukan nomor port yang berbeda di file hive-site.xml, ganti 9083 dalam perintah sebelumnya dengan nomor port yang ditentukan di file tersebut.

    Daftar putih dikonfigurasi untuk layanan metastore Hive dan blok CIDR dari Realtime Compute for Apache Flink ditambahkan ke daftar putih.

    Untuk informasi lebih lanjut tentang cara mendapatkan blok CIDR dari Realtime Compute for Apache Flink, lihat Konfigurasikan Daftar Putih. Untuk informasi lebih lanjut tentang cara mengonfigurasi daftar putih untuk layanan metastore Hive, lihat Tambahkan Aturan Grup Keamanan.

  • Gunakan Alibaba Cloud DLF sebagai pusat manajemen metadata untuk katalog Hive

    Alibaba Cloud DLF telah diaktifkan.

Batasan

  • Metastores Hive yang dikelola sendiri didukung.

  • Hive 1.X, 2.1.X, dan 2.2.X tidak didukung di Apache Flink 1.16 atau versi lebih baru. Oleh karena itu, hanya Realtime Compute for Apache Flink yang menggunakan Ververica Runtime (VVR) 6.X yang mendukung Hive 1.X, 2.1.X, dan 2.2.X.

  • Jika DLF digunakan sebagai metastore untuk katalog Hive, Anda hanya dapat membuat tabel non-Hive di katalog tersebut di Realtime Compute for Apache Flink yang menggunakan VVR 8.0.6 atau versi lebih baru.

  • Anda dapat menggunakan katalog Hive untuk menulis data ke OSS-HDFS hanya di Realtime Compute for Apache Flink yang menggunakan VVR 8.0.6 atau versi lebih baru.

Konfigurasikan metadata Hive

  1. Buat koneksi antara kluster Hadoop dan virtual private cloud (VPC) tempat Realtime Compute for Apache Flink berada.

    Anda dapat menggunakan Alibaba Cloud DNS PrivateZone untuk menghubungkan kluster Hadoop ke VPC tempat Realtime Compute for Apache Flink berada. Untuk informasi lebih lanjut, lihat Resolver. Setelah koneksi dibuat, Realtime Compute for Apache Flink dapat mengakses kluster Hadoop menggunakan file konfigurasi kluster Hadoop.

  2. Metastores Hive atau Alibaba Cloud DLF dapat digunakan sebagai pusat manajemen metadata untuk katalog Hive. Bagian berikut menjelaskan konfigurasi terkait.

    Hive MetaStore

    Periksa apakah pengaturan parameter hive.metastore.uris di file konfigurasi Hive hive-site.xml memenuhi persyaratan berikut:

    <property>
        <name>hive.metastore.uris</name>
        <value>thrift://xx.yy.zz.mm:9083</value>
        <description>Thrift URI untuk metastore jarak jauh. Digunakan oleh klien metastore untuk terhubung ke metastore jarak jauh.</description>
     </property>

    xx.yy.zz.mm dalam file konfigurasi menunjukkan alamat IP internal atau publik Hive.

    Catatan

    Jika Anda mengatur parameter hive.metastore.uris ke nama host Hive, Anda harus mengonfigurasi layanan DNS Alibaba Cloud untuk mem-parsing nilai parameter tersebut. Jika tidak, nilai parameter hive.metastore.uris gagal diparsing dan pesan kesalahan UnknownHostException akan dikembalikan ketika Ververica Platform (VVP) mengakses Hive secara remote. Untuk informasi lebih lanjut tentang cara mengonfigurasi layanan DNS Alibaba Cloud, lihat Tambahkan Catatan DNS ke Zona Pribadi.

    Alibaba Cloud DLF

    Tambahkan konfigurasi berikut ke file konfigurasi Hive hive-site.xml untuk memastikan bahwa katalog Hive dapat mengakses DLF.

    Catatan

    Jika file hive-site.xml berisi item konfigurasi dlf.catalog.akMode, Anda harus menghapus item konfigurasi ini. Jika tidak, katalog Hive tidak dapat mengakses DLF.

    <property>
      <name>hive.imetastoreclient.factory.class</name>
      <value>com.aliyun.datalake.metastore.hive2.DlfMetaStoreClientFactory</value>
    </property>
    <property>
      <name>dlf.catalog.uid</name>
      <value>${YOUR_DLF_CATALOG_UID}</value>
    </property>
    <property>
      <name>dlf.catalog.endpoint</name>
      <value>${YOUR_DLF_ENDPOINT}</value>
    </property>
    <property>
      <name>dlf.catalog.region</name>
      <value>${YOUR_DLF_CATALOG_REGION}</value>
    </property>
    <property>
      <name>dlf.catalog.accessKeyId</name>
      <value>${YOUR_ACCESS_KEY_ID}</value>
    </property>
    <property>
      <name>dlf.catalog.accessKeySecret</name>
      <value>${YOUR_ACCESS_KEY_SECRET}</value>
    </property>

    Parameter

    Deskripsi

    Catatan

    dlf.catalog.uid

    ID akun Alibaba Cloud Anda yang digunakan untuk mengakses DLF.

    Untuk mendapatkan ID akun Alibaba Cloud Anda, buka halaman Pengaturan Keamanan.

    dlf.catalog.endpoint

    Titik akhir layanan DLF.

    Untuk informasi lebih lanjut, lihat Wilayah dan Titik Akhir yang Didukung.

    Catatan

    dlf.catalog.region

    ID wilayah tempat layanan DLF diaktifkan.

    Untuk informasi lebih lanjut, lihat Wilayah dan Titik Akhir yang Didukung.

    Catatan

    Pastikan wilayah yang Anda pilih sesuai dengan titik akhir yang Anda pilih untuk dlf.endpoint.

    dlf.catalog.accessKeyI

    ID AccessKey akun Alibaba Cloud Anda.

    Untuk informasi lebih lanjut tentang cara mendapatkan pasangan AccessKey, lihat Dapatkan Pasangan AccessKey.

    dlf.catalog.accessKeySecret

    Rahasia AccessKey akun Alibaba Cloud Anda.

    Untuk informasi lebih lanjut tentang cara mendapatkan rahasia AccessKey, lihat Dapatkan Pasangan AccessKey.

  3. Katalog Hive memungkinkan Anda menyimpan tabel di OSS dan OSS-HDFS. Tabel berikut menjelaskan konfigurasi tersebut.

    OSS

    Tambahkan konfigurasi berikut ke file konfigurasi Hive hive-site.xml untuk memastikan bahwa katalog Hive dapat mengakses OSS.

    <property>
      <name>fs.oss.impl.disable.cache</name>
      <value>true</value>
    </property>
    <property>
      <name>fs.oss.impl</name>
      <value>org.apache.hadoop.fs.aliyun.oss.AliyunOSSFileSystem</value>
    </property>
    <property>
      <name>hive.metastore.warehouse.dir</name>
      <value>${YOUR_OSS_WAREHOUSE_DIR}</value>
    </property>
    <property>
      <name>fs.oss.endpoint</name>
      <value>${YOUR_OSS_ENDPOINT}</value>
    </property>
    <property>
      <name>fs.oss.accessKeyId</name>
      <value>${YOUR_ACCESS_KEY_ID}</value>
    </property>
    <property>
      <name>fs.oss.accessKeySecret</name>
      <value>${YOUR_ACCESS_KEY_SECRET}</value>
    </property>
    <property>
      <name>fs.defaultFS</name>
      <value>oss://${YOUR_OSS_BUCKET_DOMIN}</value>
    </property>

    Tabel berikut menjelaskan parameter-parameter tersebut.

    Parameter

    Deskripsi

    Catatan

    hive.metastore.warehouse.dir

    Direktori tempat data tabel disimpan.

    Tidak ada.

    fs.oss.endpoint

    Titik akhir OSS.

    Untuk informasi lebih lanjut, lihat Wilayah dan Titik Akhir.

    fs.oss.accessKeyId

    ID AccessKey akun Alibaba Cloud Anda.

    Untuk informasi lebih lanjut tentang cara mendapatkan ID AccessKey, lihat Dapatkan Pasangan AccessKey.

    fs.oss.accessKeySecret

    Rahasia AccessKey akun Alibaba Cloud Anda.

    Untuk informasi lebih lanjut tentang cara mendapatkan rahasia AccessKey, lihat Dapatkan Pasangan AccessKey.

    fs.defaultFS

    Sistem file tempat data tabel disimpan secara default.

    Pastikan nilai parameter ini adalah titik akhir layanan HDFS yang sesuai dengan bucket tujuan, seperti oss://oss-hdfs-bucket.cn-hangzhou.oss-dls.aliyuncs.com/.

    OSS-HDFS

    1. Tambahkan konfigurasi berikut ke file konfigurasi Hive hive-site.xml untuk memastikan bahwa katalog Hive dapat mengakses OSS-HDFS.

      <property>
        <name>fs.jindo.impl</name>
        <value>com.aliyun.jindodata.jindo.JindoFileSystem</value>
      </property>
      <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>${YOUR_OSS_WAREHOUSE_DIR}</value>
      </property>
      <property>
        <name>fs.oss.endpoint</name>
        <value>${YOUR_OSS_ENDPOINT}</value>
      </property>
      <property>
        <name>fs.oss.accessKeyId</name>
        <value>${YOUR_ACCESS_KEY_ID}</value>
      </property>
      <property>
        <name>fs.oss.accessKeySecret</name>
        <value>${YOUR_ACCESS_KEY_SECRET}</value>
      </property>
      <property>
        <name>fs.defaultFS</name>
        <value>oss://${YOUR_OSS_HDFS_BUCKET_DOMIN}</value>
      </property>

      Parameter

      Deskripsi

      Catatan

      hive.metastore.warehouse.dir

      Direktori tempat data tabel disimpan.

      Tidak ada.

      fs.oss.endpoint

      Titik akhir OSS.

      Untuk informasi lebih lanjut, lihat Wilayah dan Titik Akhir.

      fs.oss.accessKeyId

      ID AccessKey akun Alibaba Cloud Anda.

      Untuk informasi lebih lanjut tentang cara mendapatkan ID AccessKey, lihat Dapatkan Pasangan AccessKey.

      fs.oss.accessKeySecret

      Rahasia AccessKey akun Alibaba Cloud Anda.

      Untuk informasi lebih lanjut tentang cara mendapatkan rahasia AccessKey, lihat Dapatkan Pasangan AccessKey.

      fs.defaultFS

      Sistem file tempat data tabel disimpan secara default.

      Pastikan nilai parameter ini adalah titik akhir layanan HDFS yang sesuai dengan bucket tujuan, seperti oss://oss-hdfs-bucket.cn-hangzhou.oss-dls.aliyuncs.com/.

    2. (Opsional) Jika Anda ingin membaca data dari tabel Hive yang disimpan di OSS-HDFS dan tabel Hive tersebut dalam format Parquet, tambahkan item konfigurasi berikut ke Realtime Compute for Apache Flink.

      fs.oss.jindo.accessKeyId: ${YOUR_ACCESS_KEY_ID}
      fs.oss.jindo.accessKeySecret: ${YOUR_ACCESS_KEY_SECRET}
      fs.oss.jindo.endpoint: ${YOUR_JINODO_ENDPOINT}
      fs.oss.jindo.buckets: ${YOUR_JINDO_BUCKETS}

      Untuk informasi lebih lanjut tentang parameter-parameter tersebut, lihat Tulis Data ke OSS-HDFS.

    Catatan

    Jika data Anda disimpan di Realtime Compute for Apache Flink, Anda tidak perlu melakukan operasi setelah langkah ini. Anda dapat langsung menuju ke langkah Buat Katalog Hive.

  4. Di konsol OSS, buat dua direktori di bucket OSS dan unggah file konfigurasi Hive dan dependensi Hadoop ke direktori-direktori tersebut.

    1. Masuk ke Konsol OSS.

    2. Di panel navigasi sebelah kiri, klik Buckets.

    3. Di halaman Bucket, klik nama bucket yang diinginkan.

    4. Buat folder bernama ${hms} di jalur oss://${bucket}/artifacts/namespaces/${ns}/.

      Untuk informasi lebih lanjut tentang cara membuat direktori di konsol OSS, lihat Buat Direktori. Tabel berikut menjelaskan variabel-variabel dalam jalur tempat Anda ingin membuat direktori.

      Folder

      Deskripsi

      ${bucket}

      Nama bucket yang digunakan oleh ruang kerja Realtime Compute for Apache Flink Anda.

      ${ns}

      Nama ruang kerja Realtime Compute for Apache Flink tempat Anda ingin membuat katalog Hive.

      ${hms}

      Nama folder yang akan dibuat. Kami merekomendasikan Anda menggunakan nama yang sama untuk folder ini dan katalog Hive yang akan Anda buat di langkah-langkah selanjutnya.

      Catatan

      Setelah Anda membuat ruang kerja Realtime Compute for Apache Flink, Realtime Compute for Apache Flink secara otomatis membuat direktori /artifacts/namespaces/${ns}/ di bucket yang ditentukan untuk menyimpan data, seperti paket JAR. Jika Anda tidak menemukan direktori tersebut di konsol OSS, Anda harus mengunggah file secara manual untuk membuat direktori pada halaman Artifacts di konsol pengembangan Realtime Compute for Apache Flink.

    5. Buat direktori bernama hive-conf-dir dan direktori bernama hadoop-conf-dir di jalur oss://${bucket}/artifacts/namespaces/${ns}/${hms}. Untuk informasi lebih lanjut tentang cara membuat direktori di konsol OSS, lihat Buat Direktori.

      Contoh-contoh berikut menjelaskan file-file yang disimpan di direktori hive-conf-dir dan hadoop-conf-dir:

      • oss://${bucket}/artifacts/namespaces/${ns}/${hms}/hive-conf-dir/ digunakan untuk menyimpan file konfigurasi Hive bernama hive-site.xml.

      • oss://${bucket}/artifacts/namespaces/${ns}/${hms}/hadoop-conf-dir/ digunakan untuk menyimpan file konfigurasi Hadoop, seperti core-site.xml, hdfs-site.xml, yarn-site.xml, dan mapred-site.xml.

      Setelah direktori dibuat, Anda dapat memilih Files > Proyek di panel navigasi sebelah kiri di konsol OSS untuk melihat direktori dan file baru, lalu salin URL OSS.

    6. Unggah file konfigurasi Hive hive-site.xml ke direktori hive-conf-dir. Untuk informasi lebih lanjut tentang cara mengunggah file, lihat Unggah Objek.

    7. Unggah file konfigurasi berikut ke direktori hadoop-conf-dir. Untuk informasi lebih lanjut tentang cara mengunggah file, lihat Unggah Objek.

      • hive-site.xml

      • core-site.xml

      • hdfs-site.xml

      • mapred-site.xml

      • File lain yang diperlukan, seperti paket kompres yang digunakan oleh penerapan Hive

Buat Katalog Hive

Setelah mengonfigurasi metadata Hive, Anda dapat membuat katalog Hive di UI atau dengan mengeksekusi pernyataan SQL. Kami merekomendasikan Anda membuat katalog Hive di UI.

Buat Katalog Hive di UI

  1. Pergi ke halaman Katalog.

    1. Masuk ke Konsol Realtime Compute for Apache Flink. Temukan ruang kerja yang ingin Anda kelola dan klik Console di kolom Actions.

    2. Klik Catalogs.

  2. Di halaman Daftar Katalog, klik Create Catalog. Di kotak dialog Buat Katalog, pilih Hive di tab Katalog Bawaan di langkah Pilih Jenis Katalog dan klik Next.

  3. Konfigurasikan parameter di langkah Konfigurasikan Katalog.

    Penting

    Setelah Anda membuat katalog Hive, konfigurasi parameter tidak dapat dimodifikasi. Jika Anda ingin memodifikasi konfigurasi parameter, Anda harus menghapus katalog Hive yang telah Anda buat dan membuat katalog Hive lagi.

    Parameter

    Deskripsi

    nama katalog

    Nama katalog Hive.

    hive-version

    Versi layanan metastore Hive.

    Realtime Compute for Apache Flink hanya mendukung Hive 2.0.0 hingga 2.3.9 dan Hive 3.1.0 hingga 3.1.3. Saat membuat katalog Hive, konfigurasikan parameter hive-version berdasarkan versi Hive:

    • Untuk Hive 2.0.X dan 2.1.X, atur parameter ini ke 2.2.0.

    • Untuk Hive 2.2.X, atur parameter ini ke 2.2.0. Untuk Hive 2.3.X, atur parameter ini ke 2.3.6. Untuk Hive 3.1.X, atur parameter ini ke 3.1.2.

    default-database

    Nama database default.

    hive-conf-dir

    • OSS: direktori tempat file konfigurasi Hive disimpan. Anda harus membuat direktori ini secara manual. Untuk informasi lebih lanjut, lihat Konfigurasikan metadata Hive.

    • Penyimpanan terkelola sepenuhnya dari Realtime Compute for Apache Flink: Unggah file di konsol sesuai petunjuk.

    hadoop-conf-dir

    • OSS: direktori tempat dependensi Hadoop disimpan. Anda harus membuat direktori ini secara manual. Untuk informasi lebih lanjut, lihat Konfigurasikan metadata Hive.

    • Penyimpanan terkelola sepenuhnya dari Realtime Compute for Apache Flink: Unggah file di konsol sesuai petunjuk.

    hive-kerberos

    Aktifkan autentikasi Kerberos, dan asosiasikan kluster Hive yang terdaftar dengan Kerberos dan principal Kerberos. Untuk informasi tentang cara mendaftarkan kluster Hive dengan Kerberos, lihat Daftarkan kluster Hive dengan Kerberos.

  4. Klik Konfirmasi.

  5. Di panel Catalogs di sisi kiri halaman Daftar Katalog, lihat katalog yang Anda buat.

Buat Katalog Hive dengan mengeksekusi pernyataan SQL

  1. Eksekusi pernyataan SQL berikut di halaman Skrip:

    CREATE CATALOG ${HMS Name} WITH (
        'type' = 'hive',
        'default-database' = 'default',
        'hive-version' = '<hive-version>',
        'hive-conf-dir' = '<hive-conf-dir>',
        'hadoop-conf-dir' = '<hadoop-conf-dir>'
    );

    Parameter

    Deskripsi

    ${HMS Name}

    Nama katalog Hive.

    type

    Jenis konektor. Atur nilainya ke hive.

    default-database

    Nama database default.

    hive-version

    Versi layanan metastore Hive.

    Realtime Compute for Apache Flink hanya mendukung Hive 2.0.0 hingga 2.3.9 dan Hive 3.1.0 hingga 3.1.3. Saat membuat katalog Hive, konfigurasikan parameter hive-version berdasarkan versi Hive:

    • Untuk Hive 2.0.X dan 2.1.X, atur parameter ini ke 2.2.0.

    • Untuk Hive 2.2.X, atur parameter ini ke 2.2.0. Untuk Hive 2.3.X, atur parameter ini ke 2.3.6. Untuk Hive 3.1.X, atur parameter ini ke 3.1.2.

    hive-conf-dir

    Direktori tempat file konfigurasi Hive disimpan. Anda harus membuat direktori ini secara manual. Untuk informasi lebih lanjut, lihat Konfigurasikan metadata Hive.

    hadoop-conf-dir

    Direktori tempat dependensi Hadoop disimpan. Anda harus membuat direktori ini secara manual. Untuk informasi lebih lanjut, lihat Konfigurasikan metadata Hive.

  2. Pilih kode yang digunakan untuk membuat katalog dan klik Run yang muncul di sisi kiri kode.

    Setelah katalog Hive dibuat, Anda dapat merujuk tabel-tabel katalog Hive sebagai tabel hasil dan tabel dimensi di draf. Anda tidak perlu mendeklarasikan pernyataan DDL untuk tabel-tabel tersebut. Nama tabel dalam katalog Hive berada dalam format ${hive-catalog-name}.${hive-db-name}.${hive-table-name}.

    Jika Anda ingin menghapus katalog Hive, ikuti petunjuk yang dijelaskan di Hapus Katalog Hive.

Gunakan Katalog Hive

Buat Tabel Hive

Buat Tabel Hive di UI

  1. Pergi ke halaman Katalog.

    1. Masuk ke Konsol Realtime Compute for Apache Flink. Temukan ruang kerja yang ingin Anda kelola dan klik Console di kolom Actions.

    2. Klik Catalogs.

  2. Di halaman Daftar Katalog, temukan katalog yang diinginkan dan klik View di kolom Actions.

  3. Di halaman yang muncul, temukan database yang diinginkan dan klik View di kolom Actions.

  4. Di halaman yang muncul, klik Create Table.

  5. Di tab Built-in kotak dialog Buat Tabel, pilih tipe tabel dari daftar drop-down Jenis Koneksi, pilih tipe konektor, lalu klik Next.

  6. Masukkan pernyataan pembuatan tabel dan konfigurasikan parameter terkait. Contoh kode:

    CREATE TABLE `${catalog_name}`.`${db_name}`.`${table_name}` (
      id INT,
      name STRING
    ) WITH (
      'connector' = 'hive'
    );
  7. Di kotak dialog yang muncul, klik OK.

Buat Tabel Hive dengan mengeksekusi pernyataan SQL

  1. Eksekusi pernyataan SQL berikut di halaman Skrip:

    CREATE TABLE `${catalog_name}`.`${db_name}`.`${table_name}` (
      id INT,
      name STRING
    ) WITH (
      'connector' = 'hive'
    );
  2. Pilih pernyataan pembuatan tabel dan klik Run yang muncul di sisi kiri kode.

image

Contoh kode:

-- Buat tabel bernama flink_hive_test di database flinkhive di bawah katalog flinkexporthive. 
CREATE TABLE `flinkexporthive`.`flinkhive`.`flink_hive_test` (
  id INT,
  name STRING
) WITH (
  'connector' = 'hive'
);

Modifikasi Tabel Hive

Eksekusi pernyataan SQL berikut di halaman Skrip:

-- Tambahkan kolom ke tabel Hive. 
ALTER TABLE `${catalog_name}`.`${db_name}`.`${table_name}` 
ADD column type-column;

-- Hapus kolom dari tabel Hive. 
ALTER TABLE `${catalog_name
`.`${db_name}`.`${table_name}` 
DROP column;

Contoh kode:

-- Tambahkan bidang warna ke tabel Hive. 
ALTER TABLE `flinkexporthive`.`flinkhive`.`flink_hive_test` 
ADD color STRING;

-- Hapus bidang warna dari tabel Hive. 
ALTER TABLE `flinkexporthive`.`flinkhive`.`flink_hive_test` 
DROP color;

Baca data dari tabel Hive

INSERT INTO ${other_sink_table}
SELECT ...
FROM `${catalog_name}`.`${db_name}`.`${table_name}`;

Masukkan data hasil ke tabel Hive

INSERT INTO `${catalog_name}`.`${db_name}`.`${table_name}`
SELECT ... 
FROM ${other_source_table};

Hapus tabel Hive

Hapus tabel Hive di UI

  1. Pergi ke halaman Katalog.

    1. Masuk ke Konsol Realtime Compute for Apache Flink. Temukan ruang kerja yang ingin Anda kelola dan klik Console di kolom Actions.

    2. Klik Catalogs.

  2. Di panel Catalogs di sisi kiri halaman Daftar Katalog, klik tabel yang ingin Anda hapus di database terkait di bawah katalog terkait.

  3. Di halaman detail tabel, klik Delete di kolom Tindakan.

  4. Di pesan yang muncul, klik OK.

Hapus tabel Hive dengan mengeksekusi pernyataan SQL

Eksekusi pernyataan SQL berikut di halaman Skrip:

-- Hapus tabel Hive. 
DROP TABLE `${catalog_name}`.`${db_name}`.`${table_name}`;

Contoh kode:

-- Hapus tabel Hive. 
DROP TABLE `flinkexporthive`.`flinkhive`.`flink_hive_test`;

Lihat Katalog Hive

  1. Pergi ke halaman Katalog.

    1. Masuk ke Konsol Realtime Compute for Apache Flink.

    2. Temukan ruang kerja yang ingin Anda kelola dan klik Console di kolom Actions.

    3. Klik Catalogs.

  2. Di halaman Catalog List, temukan katalog yang diinginkan dan lihat kolom Name dan Type katalog tersebut.

    Catatan

    Jika Anda ingin melihat database dan tabel dalam katalog, klik View di kolom Actions.

Hapus Katalog Hive

Peringatan

Operasi penghapusan tidak memengaruhi penyebaran yang sedang berjalan. Namun, draf yang belum diterbitkan atau penyebaran yang perlu dihentikan dan kemudian dilanjutkan akan terpengaruh. Kami merekomendasikan Anda untuk tidak melakukan operasi penghapusan kecuali diperlukan.

Hapus Katalog Hive di UI

  1. Pergi ke halaman Katalog.

    1. Masuk ke Konsol Realtime Compute for Apache Flink. Temukan ruang kerja yang ingin Anda kelola dan klik Console di kolom Actions.

    2. Klik Catalogs.

  2. Di halaman Catalog List, temukan katalog yang diinginkan dan klik Delete di kolom Actions.

  3. Di pesan yang muncul, klik Delete.

  4. Lihat panel Catalogs untuk memeriksa apakah katalog telah dihapus.

Hapus Katalog Hive dengan mengeksekusi pernyataan SQL

  1. Eksekusi pernyataan SQL berikut di halaman Skrip:

    DROP CATALOG ${HMS Name};

    Dalam pernyataan sebelumnya, HMS Name menunjukkan nama katalog Hive yang ingin Anda hapus. Nama tersebut ditampilkan di konsol pengembangan Realtime Compute for Apache Flink.

  2. Klik kanan pernyataan yang digunakan untuk menghapus katalog dan pilih Run dari menu pintasan.

  3. Lihat panel Catalogs di sisi kiri halaman Daftar Katalog untuk memeriksa apakah katalog telah dihapus.