Setelah membuat katalog Hive, Anda dapat langsung membaca metadata Hive di konsol pengembangan Realtime Compute for Apache Flink tanpa perlu mendaftarkan tabel Hive secara manual. Hal ini meningkatkan efisiensi pengembangan dan akurasi data. Topik ini menjelaskan cara mengonfigurasi metadata Hive, membuat katalog Hive, serta menggunakan katalog Hive.
Informasi latar belakang
Setelah menyimpan file konfigurasi katalog Hive dan dependensi Hadoop di direktori yang ditentukan di Object Storage Service (OSS), Anda dapat membuat katalog Hive di konsol pengembangan Realtime Compute for Apache Flink. Setelah pembuatan katalog Hive, Anda dapat mengeksekusi pernyataan DML untuk membuat logika bisnis dan mendapatkan metadata tabel Hive di konsol pengembangan Realtime Compute for Apache Flink. Dengan cara ini, Anda tidak perlu mengeksekusi pernyataan DDL untuk mendeklarasikan informasi tabel terkait. Tabel dalam katalog Hive dapat digunakan sebagai tabel sumber atau hasil untuk penyebaran aliran dan batch.
Realtime Compute for Apache Flink memungkinkan Anda menggunakan metastores Hive atau Alibaba Cloud Data Lake Formation (DLF) sebagai pusat manajemen metadata untuk katalog Hive. Topik ini menjelaskan operasi berikut yang dapat Anda lakukan untuk mengelola katalog Hive:
Prasyarat
Sebelum menggunakan metastores Hive atau Alibaba Cloud DLF sebagai pusat manajemen metadata untuk katalog Hive, selesaikan konfigurasi berikut:
Gunakan metastores Hive sebagai pusat manajemen metadata untuk katalog Hive
Item
Deskripsi
Layanan metastore Hive telah diaktifkan.
Perintah terkait layanan metastore Hive:
Perintah untuk mengaktifkan layanan metastore Hive:
hive --service metastorePerintah untuk memeriksa apakah layanan metastore Hive telah diaktifkan:
netstat -ln | grep 90839083 adalah nomor port default layanan metastore Hive. Jika Anda menentukan nomor port yang berbeda di file hive-site.xml, ganti 9083 dalam perintah sebelumnya dengan nomor port yang ditentukan di file tersebut.
Daftar putih dikonfigurasi untuk layanan metastore Hive dan blok CIDR dari Realtime Compute for Apache Flink ditambahkan ke daftar putih.
Untuk informasi lebih lanjut tentang cara mendapatkan blok CIDR dari Realtime Compute for Apache Flink, lihat Konfigurasikan Daftar Putih. Untuk informasi lebih lanjut tentang cara mengonfigurasi daftar putih untuk layanan metastore Hive, lihat Tambahkan Aturan Grup Keamanan.
Gunakan Alibaba Cloud DLF sebagai pusat manajemen metadata untuk katalog Hive
Alibaba Cloud DLF telah diaktifkan.
Batasan
Metastores Hive yang dikelola sendiri didukung.
Hive 1.X, 2.1.X, dan 2.2.X tidak didukung di Apache Flink 1.16 atau versi lebih baru. Oleh karena itu, hanya Realtime Compute for Apache Flink yang menggunakan Ververica Runtime (VVR) 6.X yang mendukung Hive 1.X, 2.1.X, dan 2.2.X.
Jika DLF digunakan sebagai metastore untuk katalog Hive, Anda hanya dapat membuat tabel non-Hive di katalog tersebut di Realtime Compute for Apache Flink yang menggunakan VVR 8.0.6 atau versi lebih baru.
Anda dapat menggunakan katalog Hive untuk menulis data ke OSS-HDFS hanya di Realtime Compute for Apache Flink yang menggunakan VVR 8.0.6 atau versi lebih baru.
Konfigurasikan metadata Hive
Buat koneksi antara kluster Hadoop dan virtual private cloud (VPC) tempat Realtime Compute for Apache Flink berada.
Anda dapat menggunakan Alibaba Cloud DNS PrivateZone untuk menghubungkan kluster Hadoop ke VPC tempat Realtime Compute for Apache Flink berada. Untuk informasi lebih lanjut, lihat Resolver. Setelah koneksi dibuat, Realtime Compute for Apache Flink dapat mengakses kluster Hadoop menggunakan file konfigurasi kluster Hadoop.
Metastores Hive atau Alibaba Cloud DLF dapat digunakan sebagai pusat manajemen metadata untuk katalog Hive. Bagian berikut menjelaskan konfigurasi terkait.
Hive MetaStore
Periksa apakah pengaturan parameter hive.metastore.uris di file konfigurasi Hive hive-site.xml memenuhi persyaratan berikut:
<property> <name>hive.metastore.uris</name> <value>thrift://xx.yy.zz.mm:9083</value> <description>Thrift URI untuk metastore jarak jauh. Digunakan oleh klien metastore untuk terhubung ke metastore jarak jauh.</description> </property>xx.yy.zz.mmdalam file konfigurasi menunjukkan alamat IP internal atau publik Hive.CatatanJika Anda mengatur parameter hive.metastore.uris ke nama host Hive, Anda harus mengonfigurasi layanan DNS Alibaba Cloud untuk mem-parsing nilai parameter tersebut. Jika tidak, nilai parameter hive.metastore.uris gagal diparsing dan pesan kesalahan
UnknownHostExceptionakan dikembalikan ketika Ververica Platform (VVP) mengakses Hive secara remote. Untuk informasi lebih lanjut tentang cara mengonfigurasi layanan DNS Alibaba Cloud, lihat Tambahkan Catatan DNS ke Zona Pribadi.Alibaba Cloud DLF
Tambahkan konfigurasi berikut ke file konfigurasi Hive hive-site.xml untuk memastikan bahwa katalog Hive dapat mengakses DLF.
CatatanJika file hive-site.xml berisi item konfigurasi dlf.catalog.akMode, Anda harus menghapus item konfigurasi ini. Jika tidak, katalog Hive tidak dapat mengakses DLF.
<property> <name>hive.imetastoreclient.factory.class</name> <value>com.aliyun.datalake.metastore.hive2.DlfMetaStoreClientFactory</value> </property> <property> <name>dlf.catalog.uid</name> <value>${YOUR_DLF_CATALOG_UID}</value> </property> <property> <name>dlf.catalog.endpoint</name> <value>${YOUR_DLF_ENDPOINT}</value> </property> <property> <name>dlf.catalog.region</name> <value>${YOUR_DLF_CATALOG_REGION}</value> </property> <property> <name>dlf.catalog.accessKeyId</name> <value>${YOUR_ACCESS_KEY_ID}</value> </property> <property> <name>dlf.catalog.accessKeySecret</name> <value>${YOUR_ACCESS_KEY_SECRET}</value> </property>Parameter
Deskripsi
Catatan
dlf.catalog.uid
ID akun Alibaba Cloud Anda yang digunakan untuk mengakses DLF.
Untuk mendapatkan ID akun Alibaba Cloud Anda, buka halaman Pengaturan Keamanan.
dlf.catalog.endpoint
Titik akhir layanan DLF.
Untuk informasi lebih lanjut, lihat Wilayah dan Titik Akhir yang Didukung.
CatatanKami merekomendasikan Anda mengatur dlf.endpoint ke titik akhir VPC DLF. Sebagai contoh, jika Anda memilih wilayah China (Hangzhou), atur parameter dlf.endpoint ke dlf-vpc.cn-hangzhou.aliyuncs.com.
Jika Anda ingin mengakses DLF lintas VPC, ikuti petunjuk yang dijelaskan di Bagaimana cara Realtime Compute for Apache Flink mengakses layanan lintas VPC?
dlf.catalog.region
ID wilayah tempat layanan DLF diaktifkan.
Untuk informasi lebih lanjut, lihat Wilayah dan Titik Akhir yang Didukung.
CatatanPastikan wilayah yang Anda pilih sesuai dengan titik akhir yang Anda pilih untuk dlf.endpoint.
dlf.catalog.accessKeyI
ID AccessKey akun Alibaba Cloud Anda.
Untuk informasi lebih lanjut tentang cara mendapatkan pasangan AccessKey, lihat Dapatkan Pasangan AccessKey.
dlf.catalog.accessKeySecret
Rahasia AccessKey akun Alibaba Cloud Anda.
Untuk informasi lebih lanjut tentang cara mendapatkan rahasia AccessKey, lihat Dapatkan Pasangan AccessKey.
Katalog Hive memungkinkan Anda menyimpan tabel di OSS dan OSS-HDFS. Tabel berikut menjelaskan konfigurasi tersebut.
OSS
Tambahkan konfigurasi berikut ke file konfigurasi Hive hive-site.xml untuk memastikan bahwa katalog Hive dapat mengakses OSS.
<property> <name>fs.oss.impl.disable.cache</name> <value>true</value> </property> <property> <name>fs.oss.impl</name> <value>org.apache.hadoop.fs.aliyun.oss.AliyunOSSFileSystem</value> </property> <property> <name>hive.metastore.warehouse.dir</name> <value>${YOUR_OSS_WAREHOUSE_DIR}</value> </property> <property> <name>fs.oss.endpoint</name> <value>${YOUR_OSS_ENDPOINT}</value> </property> <property> <name>fs.oss.accessKeyId</name> <value>${YOUR_ACCESS_KEY_ID}</value> </property> <property> <name>fs.oss.accessKeySecret</name> <value>${YOUR_ACCESS_KEY_SECRET}</value> </property> <property> <name>fs.defaultFS</name> <value>oss://${YOUR_OSS_BUCKET_DOMIN}</value> </property>Tabel berikut menjelaskan parameter-parameter tersebut.
Parameter
Deskripsi
Catatan
hive.metastore.warehouse.dir
Direktori tempat data tabel disimpan.
Tidak ada.
fs.oss.endpoint
Titik akhir OSS.
Untuk informasi lebih lanjut, lihat Wilayah dan Titik Akhir.
fs.oss.accessKeyId
ID AccessKey akun Alibaba Cloud Anda.
Untuk informasi lebih lanjut tentang cara mendapatkan ID AccessKey, lihat Dapatkan Pasangan AccessKey.
fs.oss.accessKeySecret
Rahasia AccessKey akun Alibaba Cloud Anda.
Untuk informasi lebih lanjut tentang cara mendapatkan rahasia AccessKey, lihat Dapatkan Pasangan AccessKey.
fs.defaultFS
Sistem file tempat data tabel disimpan secara default.
Pastikan nilai parameter ini adalah titik akhir layanan HDFS yang sesuai dengan bucket tujuan, seperti
oss://oss-hdfs-bucket.cn-hangzhou.oss-dls.aliyuncs.com/.OSS-HDFS
Tambahkan konfigurasi berikut ke file konfigurasi Hive hive-site.xml untuk memastikan bahwa katalog Hive dapat mengakses OSS-HDFS.
<property> <name>fs.jindo.impl</name> <value>com.aliyun.jindodata.jindo.JindoFileSystem</value> </property> <property> <name>hive.metastore.warehouse.dir</name> <value>${YOUR_OSS_WAREHOUSE_DIR}</value> </property> <property> <name>fs.oss.endpoint</name> <value>${YOUR_OSS_ENDPOINT}</value> </property> <property> <name>fs.oss.accessKeyId</name> <value>${YOUR_ACCESS_KEY_ID}</value> </property> <property> <name>fs.oss.accessKeySecret</name> <value>${YOUR_ACCESS_KEY_SECRET}</value> </property> <property> <name>fs.defaultFS</name> <value>oss://${YOUR_OSS_HDFS_BUCKET_DOMIN}</value> </property>Parameter
Deskripsi
Catatan
hive.metastore.warehouse.dir
Direktori tempat data tabel disimpan.
Tidak ada.
fs.oss.endpoint
Titik akhir OSS.
Untuk informasi lebih lanjut, lihat Wilayah dan Titik Akhir.
fs.oss.accessKeyId
ID AccessKey akun Alibaba Cloud Anda.
Untuk informasi lebih lanjut tentang cara mendapatkan ID AccessKey, lihat Dapatkan Pasangan AccessKey.
fs.oss.accessKeySecret
Rahasia AccessKey akun Alibaba Cloud Anda.
Untuk informasi lebih lanjut tentang cara mendapatkan rahasia AccessKey, lihat Dapatkan Pasangan AccessKey.
fs.defaultFS
Sistem file tempat data tabel disimpan secara default.
Pastikan nilai parameter ini adalah titik akhir layanan HDFS yang sesuai dengan bucket tujuan, seperti
oss://oss-hdfs-bucket.cn-hangzhou.oss-dls.aliyuncs.com/.(Opsional) Jika Anda ingin membaca data dari tabel Hive yang disimpan di OSS-HDFS dan tabel Hive tersebut dalam format Parquet, tambahkan item konfigurasi berikut ke Realtime Compute for Apache Flink.
fs.oss.jindo.accessKeyId: ${YOUR_ACCESS_KEY_ID} fs.oss.jindo.accessKeySecret: ${YOUR_ACCESS_KEY_SECRET} fs.oss.jindo.endpoint: ${YOUR_JINODO_ENDPOINT} fs.oss.jindo.buckets: ${YOUR_JINDO_BUCKETS}Untuk informasi lebih lanjut tentang parameter-parameter tersebut, lihat Tulis Data ke OSS-HDFS.
CatatanJika data Anda disimpan di Realtime Compute for Apache Flink, Anda tidak perlu melakukan operasi setelah langkah ini. Anda dapat langsung menuju ke langkah Buat Katalog Hive.
Di konsol OSS, buat dua direktori di bucket OSS dan unggah file konfigurasi Hive dan dependensi Hadoop ke direktori-direktori tersebut.
Masuk ke Konsol OSS.
Di panel navigasi sebelah kiri, klik Buckets.
Di halaman Bucket, klik nama bucket yang diinginkan.
Buat folder bernama ${hms} di jalur oss://${bucket}/artifacts/namespaces/${ns}/.
Untuk informasi lebih lanjut tentang cara membuat direktori di konsol OSS, lihat Buat Direktori. Tabel berikut menjelaskan variabel-variabel dalam jalur tempat Anda ingin membuat direktori.
Folder
Deskripsi
${bucket}
Nama bucket yang digunakan oleh ruang kerja Realtime Compute for Apache Flink Anda.
${ns}
Nama ruang kerja Realtime Compute for Apache Flink tempat Anda ingin membuat katalog Hive.
${hms}
Nama folder yang akan dibuat. Kami merekomendasikan Anda menggunakan nama yang sama untuk folder ini dan katalog Hive yang akan Anda buat di langkah-langkah selanjutnya.
CatatanSetelah Anda membuat ruang kerja Realtime Compute for Apache Flink, Realtime Compute for Apache Flink secara otomatis membuat direktori /artifacts/namespaces/${ns}/ di bucket yang ditentukan untuk menyimpan data, seperti paket JAR. Jika Anda tidak menemukan direktori tersebut di konsol OSS, Anda harus mengunggah file secara manual untuk membuat direktori pada halaman Artifacts di konsol pengembangan Realtime Compute for Apache Flink.
Buat direktori bernama hive-conf-dir dan direktori bernama hadoop-conf-dir di jalur oss://${bucket}/artifacts/namespaces/${ns}/${hms}. Untuk informasi lebih lanjut tentang cara membuat direktori di konsol OSS, lihat Buat Direktori.
Contoh-contoh berikut menjelaskan file-file yang disimpan di direktori hive-conf-dir dan hadoop-conf-dir:
oss://${bucket}/artifacts/namespaces/${ns}/${hms}/hive-conf-dir/ digunakan untuk menyimpan file konfigurasi Hive bernama hive-site.xml.
oss://${bucket}/artifacts/namespaces/${ns}/${hms}/hadoop-conf-dir/ digunakan untuk menyimpan file konfigurasi Hadoop, seperti core-site.xml, hdfs-site.xml, yarn-site.xml, dan mapred-site.xml.
Setelah direktori dibuat, Anda dapat memilih Files > Proyek di panel navigasi sebelah kiri di konsol OSS untuk melihat direktori dan file baru, lalu salin URL OSS.
Unggah file konfigurasi Hive hive-site.xml ke direktori hive-conf-dir. Untuk informasi lebih lanjut tentang cara mengunggah file, lihat Unggah Objek.
Unggah file konfigurasi berikut ke direktori hadoop-conf-dir. Untuk informasi lebih lanjut tentang cara mengunggah file, lihat Unggah Objek.
hive-site.xml
core-site.xml
hdfs-site.xml
mapred-site.xml
File lain yang diperlukan, seperti paket kompres yang digunakan oleh penerapan Hive
Buat Katalog Hive
Setelah mengonfigurasi metadata Hive, Anda dapat membuat katalog Hive di UI atau dengan mengeksekusi pernyataan SQL. Kami merekomendasikan Anda membuat katalog Hive di UI.
Buat Katalog Hive di UI
Pergi ke halaman Katalog.
Masuk ke Konsol Realtime Compute for Apache Flink. Temukan ruang kerja yang ingin Anda kelola dan klik Console di kolom Actions.
Klik Catalogs.
Di halaman Daftar Katalog, klik Create Catalog. Di kotak dialog Buat Katalog, pilih Hive di tab Katalog Bawaan di langkah Pilih Jenis Katalog dan klik Next.
Konfigurasikan parameter di langkah Konfigurasikan Katalog.
PentingSetelah Anda membuat katalog Hive, konfigurasi parameter tidak dapat dimodifikasi. Jika Anda ingin memodifikasi konfigurasi parameter, Anda harus menghapus katalog Hive yang telah Anda buat dan membuat katalog Hive lagi.
Parameter
Deskripsi
nama katalog
Nama katalog Hive.
hive-version
Versi layanan metastore Hive.
Realtime Compute for Apache Flink hanya mendukung Hive 2.0.0 hingga 2.3.9 dan Hive 3.1.0 hingga 3.1.3. Saat membuat katalog Hive, konfigurasikan parameter hive-version berdasarkan versi Hive:
Untuk Hive 2.0.X dan 2.1.X, atur parameter ini ke 2.2.0.
Untuk Hive 2.2.X, atur parameter ini ke 2.2.0. Untuk Hive 2.3.X, atur parameter ini ke 2.3.6. Untuk Hive 3.1.X, atur parameter ini ke 3.1.2.
default-database
Nama database default.
hive-conf-dir
OSS: direktori tempat file konfigurasi Hive disimpan. Anda harus membuat direktori ini secara manual. Untuk informasi lebih lanjut, lihat Konfigurasikan metadata Hive.
Penyimpanan terkelola sepenuhnya dari Realtime Compute for Apache Flink: Unggah file di konsol sesuai petunjuk.
hadoop-conf-dir
OSS: direktori tempat dependensi Hadoop disimpan. Anda harus membuat direktori ini secara manual. Untuk informasi lebih lanjut, lihat Konfigurasikan metadata Hive.
Penyimpanan terkelola sepenuhnya dari Realtime Compute for Apache Flink: Unggah file di konsol sesuai petunjuk.
hive-kerberos
Aktifkan autentikasi Kerberos, dan asosiasikan kluster Hive yang terdaftar dengan Kerberos dan principal Kerberos. Untuk informasi tentang cara mendaftarkan kluster Hive dengan Kerberos, lihat Daftarkan kluster Hive dengan Kerberos.
Klik Konfirmasi.
Di panel Catalogs di sisi kiri halaman Daftar Katalog, lihat katalog yang Anda buat.
Buat Katalog Hive dengan mengeksekusi pernyataan SQL
Eksekusi pernyataan SQL berikut di halaman Skrip:
CREATE CATALOG ${HMS Name} WITH ( 'type' = 'hive', 'default-database' = 'default', 'hive-version' = '<hive-version>', 'hive-conf-dir' = '<hive-conf-dir>', 'hadoop-conf-dir' = '<hadoop-conf-dir>' );Parameter
Deskripsi
${HMS Name}
Nama katalog Hive.
type
Jenis konektor. Atur nilainya ke hive.
default-database
Nama database default.
hive-version
Versi layanan metastore Hive.
Realtime Compute for Apache Flink hanya mendukung Hive 2.0.0 hingga 2.3.9 dan Hive 3.1.0 hingga 3.1.3. Saat membuat katalog Hive, konfigurasikan parameter hive-version berdasarkan versi Hive:
Untuk Hive 2.0.X dan 2.1.X, atur parameter ini ke 2.2.0.
Untuk Hive 2.2.X, atur parameter ini ke 2.2.0. Untuk Hive 2.3.X, atur parameter ini ke 2.3.6. Untuk Hive 3.1.X, atur parameter ini ke 3.1.2.
hive-conf-dir
Direktori tempat file konfigurasi Hive disimpan. Anda harus membuat direktori ini secara manual. Untuk informasi lebih lanjut, lihat Konfigurasikan metadata Hive.
hadoop-conf-dir
Direktori tempat dependensi Hadoop disimpan. Anda harus membuat direktori ini secara manual. Untuk informasi lebih lanjut, lihat Konfigurasikan metadata Hive.
Pilih kode yang digunakan untuk membuat katalog dan klik Run yang muncul di sisi kiri kode.
Setelah katalog Hive dibuat, Anda dapat merujuk tabel-tabel katalog Hive sebagai tabel hasil dan tabel dimensi di draf. Anda tidak perlu mendeklarasikan pernyataan DDL untuk tabel-tabel tersebut. Nama tabel dalam katalog Hive berada dalam format ${hive-catalog-name}.${hive-db-name}.${hive-table-name}.
Jika Anda ingin menghapus katalog Hive, ikuti petunjuk yang dijelaskan di Hapus Katalog Hive.
Gunakan Katalog Hive
Buat Tabel Hive
Buat Tabel Hive di UI
Pergi ke halaman Katalog.
Masuk ke Konsol Realtime Compute for Apache Flink. Temukan ruang kerja yang ingin Anda kelola dan klik Console di kolom Actions.
Klik Catalogs.
Di halaman Daftar Katalog, temukan katalog yang diinginkan dan klik View di kolom Actions.
Di halaman yang muncul, temukan database yang diinginkan dan klik View di kolom Actions.
Di halaman yang muncul, klik Create Table.
Di tab Built-in kotak dialog Buat Tabel, pilih tipe tabel dari daftar drop-down Jenis Koneksi, pilih tipe konektor, lalu klik Next.
Masukkan pernyataan pembuatan tabel dan konfigurasikan parameter terkait. Contoh kode:
CREATE TABLE `${catalog_name}`.`${db_name}`.`${table_name}` ( id INT, name STRING ) WITH ( 'connector' = 'hive' );Di kotak dialog yang muncul, klik OK.
Buat Tabel Hive dengan mengeksekusi pernyataan SQL
Eksekusi pernyataan SQL berikut di halaman Skrip:
CREATE TABLE `${catalog_name}`.`${db_name}`.`${table_name}` ( id INT, name STRING ) WITH ( 'connector' = 'hive' );Pilih pernyataan pembuatan tabel dan klik Run yang muncul di sisi kiri kode.

Contoh kode:
-- Buat tabel bernama flink_hive_test di database flinkhive di bawah katalog flinkexporthive.
CREATE TABLE `flinkexporthive`.`flinkhive`.`flink_hive_test` (
id INT,
name STRING
) WITH (
'connector' = 'hive'
);Modifikasi Tabel Hive
Eksekusi pernyataan SQL berikut di halaman Skrip:
-- Tambahkan kolom ke tabel Hive.
ALTER TABLE `${catalog_name}`.`${db_name}`.`${table_name}`
ADD column type-column;
-- Hapus kolom dari tabel Hive.
ALTER TABLE `${catalog_name
`.`${db_name}`.`${table_name}`
DROP column;Contoh kode:
-- Tambahkan bidang warna ke tabel Hive.
ALTER TABLE `flinkexporthive`.`flinkhive`.`flink_hive_test`
ADD color STRING;
-- Hapus bidang warna dari tabel Hive.
ALTER TABLE `flinkexporthive`.`flinkhive`.`flink_hive_test`
DROP color;Baca data dari tabel Hive
INSERT INTO ${other_sink_table}
SELECT ...
FROM `${catalog_name}`.`${db_name}`.`${table_name}`;Masukkan data hasil ke tabel Hive
INSERT INTO `${catalog_name}`.`${db_name}`.`${table_name}`
SELECT ...
FROM ${other_source_table};Hapus tabel Hive
Hapus tabel Hive di UI
Pergi ke halaman Katalog.
Masuk ke Konsol Realtime Compute for Apache Flink. Temukan ruang kerja yang ingin Anda kelola dan klik Console di kolom Actions.
Klik Catalogs.
Di panel Catalogs di sisi kiri halaman Daftar Katalog, klik tabel yang ingin Anda hapus di database terkait di bawah katalog terkait.
Di halaman detail tabel, klik Delete di kolom Tindakan.
Di pesan yang muncul, klik OK.
Hapus tabel Hive dengan mengeksekusi pernyataan SQL
Eksekusi pernyataan SQL berikut di halaman Skrip:
-- Hapus tabel Hive.
DROP TABLE `${catalog_name}`.`${db_name}`.`${table_name}`;Contoh kode:
-- Hapus tabel Hive.
DROP TABLE `flinkexporthive`.`flinkhive`.`flink_hive_test`;Lihat Katalog Hive
Pergi ke halaman Katalog.
Masuk ke Konsol Realtime Compute for Apache Flink.
Temukan ruang kerja yang ingin Anda kelola dan klik Console di kolom Actions.
Klik Catalogs.
Di halaman Catalog List, temukan katalog yang diinginkan dan lihat kolom Name dan Type katalog tersebut.
CatatanJika Anda ingin melihat database dan tabel dalam katalog, klik View di kolom Actions.
Hapus Katalog Hive
Operasi penghapusan tidak memengaruhi penyebaran yang sedang berjalan. Namun, draf yang belum diterbitkan atau penyebaran yang perlu dihentikan dan kemudian dilanjutkan akan terpengaruh. Kami merekomendasikan Anda untuk tidak melakukan operasi penghapusan kecuali diperlukan.
Hapus Katalog Hive di UI
Pergi ke halaman Katalog.
Masuk ke Konsol Realtime Compute for Apache Flink. Temukan ruang kerja yang ingin Anda kelola dan klik Console di kolom Actions.
Klik Catalogs.
Di halaman Catalog List, temukan katalog yang diinginkan dan klik Delete di kolom Actions.
Di pesan yang muncul, klik Delete.
Lihat panel Catalogs untuk memeriksa apakah katalog telah dihapus.
Hapus Katalog Hive dengan mengeksekusi pernyataan SQL
Eksekusi pernyataan SQL berikut di halaman Skrip:
DROP CATALOG ${HMS Name};Dalam pernyataan sebelumnya, HMS Name menunjukkan nama katalog Hive yang ingin Anda hapus. Nama tersebut ditampilkan di konsol pengembangan Realtime Compute for Apache Flink.
Klik kanan pernyataan yang digunakan untuk menghapus katalog dan pilih Run dari menu pintasan.
Lihat panel Catalogs di sisi kiri halaman Daftar Katalog untuk memeriksa apakah katalog telah dihapus.