Hive カタログを作成すると、Hive テーブルを手動で登録することなく、Realtime Compute for Apache Flink の開発コンソールで Hive メタデータを直接読み取ることができます。 これにより、データ開発の効率とデータの精度が向上します。 このトピックでは、Hive メタデータの設定方法、Hive カタログの作成方法、および Hive カタログの使用方法について説明します。
背景情報
Object Storage Service (OSS) コンソールで指定したディレクトリに Hive カタログ構成ファイルと Hadoop 依存関係を保存した後、Realtime Compute for Apache Flink の開発コンソールで Hive カタログを作成できます。 Hive カタログを作成すると、DML ステートメントを実行してビジネスロジックを作成し、Realtime Compute for Apache Flink の開発コンソールで Hive テーブルのメタデータを取得できます。 このように、DDL ステートメントを実行して関連するテーブル情報を宣言する必要はありません。 Hive カタログのテーブルは、ストリーミングデプロイメントとバッチデプロイメントのソーステーブルまたは結果テーブルとして使用できます。
Realtime Compute for Apache Flink では、Hive メタストアまたは Alibaba Cloud Data Lake Formation (DLF) を Hive カタログのメタデータ管理センターとして使用できます。 このトピックでは、Hive カタログを管理するために行うことができる次の操作について説明します。
前提条件
Hive メタストアまたは Alibaba Cloud DLF を Hive カタログのメタデータ管理センターとして使用する前に、次の設定を完了する必要があります。
Hive メタストアを Hive カタログのメタデータ管理センターとして使用する
項目
説明
Hive メタストアサービスがアクティブ化されている。
Hive メタストアサービスに関連するコマンド:
Hive メタストアサービスを有効にするためのコマンド:
hive --service metastoreHive メタストアサービスが有効になっているかどうかを確認するためのコマンド:
netstat -ln | grep 90839083 は Hive メタストアサービスのデフォルトのポート番号です。 hive-site.xml ファイルで別のポート番号を指定した場合は、上記のコマンドの 9083 を hive-site.xml ファイルで指定したポート番号に置き換える必要があります。
Hive メタストアサービスのホワイトリストが設定されており、Realtime Compute for Apache Flink の CIDR ブロックがホワイトリストに追加されている。
Realtime Compute for Apache Flink の CIDR ブロックを取得する方法の詳細については、「許可リストを設定する」をご参照ください。 Hive メタストアサービスのホワイトリストを設定する方法の詳細については、「セキュリティグループルールを追加する」をご参照ください。
Alibaba Cloud DLF を Hive カタログのメタデータ管理センターとして使用する
Alibaba Cloud DLF がアクティブ化されています。
制限事項
セルフマネージド Hive メタストアがサポートされています。
Hive 1.X、2.1.X、および 2.2.X は、Apache Flink 1.16 以降ではサポートされていません。 したがって、Ververica Runtime (VVR) 6.X を使用する Realtime Compute for Apache Flink のみが Hive 1.X、2.1.X、および 2.2.X をサポートします。
DLF を Hive カタログのメタストアとして使用する場合、VVR 8.0.6 以降を使用する Realtime Compute for Apache Flink でのみ、カタログに非 Hive テーブルを作成できます。
VVR 8.0.6 以降を使用する Realtime Compute for Apache Flink でのみ、Hive カタログを使用して OSS-HDFS にデータを書き込むことができます。
Hive メタデータを設定する
Hadoop クラスタと Realtime Compute for Apache Flink が存在する virtual private cloud (VPC) の間に接続を確立します。
Alibaba Cloud DNS PrivateZone を使用して、Hadoop クラスタを Realtime Compute for Apache Flink が存在する VPC に接続できます。 詳細については、「リゾルバー」をご参照ください。 接続が確立されると、Realtime Compute for Apache Flink は Hadoop クラスタの構成ファイルを使用して Hadoop クラスタにアクセスできます。
Hive メタストアまたは Alibaba Cloud DLF を Hive カタログのメタデータ管理センターとして使用できます。 次のセクションでは、関連する設定について説明します。
Hive MetaStore
Hive 構成ファイル hive-site.xml の hive.metastore.uris パラメーターの設定が次の要件を満たしているかどうかを確認します。
<property> <name>hive.metastore.uris</name> <value>thrift://xx.yy.zz.mm:9083</value> <description>Thrift URI for the remote metastore. Used by metastore client to connect to remote metastore.</description> </property>構成ファイルの
xx.yy.zz.mmは、Hive の内部またはパブリック IP アドレスを示します。説明hive.metastore.uris パラメーターを Hive のホスト名に設定する場合は、Alibaba Cloud DNS サービスを設定してパラメーター値を解析する必要があります。 そうしないと、hive.metastore.uris パラメーターの値の解析に失敗し、Ververica Platform (VVP) が Hive にリモートアクセスするときに
UnknownHostExceptionエラーメッセージが返されます。 Alibaba Cloud DNS サービスを設定する方法の詳細については、「プライベートゾーンに DNS レコードを追加する」をご参照ください。Alibaba Cloud DLF
Hive カタログが DLF にアクセスできるように、次の設定を Hive 構成ファイル hive-site.xml に追加します。
説明hive-site.xml ファイルに dlf.catalog.akMode 設定項目が含まれている場合は、この設定項目を削除する必要があります。 そうしないと、Hive カタログは DLF にアクセスできません。
<property> <name>hive.imetastoreclient.factory.class</name> <value>com.aliyun.datalake.metastore.hive2.DlfMetaStoreClientFactory</value> </property> <property> <name>dlf.catalog.uid</name> <value>${YOUR_DLF_CATALOG_UID}</value> </property> <property> <name>dlf.catalog.endpoint</name> <value>${YOUR_DLF_ENDPOINT}</value> </property> <property> <name>dlf.catalog.region</name> <value>${YOUR_DLF_CATALOG_REGION}</value> </property> <property> <name>dlf.catalog.accessKeyId</name> <value>${YOUR_ACCESS_KEY_ID}</value> </property> <property> <name>dlf.catalog.accessKeySecret</name> <value>${YOUR_ACCESS_KEY_SECRET}</value> </property>パラメーター
説明
備考
dlf.catalog.uid
DLF へのアクセスに使用する Alibaba Cloud アカウントの ID。
Alibaba Cloud アカウントの ID を取得するには、セキュリティ設定 ページに移動します。
dlf.catalog.endpoint
DLF サービスのエンドポイント。
詳細については、「サポートされているリージョンとエンドポイント」をご参照ください。
説明dlf.endpoint を DLF の VPC エンドポイントに設定することをお勧めします。 たとえば、中国 (杭州) リージョンを選択した場合は、dlf.endpoint パラメーターを dlf-vpc.cn-hangzhou.aliyuncs.com に設定します。
VPC を介して DLF にアクセスする場合は、「Realtime Compute for Apache Flink は VPC を介してサービスにアクセスするにはどうすればよいですか?」に記載されている手順に従ってください。
dlf.catalog.region
DLF サービスがアクティブ化されているリージョンの ID。
詳細については、「サポートされているリージョンとエンドポイント」をご参照ください。
説明選択したリージョンが dlf.endpoint に選択したエンドポイントと一致していることを確認してください。
dlf.catalog.accessKeyI
Alibaba Cloud アカウントの AccessKey ID。
AccessKey シークレットを取得する方法の詳細については、「AccessKey ペアの取得」をご参照ください。
dlf.catalog.accessKeySecret
Alibaba Cloud アカウントの AccessKey シークレット。
AccessKey シークレットを取得する方法の詳細については、「AccessKey ペアの取得」をご参照ください。
Hive カタログでは、OSS および OSS-HDFS にテーブルを保存できます。 次の表に、設定について説明します。
OSS
Hive カタログが OSS にアクセスできるように、次の設定を Hive 構成ファイル hive-site.xml に追加します。
<property> <name>fs.oss.impl.disable.cache</name> <value>true</value> </property> <property> <name>fs.oss.impl</name> <value>org.apache.hadoop.fs.aliyun.oss.AliyunOSSFileSystem</value> </property> <property> <name>hive.metastore.warehouse.dir</name> <value>${YOUR_OSS_WAREHOUSE_DIR}</value> </property> <property> <name>fs.oss.endpoint</name> <value>${YOUR_OSS_ENDPOINT}</value> </property> <property> <name>fs.oss.accessKeyId</name> <value>${YOUR_ACCESS_KEY_ID}</value> </property> <property> <name>fs.oss.accessKeySecret</name> <value>${YOUR_ACCESS_KEY_SECRET}</value> </property> <property> <name>fs.defaultFS</name> <value>oss://${YOUR_OSS_BUCKET_DOMIN}</value> </property>次の表にパラメーターを示します。
パラメーター
説明
備考
hive.metastore.warehouse.dir
テーブルデータが保存されるディレクトリ。
該当なし。
fs.oss.endpoint
OSS のエンドポイント。
詳細については、「リージョンとエンドポイント」をご参照ください。
fs.oss.accessKeyId
Alibaba Cloud アカウントの AccessKey ID。
AccessKey ID を取得する方法の詳細については、「AccessKey ペアの取得」をご参照ください。
fs.oss.accessKeySecret
Alibaba Cloud アカウントの AccessKey シークレット。
AccessKey シークレットを取得する方法の詳細については、「AccessKey ペアの取得」をご参照ください。
fs.defaultFS
デフォルトでテーブルデータが保存されるファイルシステム。
このパラメーターの値が、宛先バケットに対応する HDFS サービスのエンドポイント (
oss://oss-hdfs-bucket.cn-hangzhou.oss-dls.aliyuncs.com/など) であることを確認してください。OSS-HDFS
Hive カタログが OSS-HDFS にアクセスできるように、次の設定を Hive 構成ファイル hive-site.xml に追加します。
<property> <name>fs.jindo.impl</name> <value>com.aliyun.jindodata.jindo.JindoFileSystem</value> </property> <property> <name>hive.metastore.warehouse.dir</name> <value>${YOUR_OSS_WAREHOUSE_DIR}</value> </property> <property> <name>fs.oss.endpoint</name> <value>${YOUR_OSS_ENDPOINT}</value> </property> <property> <name>fs.oss.accessKeyId</name> <value>${YOUR_ACCESS_KEY_ID}</value> </property> <property> <name>fs.oss.accessKeySecret</name> <value>${YOUR_ACCESS_KEY_SECRET}</value> </property> <property> <name>fs.defaultFS</name> <value>oss://${YOUR_OSS_HDFS_BUCKET_DOMIN}</value> </property>パラメーター
説明
備考
hive.metastore.warehouse.dir
テーブルデータが保存されるディレクトリ。
該当なし。
fs.oss.endpoint
OSS のエンドポイント。
詳細については、「リージョンとエンドポイント」をご参照ください。
fs.oss.accessKeyId
Alibaba Cloud アカウントの AccessKey ID。
AccessKey ID を取得する方法の詳細については、「AccessKey ペアの取得」をご参照ください。
fs.oss.accessKeySecret
Alibaba Cloud アカウントの AccessKey シークレット。
AccessKey シークレットを取得する方法の詳細については、「AccessKey ペアの取得」をご参照ください。
fs.defaultFS
デフォルトでテーブルデータが保存されるファイルシステム。
このパラメーターの値が、宛先バケットに対応する HDFS サービスのエンドポイント(
oss://oss-hdfs-bucket.cn-hangzhou.oss-dls.aliyuncs.com/など)であることを確認してください。(オプション) OSS-HDFS に格納されている Hive テーブルからデータを読み取り、その Hive テーブルが Parquet フォーマットである場合は、Realtime Compute for Apache Flink に次の設定項目を追加します。
fs.oss.jindo.accessKeyId: ${YOUR_ACCESS_KEY_ID} fs.oss.jindo.accessKeySecret: ${YOUR_ACCESS_KEY_SECRET} fs.oss.jindo.endpoint: ${YOUR_JINODO_ENDPOINT} fs.oss.jindo.buckets: ${YOUR_JINDO_BUCKETS}パラメーターの詳細については、「OSS-HDFS にデータを書き込む」をご参照ください。
説明データが Realtime Compute for Apache Flink に格納されている場合は、この手順の後の操作を実行する必要はありません。Hive カタログを作成する ステップに直接進むことができます。
OSS コンソールで、OSS バケットに 2 つのディレクトリを作成し、Hive 構成ファイルと Hadoop 依存関係をこれらのディレクトリにアップロードします。
OSS コンソール にログインします。
左側のナビゲーションウィンドウで、[バケット] をクリックします。
[バケット]ページで、目的のバケットの名前をクリックします。
oss://${bucket}/artifacts/namespaces/${ns}/ パスに ${hms} という名前のフォルダを作成します。
OSS コンソールでディレクトリを作成する方法の詳細については、「ディレクトリを作成する」をご参照ください。次の表は、ディレクトリを作成するパスの変数について説明しています。
フォルダ
説明
${bucket}
Realtime Compute for Apache Flink ワークスペースで使用されるバケットの名前。
${ns}
Hive カタログを作成する Realtime Compute for Apache Flink ワークスペースの名前。
${hms}
作成するフォルダの名前。このフォルダと、後続の手順で作成する Hive カタログには同じ名前を使用することをお勧めします。
説明Realtime Compute for Apache Flink ワークスペースを作成すると、Realtime Compute for Apache Flink は指定されたバケットに /artifacts/namespaces/${ns}/ ディレクトリを自動的に作成し、JAR パッケージなどのデータを保存します。 OSS コンソールでディレクトリが見つからない場合は、Realtime Compute for Apache Flink の開発コンソールの [アーティファクト] ページにファイルをアップロードして、ディレクトリを手動で作成する必要があります。
oss://${bucket}/artifacts/namespaces/${ns}/${hms} パスに hive-conf-dir という名前のディレクトリと hadoop-conf-dir という名前のディレクトリを作成します。OSS コンソールでディレクトリを作成する方法の詳細については、「ディレクトリを作成する」をご参照ください。
次の例は、hive-conf-dir ディレクトリと hadoop-conf-dir ディレクトリに保存されているファイルについて説明しています。
oss://${bucket}/artifacts/namespaces/${ns}/${hms}/hive-conf-dir/ は、hive-site.xml という名前の Hive 構成ファイルを保存するために使用されます。
oss://${bucket}/artifacts/namespaces/${ns}/${hms}/hadoop-conf-dir/ は、core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml などの Hadoop 構成ファイルを保存するために使用されます。
ディレクトリが作成された後、OSS コンソールの左側のナビゲーションウィンドウで [ファイル] > [プロジェクト] を選択して、新しいディレクトリとファイルを表示し、OSS URL をコピーできます。
Hive 構成ファイル hive-site.xml を hive-conf-dir ディレクトリにアップロードします。ファイルのアップロード方法の詳細については、「オブジェクトのアップロード」をご参照ください。
次の構成ファイルを hadoop-conf-dir ディレクトリにアップロードします。ファイルのアップロード方法の詳細については、「オブジェクトのアップロード」をご参照ください。
hive-site.xml
core-site.xml
hdfs-site.xml
mapred-site.xml
Hive デプロイメントで使用される圧縮パッケージなどのその他の必要なファイル
Hive カタログの作成
Hive メタデータを構成した後、UI 上または SQL 文を実行することで Hive カタログを作成できます。UI 上で Hive カタログを作成することをお勧めします。
UI 上で Hive カタログを作成する
カタログページに移動します。
Realtime Compute for Apache Flink コンソール にログインします。管理するワークスペースを見つけ、[アクション] 列の [コンソール] をクリックします。
[カタログ] をクリックします。
カタログリストページで、[カタログの作成] をクリックします。「カタログの作成」ダイアログボックスで、「カタログタイプの選択」ステップの「組み込みカタログ」タブで [Hive] を選択し、[次へ] をクリックします。
「カタログの構成」ステップでパラメーターを構成します。
重要Hive カタログを作成した後、パラメーター構成を変更することはできません。パラメーター構成を変更する場合は、作成した Hive カタログを削除し、Hive カタログを再度作成する必要があります。
パラメーター
説明
カタログ名
Hive カタログの名前。
hive-version
Hive メタストアサービスのバージョン。
Realtime Compute for Apache Flink は、Hive 2.0.0 ~ 2.3.9 および Hive 3.1.0 ~ 3.1.3 のみをサポートしています。Hive カタログを作成する場合は、Hive のバージョンに基づいて hive-version パラメーターを構成します。
Hive 2.0.X および 2.1.X の場合は、このパラメーターを 2.2.0 に設定します。
Hive 2.2.X の場合は、このパラメーターを 2.2.0 に設定します。Hive 2.3.X の場合は、このパラメーターを 2.3.6 に設定します。Hive 3.1.X の場合は、このパラメーターを 3.1.2 に設定します。
default-database
デフォルトデータベースの名前。
hive-conf-dir
OSS:Hive 構成ファイルが保存されているディレクトリ。ディレクトリを手動で作成する必要があります。詳細については、「Hive メタデータの構成」をご参照ください。
Realtime Compute for Apache Flink のフルマネージドストレージ:プロンプトに従ってコンソールでファイルをアップロードします。
hadoop-conf-dir
OSS:Hadoop 依存関係が保存されているディレクトリ。ディレクトリを手動で作成する必要があります。詳細については、「Hive メタデータの構成」をご参照ください。
Realtime Compute for Apache Flink のフルマネージドストレージ:プロンプトに従ってコンソールでファイルをアップロードします。
hive-kerberos
Kerberos 認証を有効にし、登録済みの Kerberos 対応 Hive クラスターと Kerberos プリンシパルを関連付けます。Kerberos 対応 Hive クラスターを登録する方法については、「Kerberos 認証をサポートする Hive クラスターを登録する」をご参照ください。
確認 をクリックします。
カタログリストページの左側にある [カタログ] ペインで、作成したカタログを表示します。
SQL 文を実行して Hive カタログを作成する
スクリプト ページで、次の SQL 文を実行します。
CREATE CATALOG ${HMS Name} WITH ( 'type' = 'hive', 'default-database' = 'default', 'hive-version' = '<hive-version>', 'hive-conf-dir' = '<hive-conf-dir>', 'hadoop-conf-dir' = '<hadoop-conf-dir>' );パラメーター
説明
${HMS 名}
Hive カタログの名前。
type
コネクタのタイプ。値を hive に設定します。
default-database
デフォルトデータベースの名前。
hive-version
Hive メタストアサービスのバージョン。
Realtime Compute for Apache Flink は、Hive 2.0.0 ~ 2.3.9 および Hive 3.1.0 ~ 3.1.3 のみをサポートしています。Hive カタログを作成する場合は、Hive のバージョンに基づいて hive-version パラメーターを構成します。
Hive 2.0.X および 2.1.X の場合は、このパラメーターを 2.2.0 に設定します。
Hive 2.2.X の場合は、このパラメーターを 2.2.0 に設定します。 Hive 2.3.X の場合は、このパラメーターを 2.3.6 に設定します。 Hive 3.1.X の場合は、このパラメーターを 3.1.2 に設定します。
hive-conf-dir
Hive 構成ファイルが保存されているディレクトリ。ディレクトリを手動で作成する必要があります。詳細については、「Hive メタデータの構成」をご参照ください。
hadoop-conf-dir
Hadoop 依存関係が保存されているディレクトリ。ディレクトリを手動で作成する必要があります。詳細については、「Hive メタデータの構成」をご参照ください。
カタログの作成に使用するコードを選択し、コードの左側に表示される [実行] をクリックします。
Hive カタログが作成された後、ドラフトで Hive カタログのテーブルを結果テーブルおよびディメンションテーブルとして参照できます。これらのテーブルの DDL 文を宣言する必要はありません。Hive カタログのテーブル名は、${hive-catalog-name}.${hive-db-name}.${hive-table-name} 形式です。
Hive カタログを削除する場合は、「Hive カタログの削除」に記載されている手順に従います。
Hive カタログを使用する
Hive テーブルを作成する
UI 上で Hive テーブルを作成する
カタログページに移動します。
Realtime Compute for Apache Flink コンソール にログインします。管理するワークスペースを見つけ、[アクション] 列の [コンソール] をクリックします。
[カタログ] をクリックします。
カタログリストページで、目的のカタログを見つけ、[アクション] 列の [表示] をクリックします。
表示されたページで、目的のデータベースを見つけ、[アクション] 列の [表示] をクリックします。
表示されたページで、[テーブルの作成] をクリックします。
テーブルの作成ダイアログボックスの [組み込み] タブで、[接続タイプ] ドロップダウンリストからテーブルタイプを選択し、コネクタタイプを選択して、[次へ] をクリックします。
テーブル作成ステートメントを入力し、関連パラメーターを設定します。サンプルコード:
CREATE TABLE `${catalog_name}`.`${db_name}`.`${table_name}` ( id INT, name STRING ) WITH ( 'connector' = 'hive' );表示されるダイアログボックスで、[OK] をクリックします。
SQL ステートメントを実行して Hive テーブルを作成する
スクリプト ページで、次の SQL ステートメントを実行します。
CREATE TABLE `${catalog_name}`.`${db_name}`.`${table_name}` ( id INT, name STRING ) WITH ( 'connector' = 'hive' );テーブル作成ステートメントを選択し、コードの左側に表示される [実行] をクリックします。

サンプルコード:
-- flinkexporthive カタログの flinkhive データベースに flink_hive_test という名前のテーブルを作成します。
CREATE TABLE `flinkexporthive`.`flinkhive`.`flink_hive_test` (
id INT,
name STRING
) WITH (
'connector' = 'hive'
);Hive テーブルを変更する
スクリプト ページで、次の SQL ステートメントを実行します。
-- Hive テーブルに列を追加します。
ALTER TABLE `${catalog_name}`.`${db_name}`.`${table_name}`
ADD column type-column;
-- Hive テーブルから列を削除します。
ALTER TABLE `${catalog_name}`.`${db_name}`.`${table_name}`
DROP column;サンプルコード:
-- Hive テーブルに color フィールドを追加します。
ALTER TABLE `flinkexporthive`.`flinkhive`.`flink_hive_test`
ADD color STRING;
-- Hive テーブルから color フィールドを削除します。
ALTER TABLE `flinkexporthive`.`flinkhive`.`flink_hive_test`
DROP color;Hive テーブルからデータを読み取る
INSERT INTO ${other_sink_table}
SELECT ...
FROM `${catalog_name}`.`${db_name}`.`${table_name}`;結果データを Hive テーブルに挿入する
INSERT INTO `${catalog_name}`.`${db_name}`.`${table_name}`
SELECT ...
FROM ${other_source_table};Hive テーブルを削除する
UI 上で Hive テーブルを削除する
カタログページに移動します。
Realtime Compute for Apache Flink コンソール にログインします。管理するワークスペースを見つけ、[アクション] 列の [コンソール] をクリックします。
[カタログ] をクリックします。
カタログリストページの左側の [カタログ] ペインで、関連カタログの関連データベースにある削除するテーブルをクリックします。
テーブル詳細ページで、[アクション] 列の [削除] をクリックします。
表示されるメッセージで、[OK] をクリックします。
SQL ステートメントを実行して Hive テーブルを削除する
スクリプト ページで、次の SQL ステートメントを実行します。
-- Hive テーブルを削除します。
DROP TABLE `${catalog_name}`.`${db_name}`.`${table_name}`;サンプルコード:
-- Hive テーブルを削除します。
DROP TABLE `flinkexporthive`.`flinkhive`.`flink_hive_test`;Hive カタログを表示する
カタログ ページに移動します。
Realtime Compute for Apache Flink コンソール にログオンします。
管理するワークスペースを見つけ、[アクション] 列の [コンソール] をクリックします。
[カタログ] をクリックします。
[カタログリスト] ページで、目的のカタログを見つけ、カタログの [名前] 列と [タイプ] 列を表示します。
説明カタログ内のデータベースとテーブルを表示する場合は、[アクション] 列の [表示] をクリックします。
Hive カタログを削除する
削除操作は、実行中のデプロイメントには影響しません。ただし、公開されていないドラフトや、一時停止してから再開する必要があるデプロイメントには影響します。必要な場合を除き、削除操作を実行しないことをお勧めします。
UI で Hive カタログを削除する
カタログ ページに移動します。
Realtime Compute for Apache Flink コンソール にログインします。管理するワークスペースを見つけ、[アクション] 列の [コンソール] をクリックします。
[カタログ] をクリックします。
[カタログリスト] ページで、目的のカタログを見つけ、[削除][アクション] 列の をクリックします。
表示されるメッセージで、[削除] をクリックします。
[カタログ] ペインで、カタログが削除されたかどうかを確認します。
SQL 文を実行して Hive カタログを削除する
スクリプト ページで、次の SQL 文を実行します。
DROP CATALOG ${HMS Name};上記の文で、HMS Name は削除する Hive カタログの名前を示します。名前は Realtime Compute for Apache Flink の開発コンソールに表示されます。
カタログの削除に使用する文を右クリックし、ショートカットメニューから [実行] を選択します。
カタログリスト ページの左側にある [カタログ] ペインで、カタログが削除されたかどうかを確認します。