すべてのプロダクト
Search
ドキュメントセンター

Managed Service for Prometheus:Terraform を使用して Prometheus インスタンスの統合センターを管理する

最終更新日:Jan 14, 2025

Terraform を使用して、Managed Service for Prometheus の統合センター内のエクスポーターとリモート書き込みリソースを管理できます。このトピックでは、Terraform を使用して Prometheus インスタンスの統合センターを管理する方法について説明します。

前提条件

  • Container Service または ECS の Prometheus インスタンスが作成されていること。詳細については、Terraform を使用して Prometheus インスタンスを管理する をご参照ください。

  • Terraform がインストールされていること。

    • デフォルトでは、Cloud Shell には Terraform がプリインストールされており、アカウント情報が構成されています。構成を変更する必要はありません。

    • Cloud Shell を使用しない場合は、Terraform を直接インストールできます。詳細については、Terraform のインストールと構成 をご参照ください。

      説明
      • terraform --version コマンドを実行して、Terraform のバージョンを確認する必要があります。Terraform V0.12.28 以降をインストールする必要があります。

      • Resource Orchestration Service ( ROS ) は、Alibaba Cloud が提供するネイティブの Infrastructure as Code ( IaC ) サービスですが、Terraform テンプレートの統合もサポートしています。ROS で Terraform を使用することで、Alibaba Cloud、Amazon Web Services ( AWS )、または Microsoft Azure のリソースを定義および管理し、リソースパラメーターを指定し、リソースの依存関係を構成できます。詳細については、Terraform テンプレートの作成 および Terraform スタックの作成 をご参照ください。

  • Alibaba Cloud アカウント情報が構成されていること。次のいずれかの方法を使用して、Alibaba Cloud アカウント情報を構成できます。

    説明

    権限管理の柔軟性とセキュリティを向上させるために、Terraform という名前の Resource Access Management ( RAM ) ユーザーを作成することをお勧めします。次に、RAM ユーザーの AccessKey ペアを作成し、RAM ユーザーに権限を付与します。詳細については、RAM ユーザーの作成 および RAM ユーザーへの権限の付与 をご参照ください。

    • 方法 1:認証情報を格納する環境変数を追加します。

      export ALICLOUD_ACCESS_KEY="************"  // アクセスキーをエクスポートします
      export ALICLOUD_SECRET_KEY="************"  // シークレットキーをエクスポートします
      export ALICLOUD_REGION="cn-beijing"       // リージョンをエクスポートします
      説明

      ビジネス要件に基づいて export ALICLOUD_REGION パラメーターの値を指定します。

    • 方法 2:構成ファイルの provider セクションで ID 情報を指定します。

      provider "alicloud" {
        access_key = "************"  // アクセスキー
        secret_key = "************"  // シークレットキー
        region     = "cn-beijing"   // リージョン
      }
      説明

      ビジネス要件に基づいて export ALICLOUD_REGION パラメーターの値を指定します。

Prometheus インスタンスの統合センターでコンポーネントを構成する

  1. 作業ディレクトリと、そのディレクトリに main.tf という名前のファイルを作成します。

    provider "alicloud" {
    }
  2. 次のコマンドを実行して、Terraform の環境を初期化します。

    terraform init

    期待される出力:

    Initializing the backend... // バックエンドを初期化しています...
    
    Initializing provider plugins... // プロバイダープラグインを初期化しています...
    - Checking for available provider plugins... // 利用可能なプロバイダープラグインを確認しています...
    - Downloading plugin for provider "alicloud" (hashicorp/alicloud) 1.90.1... // プロバイダー「alicloud」(hashicorp/alicloud)1.90.1 のプラグインをダウンロードしています...
    ...
    
    You may now begin working with Terraform. Try running "terraform plan" to see // Terraform での作業を開始できます。「terraform plan」を実行して、
    any changes that are required for your infrastructure. All Terraform commands // インフラストラクチャに必要な変更を確認してください。すべての Terraform コマンドは
    should now work. // 今から動作するはずです。
    
    If you ever set or change modules or backend configuration for Terraform, // Terraform のモジュールまたはバックエンド構成を設定または変更した場合は、
    rerun this command to reinitialize your working directory. If you forget, other // このコマンドを再実行して作業ディレクトリを再初期化してください。忘れた場合、他の
    commands will detect it and remind you to do so if necessary. // コマンドがそれを検出し、必要に応じて再実行するように指示します。
  3. 統合センターのコンポーネントリソースをインポートします。

    1. コンポーネントリソースを main.tf ファイルに追加します。

      # コンポーネントのエクスポーター。Kafka コンポーネントのエクスポーターを例として使用します。
      resource "alicloud_arms_integration_exporter" "myKafkaExporter" // Kafka エクスポーターリソース
      {
          cluster_id       = "c77e1106f429e4b46b0ee1720c*****"   // Prometheus インスタンスの ID。
          integration_type = "kafka"  // コンポーネントのタイプ。有効な値:mysql、redis、node_exporter_for_vpc、kafka、emr、nebula、tidb、windows、snmp、ahpa、knative。
          // コンポーネントタイプに基づいて、param フィールドの JSON パラメーターを構成します。param フィールドの詳細については、「さまざまなコンポーネントの param フィールドのパラメーター」セクションを参照してください。
          param  = jsonencode(  // パラメーター
          {
            name                         = "kafka1"  // エクスポーター名
            ip_ports                     = "abc11:1889" // Kafka アドレス
            sasl_enabled                 = "none=sasl.enabled" // SASL 有効
            sasl_mechanism               = "" // SASL メカニズム
            scrape_interval              = 33 // メトリックのスクレイピング間隔
            tls_enabled                  = "none=tls.enabled" // TLS 有効
            tls_insecure-skip-tls-verify = "none=tls.insecure-skip-tls-verify" // TLS 検証のスキップ
            version                      = "0.10.1.0" // Kafka バージョン
          }
        )
      }
      説明

      コンポーネントタイプに基づいて、JSON 形式の param フィールドのパラメーターを構成する必要があります。param フィールドの詳細については、さまざまなコンポーネントの param フィールドのパラメーター をご参照ください。

    2. 次のコマンドを実行して、実行プランを作成します。

      terraform plan

      期待される出力:

      Terraform used the selected providers to generate the following execution plan. Resource actions are indicated with the following symbols: // Terraform は、選択されたプロバイダーを使用して、次の実行プランを生成しました。リソースアクションは、次の記号で示されます。
        + create // 作成
      
      Terraform will perform the following actions: // Terraform は、次のアクションを実行します。
      
        # alicloud_arms_integration_exporter.myKafkaExporter will be created // alicloud_arms_integration_exporter.myKafkaExporter が作成されます
        + resource "alicloud_arms_integration_exporter" "myKafkaExporter" { // リソース "alicloud_arms_integration_exporter" "myKafkaExporter" {
            + cluster_id       = "c77e1106f429e4b46b0ee1720c9*****" // cluster_id = "c77e1106f429e4b46b0ee1720c9*****"
            + id               = (known after apply) // id = (適用後に分かります)
            + instance_id      = (known after apply) // instance_id = (適用後に分かります)
            + integration_type = "kafka" // integration_type = "kafka"
            + param            = jsonencode( // param = jsonencode(
                  {
                    + ip_ports                     = "abc:8881" // ip_ports = "abc:8881"
                    + name                         = "myKafka1" // name = "myKafka1"
                    + sasl_enabled                 = "none=sasl.enabled" // sasl_enabled = "none=sasl.enabled"
                    + sasl_mechanism               = "" // sasl_mechanism = ""
                    + scrape_interval              = 30 // scrape_interval = 30
                    + tls_enabled                  = "none=tls.enabled" // tls_enabled = "none=tls.enabled"
                    + tls_insecure-skip-tls-verify = "none=tls.insecure-skip-tls-verify" // tls_insecure-skip-tls-verify = "none=tls.insecure-skip-tls-verify"
                    + version                      = "0.10.1.0" // version = "0.10.1.0"
                  }
              )
          }
      
      Plan: 1 to add, 0 to change, 0 to destroy. // プラン:1 を追加、0 を変更、0 を破棄。
                                      
    3. 次のコマンドを実行して、エクスポーターを作成します。

      terraform apply

      期待される出力:

      Terraform used the selected providers to generate the following execution plan. Resource actions are indicated with the following symbols: // Terraform は、選択されたプロバイダーを使用して、次の実行プランを生成しました。リソースアクションは、次の記号で示されます。
        + create // 作成
      
      Terraform will perform the following actions: // Terraform は、次のアクションを実行します。
      
        # alicloud_arms_integration_exporter.myKafkaExporter will be created // alicloud_arms_integration_exporter.myKafkaExporter が作成されます。
        + resource "alicloud_arms_integration_exporter" "myKafkaExporter" { // リソース "alicloud_arms_integration_exporter" "myKafkaExporter" {
            + cluster_id       = "c77e1106f429e4b46b0ee1720c*****" // + cluster_id = "c77e1106f429e4b46b0ee1720c*****"
            + id               = (known after apply) // + id = (適用後に分かります)
            + instance_id      = (known after apply) // + instance_id = (適用後に分かります)
            + integration_type = "kafka" // + integration_type = "kafka"
            + param            = jsonencode( // + param = jsonencode(
                  {
                    + ip_ports                     = "abc:8881" // + ip_ports = "abc:8881"
                    + name                         = "my-kafka1" // + name = "my-kafka1"
                    + sasl_enabled                 = "none=sasl.enabled" // + sasl_enabled = "none=sasl.enabled"
                    + sasl_mechanism               = "" // + sasl_mechanism = ""
                    + scrape_interval              = 30 // + scrape_interval = 30
                    + tls_enabled                  = "none=tls.enabled" // + tls_enabled = "none=tls.enabled"
                    + tls_insecure-skip-tls-verify = "none=tls.insecure-skip-tls-verify" // + tls_insecure-skip-tls-verify = "none=tls.insecure-skip-tls-verify"
                    + version                      = "0.10.1.0" // + version = "0.10.1.0"
                  }
              )
          }
      
      Plan: 1 to add, 0 to change, 0 to destroy. // プラン:追加 1、変更 0、破棄 0。
      
      Do you want to perform these actions? // これらのアクションを実行しますか?
        Terraform will perform the actions described above. // Terraform は、上記で説明したアクションを実行します。
        Only 'yes' will be accepted to approve. // 承認するには、「yes」のみを入力してください。
      
        Enter a value: yes // 値を入力してください:yes
                                      

      yes が返された場合、Kafka コンポーネントは Prometheus インスタンスに統合されます。

結果の確認

Managed Service for Prometheus コンソールにログインし、Prometheus インスタンスの [統合センター] ページで Kafka コンポーネントを表示できます。これを行うには、次の手順を実行します。

  1. Managed Service for Prometheus コンソール にログインします。

  2. 左側のナビゲーションペインで、[インスタンス] をクリックします。

  3. 管理する Prometheus インスタンス インスタンスの名前をクリックして、[統合センター] ページに移動します。

  4. [kafka] コンポーネントの [インストール済み] セクションをクリックします。表示されたパネルで、[エクスポーター] タブをクリックします。

Prometheus インスタンスの統合センターからコンポーネントを削除する

手順

次のコマンドを実行して、Terraform を使用して作成されたクラスターを削除できます。

terraform destroy // Terraform で作成されたリソースを破棄します

期待される出力

...
Do you really want to destroy all resources? // すべてのリソースを本当に破棄しますか?
  Terraform will destroy all your managed infrastructure, as shown above. // Terraform は、上記のように、管理対象のすべてのインフラストラクチャを破棄します。
  There is no undo. Only 'yes' will be accepted to confirm. // 元に戻すことはできません。確認するには、「yes」のみを入力してください。

  Enter a value: yes // 値を入力してください:yes
...
Destroy complete! Resources: 1 destroyed. // 破棄完了!リソース:1 個破棄されました。

結果の確認

Managed Service for Prometheus コンソールにログインし、Prometheus インスタンスの [統合センター] ページに移動して、コンポーネントが削除されていることを確認できます。

  1. Managed Service for Prometheus コンソール にログインします。

  2. 左側のナビゲーションペインで、[インスタンス] をクリックします。

  3. 管理する Prometheus インスタンス インスタンスの名前をクリックして、[統合センター] ページに移動します。

  4. [kafka] コンポーネントの [インストール済み] セクションをクリックします。表示されたパネルで、[エクスポーター] タブをクリックします。対応するエクスポーターが存在しない場合、コンポーネントは削除されています。

さまざまなコンポーネントの param フィールドのパラメーター

Kafka ( ベーシック版 )

param フィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

名前は 3 ~ 32 文字で、小文字、数字、ハイフン ( - ) を使用できます。名前は小文字で始める必要があります。

my-kafka1

ip_ports

Kafka アドレス

はい

文字列

Kafka アドレス。形式:service:port または ip:port。複数のアドレスはセミコロン ( ; ) で区切ります。

my_kafka1.ns:9092

scrape_interval

メトリックのスクレイピング間隔 ( 秒 )

はい

整数

モニタリングデータが収集される間隔。単位:秒。

30

version

Kafka バージョン

はい

文字列

Kafka カーネルのバージョン。

2.0.1

sasl_enabled

SASL 有効

はい

文字列

  • SASL を有効にする:sasl.enabled

  • SASL を無効にする:none=sasl.enabled

sasl.enabled

sasl_username

SASL ユーザー名

いいえ

文字列

Simple Authentication and Security Layer ( SASL ) ユーザーのユーザー名。

user1

sasl_password

SASL パスワード

いいえ

文字列

SASL ユーザーのパスワード。

pwd1

sasl_mechanism

SASL メカニズム

はい

文字列

有効な値:

  • Null

  • plain

  • scram-sha512

  • scram-sha256

Null

tls_enabled

TLS 有効

はい

文字列

  • TLS を有効にする:tls.enabled

  • TLS を無効にする:none=tls.enabled

none=tls.enabled

tls_insecure-skip-tls-verify

TLS 検証のスキップ

はい

文字列

  • TLS 検証を有効にする:tls.insecure-skip-tls-verify

  • TLS 検証を無効にする:none=tls.insecure-skip-tls-verify

none=tls.insecure-skip-tls-verify

Kafka ( アドバンスト版 )

param フィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

インスタンス名

はい

文字列

名前は 3 ~ 32 文字で、小文字、数字、ハイフン ( - ) を使用できます。名前は小文字で始める必要があります。

kafka-exporter1

kafka_instance

Kafka インスタンス名

はい

文字列

Managed Service for Prometheus は、この名前を使用して対応する Kafka Producer、Kafka Server、および Kafka Consumer を識別します。

myKafka1

__label_key

Pod/ECS ラベルキー(サービスディスカバリ)

はい

文字列

サービスディスカバリに使用される Pod タグまたは ECS タグのキーです。

kafka

__label_value

Pod/ECS ラベル値

はい

文字列

サービスディスカバリに使用される Pod タグまたは ECS タグの値です。

myKafka1

ポート

JMX エージェントのリスニング ポート

はい

整数

JMX エージェントのリスニング ポート。

5556

metrics_path

メトリックパス

はい

文字列

監視データが保存されるパス。

/metrics

scrape_interval

メトリクスのスクレイピング間隔(秒)

はい

整数

監視データが収集される間隔です。単位:秒。

30

Windows

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

名前は 3 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始める必要があります。

win-exporter1

__label_key

Pod/ECSラベルキー(サービスディスカバリー)

はい

文字列

サービスディスカバリーに使用される Pod タグまたは ECS タグのキー。

win

__label_value

Pod/ECSラベル値

はい

文字列

サービスディスカバリーに使用される Pod タグまたは ECS タグの値。

myWin1

port

エクスポーターリスニングポート

はい

整数

エクスポーターのリスニングポート。

9182

metrics_path

スクレイプパス

はい

文字列

監視データが保存されるパス。

/metrics

scrape_interval

スクレイプ間隔(秒)

はい

整数

監視データが収集される間隔。単位:秒。

30

Nebula

param フィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

名前は 3 ~ 32 文字で、小文字、数字、ハイフン (-) を使用できます。名前は小文字で始める必要があります。

nebula-exporter1

__label_key_metad

MetaD ECS ラベルキー(サービスディスカバリ)

はい

文字列

MetaD サービスディスカバリに使用される ECS タグのキー。

nebula

__label_value_metad

MetaD モニターのラベル値

はい

文字列

MetaD サービスディスカバリに使用される ECS タグの値。

myNebula1

metad_port

MetaD メトリクスリスニングポート

はい

整数

MetaD エクスポーターのリスニングポート。

19559

__label_key_graphd

GraphD ECS ラベルキー(サービスディスカバリ)

はい

文字列

GraphD サービスディスカバリに使用される ECS タグのキー。

nebula

__label_value_graphd

GraphD の ECS タグ値

はい

文字列

GraphD サービスディスカバリに使用される ECS タグの値。

myNebula1

graphd_port

GraphD メトリクスリスニングポート

はい

整数

GraphD エクスポーターのリスニングポート。

19669

__label_key_storaged

StorageD ECS ラベルキー(サービスディスカバリ)

はい

文字列

StorageD サービスディスカバリに使用される ECS タグのキー。

nebula

__label_value_storaged

StorageD モニターのラベル値

はい

文字列

StorageD サービスディスカバリに使用される ECS タグの値。

myNebula1

storaged_port

StorageD メトリクスリスニングポート

はい

整数

StorageD エクスポーターのリスニングポート。

19779

scrape_interval

メトリクスのスクレイピング間隔(秒)

はい

整数

監視データが収集される間隔。単位:秒。

30

TiDB

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

名前は 3 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始める必要があります。

tidb-exporter1

__label_key_tidb

TiDBServer Pod/ECSラベルキー(サービスディスカバリー)

はい

文字列

TiDBServerサービスディスカバリーに使用される ECS タグのキー。

nebula

__label_value_tidb

TiDBServerモニターのラベル値

はい

文字列

TiDBServerサービスディスカバリーに使用される ECS タグの値。

myNebula1

tidb_port

TiDBServerメトリクスリスニングポート

はい

整数

TiDBServer のリスニングポート。

10080

tidb_metrics_path

TiDBServerメトリクスパス

はい

文字列

TiDBServer監視データが格納されているパス。

/metrics

__label_key_tikv

TiKVServer Pod/ECSラベルキー(サービスディスカバリー)

はい

文字列

TiKVServerサービスディスカバリーに使用される ECS タグのキー。

nebula

__label_value_tikv

TiKVServerモニターのラベル値

はい

文字列

TiKVServerサービスディスカバリーに使用される ECS タグの値。

myNebula1

tikv_port

TiKVServerメトリクスリスニングポート

はい

整数

TiKVServer のリスニングポート。

20180

tikv_metrics_path

TiKVServerメトリクスパス

はい

文字列

TiKVServer監視データが格納されているパス。

/metrics

__label_key_tipd

TiPDServer Pod/ECSラベルキー(サービスディスカバリー)

はい

文字列

TiPDServerサービスディスカバリーに使用される ECS タグのキー。

nebula

__label_value_tipd

TiPDServerモニターのラベル値

はい

文字列

TiPDServerサービスディスカバリーに使用される ECS タグの値。

myNebula1

tipd_port

TiPDServerメトリクスリスニングポート

はい

整数

TiPDServer のリスニングポート。

2379

tipd_metrics_path

TiPDServerメトリクスパス

はい

文字列

TiPDServer監視データが格納されているパス。

/metrics

__label_key_ting

TiControlServer Pod/ECSラベルキー(サービスディスカバリー)

はい

文字列

TiControlServerサービスディスカバリーに使用される ECS タグのキー。

nebula

__label_value_ting

ControlServerモニターのラベル値

はい

文字列

TiControlServerサービスディスカバリーに使用される ECS タグの値。

myNebula1

ting_port

TiControlServerメトリクスリスニングポート

はい

整数

TiControlServer のリスニングポート。

12020

ting_metrics_path

TiControlServerメトリクスパス

はい

文字列

TiControlServer監視データが格納されているパス。

/metrics

scrape_interval

メトリクススクレイピング間隔(秒)

はい

整数

監視データが収集される間隔。単位:秒。

30

E-MapReduce

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

インスタンス名

はい

文字列

名前は 3 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始まる必要があります。

taihao-exporter

cluster_id

EMR クラスタ ID

はい

文字列

クラスタ ID は、E-MapReduce(EMR)コンソールから取得できます。

c-7ea355e06e9*****

cluster_name

EMR クラスタ名

はい

文字列

クラスタ名は、EMR コンソールから取得できます。

emr-demo

port

エクスポーター ポート

はい

整数

エクスポーターのリスニング ポート。

9712

metrics_path

スクレイプ パス

はい

文字列

監視データが保存されるパス。

/metrics_preget

scrape_interval

メトリクス スクレイプ間隔(秒)

はい

整数

監視データが収集される間隔。単位:秒。

30

__label_key

ECS ラベルキー(サービス ディスカバリ)

はい

文字列

サービス ディスカバリに使用される ECS タグのキー。

acs:emr:nodeGroupType

__label_value

ECS ラベル値

はい

文字列

サービス ディスカバリに使用される ECS タグの値。複数のタグ値はカンマ (,) で区切ります。タグ値が一致すると、監視データが収集されます。

CORE,MASTER

Knative

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

名前は 3 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始める必要があります。

knative-exporter

scrape_interval

メトリクススクレイピング間隔(秒)

はい

整数

監視データが収集される間隔です。単位:秒。

30

Jenkins

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

インスタンス名

はい

文字列

名前は 3 ~ 32 文字で、小文字、数字、ハイフン (-) を使用できます。名前は小文字で始める必要があります。

jenkins-exporter1

jenkins_server_endpoint

Jenkins サーバーエンドポイント

はい

文字列

アドレスは 3 ~ 32 文字で、小文字、数字、ハイフン (-) を使用できます。アドレスは小文字で始める必要があります。

jenkins-server1

jenkins_server_username

Jenkins サーバーユーザー名

はい

文字列

ユーザー名は 3 ~ 32 文字で、小文字、数字、ハイフン (-) を使用できます。ユーザー名は小文字で始める必要があります。

user1

jenkins_server_password

Jenkins サーバーパスワード

はい

文字列

パスワードは 3 ~ 32 文字で、小文字、数字、ハイフン (-) を使用できます。パスワードは小文字で始める必要があります。

pwd

port

Jenkins エクスポーターリスニングポート

はい

整数

Jenkins エクスポーターのリスニングポート。

9118

metrics_path

メトリクスパス

はい

文字列

監視データが保存されるパス。

/metrics

scrape_interval

メトリクススクレイピング間隔(秒)

はい

整数

監視データが収集される間隔。単位:秒。

30

AHPA

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

名前は 3 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始める必要があります。

ahpa-exporter

scrape_interval

メトリクススクレイピング間隔(秒)

はい

整数

監視データが収集される間隔です。単位:秒。

30

SNMP

param フィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

インスタンス名

はい

文字列

名前は 3 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始める必要があります。

snmp-exporter

device_addr

SNMP デバイス IP アドレス

はい

文字列

SNMP デバイスの IPv4 アドレス。

127.0.0.1

metrics_path

メトリクス パス

はい

文字列

監視データが保存されるパス。

/snmp

dev_community

snmp デバイスのコミュニティ

はい

文字列

SNMP デバイスのコミュニティ。

public

scrape_interval

メトリクス スクラップ間隔(秒)

はい

整数

監視データが収集される間隔。単位:秒。

30

Nginx Ingress Gateway モニター

param フィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

構成名

はい

文字列

名前は 3 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始める必要があります。

ingressv2-exporter

pod_selector_key

Ingress Controller ラベルセレクターキー

はい

文字列

キーは 3 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。キーは小文字で始める必要があります。

app

pod_selector_value

Ingress Controller ラベルセレクター値

はい

文字列

値は 3 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。値は小文字で始める必要があります。

ingress-nginx

pod_namespace_value

Ingress Controller 名前空間

はい

文字列

名前空間は 3 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前空間は小文字で始める必要があります。

kube-system

ingress_class_name_value

Ingress クラス名

はい

文字列

名前は 3 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始める必要があります。

nginx

ClickHouse

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

インスタンス名

はい

文字列

名前は 3 ~ 32 文字で、小文字、数字、ハイフン (-) を使用できます。名前は小文字で始める必要があります。

clickhouse-exporter

ip_port

ClickHouseスクレイピングアドレス

はい

文字列

ClickHouseサービスのアドレスです。形式: ip:port。

127.0.0.1:80

clickhouse_user

ClickHouseユーザー名

はい

文字列

ユーザー名は 3 ~ 32 文字で、小文字、数字、ハイフン (-) を使用できます。ユーザー名は小文字で始める必要があります。

user1

clickhouse_password

ClickHouseパスワード

はい

文字列

パスワードは 3 ~ 32 文字で、小文字、数字、ハイフン (-) を使用できます。パスワードは小文字で始める必要があります。

pwd

scrape_interval

メトリクススクレイピング間隔(秒)

はい

整数

監視データが収集される間隔です。単位:秒。

30

Fluid

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

名前は 3 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始める必要があります。

fluid-exporter

scrape_interval

メトリクスのスクレイプ間隔(秒)

はい

整数

監視データが収集される間隔です。単位:秒。

30

CoreDNS (ASK)

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

値を default に設定します。

default

scrape_interval

メトリクス収集間隔(秒)

はい

整数

監視データが収集される間隔です。単位:秒。

30

マネージド CoreDNS (ASK)

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

値を default に設定します。

default

scrape_interval

メトリクスのスクレイピング間隔(秒)

はい

整数

監視データが収集される間隔です。単位:秒。

30

イングレス パフォーマンスの監視 (ASK)

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

値を default に設定します。

default

scrape_interval

メトリクスのスクレイプ間隔(秒)

はい

整数

監視データが収集される間隔です。単位:秒。

30

MySQL

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

名前は 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始める必要があります。

mysql-exporter

ip

MySQLアドレス

はい

文字列

複数のアドレスはカンマ (,) で区切ります。

127.0.0.1

port

MySQLポート

はい

文字列

MySQLインスタンスのポート。

3306

userName

ユーザー名

はい

文字列

ユーザー名は 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。ユーザー名は小文字で始める必要があります。

user1

password

パスワード

はい

文字列

パスワードは 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。パスワードは小文字で始める必要があります。

pwd

cpu

CPU (コア)

いいえ

文字列

vCPU の数。

100m

memory

メモリ

いいえ

文字列

エクスポーターのメモリ。

50Mi

Redis

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

名前は 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始める必要があります。

redis-exporter

ip

Redisアドレス

はい

文字列

アドレスは 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。アドレスは小文字で始める必要があります。

redis-server

port

Redisポート

はい

文字列

Redisインスタンスのポート。

6379

password

パスワード

いいえ

文字列

パスワードは 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。パスワードは小文字で始める必要があります。

pwd

RabbitMQ

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

名前は 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始める必要があります。

rabbitmq-exporter

ip

RabbitMQアドレス

はい

文字列

アドレスは 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。アドレスは小文字で始める必要があります。

rabbitmq-server

port

RabbitMQポート

はい

文字列

RabbitMQサービスのポート。

15672

userName

ユーザー名

はい

文字列

ユーザー名は 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。ユーザー名は小文字で始める必要があります。

user1

password

パスワード

はい

文字列

パスワードは 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。パスワードは小文字で始める必要があります。

pwd

RocketMQ

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

名前は 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始める必要があります。

rocketmq-exporter

namesrvAddr

RocketMQアドレス

はい

文字列

複数のアドレスはセミコロン (;) で区切ります。

rocketmq-server:8976

accessKey

ユーザー名

いいえ

文字列

ユーザー名は 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。ユーザー名は小文字で始める必要があります。

user1

secretKey

パスワード

いいえ

文字列

パスワードは 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。パスワードは小文字で始める必要があります。

pwd

ZooKeeper

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

名前は 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始める必要があります。

zk-exporter

ip

Zookeeperアドレス

はい

文字列

アドレスは 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。アドレスは小文字で始める必要があります。

zk-server

port

Zookeeperポート

はい

文字列

ZooKeeperサービスのポート。

2181

Windows

param フィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

名前

エクスポーター名

はい

文字列

名前は 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始める必要があります。

mongodb-exporter

ip

MongoDBアドレス

はい

文字列

アドレスは 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を含めることができます。アドレスは小文字で始まる必要があります。

mongodb-server

ポート

MongoDB ポート

はい

文字列

MongoDB インスタンスのポート。

3717

userName

ユーザー名

いいえ

文字列

ユーザー名は 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。ユーザー名は小文字で始まる必要があります。

user1

パスワード

パスワード

いいえ

文字列

パスワードは 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を含めることができます。パスワードは小文字で始める必要があります。

pwd

PostgreSQL

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

名前は 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始める必要があります。

pgsql-exporter

ip

PostgreSQLアドレス

はい

文字列

アドレスは 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。アドレスは小文字で始める必要があります。

pgsql-server

port

PostgreSQLポート

はい

文字列

PostgreSQLインスタンスのポート。

5432

userName

ユーザー名

いいえ

文字列

ユーザー名は 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。ユーザー名は小文字で始める必要があります。

user1

password

パスワード

いいえ

文字列

パスワードは 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。パスワードは小文字で始める必要があります。

pwd

Nebula

param フィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

名前

エクスポーター名

はい

文字列

名前は 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を含めることができます。名前は小文字で始める必要があります。

my-exporter1

__label_key

Pod/ECS ラベルキー(サービスディスカバリ)

はい

文字列

ECS インスタンスまたは Pod からメトリクスを収集するために使用されるタグキーです。

my-app

__label_value

Pod/ECS ラベル値

はい

文字列

ECS インスタンスまたは Pod からメトリクスを収集するために使用されるタグ値です。

java-micrometer1

ポート

MicroMeter リスニング ポート

はい

整数

リスニング ポート。

8080

metrics_path

メトリクスパス

はい

文字列

監視データが保存されるパス。

/actuator/prometheus

scrape_interval

メトリクスのスクレイピング間隔(秒)

はい

整数

監視データが収集される間隔です。単位:秒。

30

Cassandra

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

インスタンス名

はい

文字列

名前は 1 ~ 32 文字で、小文字、数字、ハイフン (-) を使用できます。名前は小文字で始める必要があります。

my-exporter-1

__label_key

ECSラベルキー(サービスディスカバリ)

はい

文字列

サービスディスカバリに使用される ECS タグのキー。

cassandra-prom-jmx

__label_value

ECSラベル値

はい

文字列

サービスディスカバリに使用される ECS タグの値。

my-cassandra-1

port

JMX Agent リスニングポート

はい

整数

JMX リスニングポート。

9103

metrics_path

メトリクスパス

はい

文字列

監視データが保存されるパス。

/metrics

scrape_interval

メトリクススクレイピング間隔(秒)

はい

整数

監視データが収集される間隔。単位:秒。

30

Memcached

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

名前は 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始める必要があります。

my-exporter-1

ip_host

memcachedアドレス

はい

文字列

アドレスは 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。アドレスは小文字で始める必要があります。

memcached-server

scrape_interval

メトリクススクレイピング間隔(秒)

はい

整数

監視データが収集される間隔です。単位:秒。

30

SQLServer

paramフィールドのパラメーター

コンソールのパラメーター

必須

タイプ

説明

name

エクスポーター名

はい

文字列

名前は 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。名前は小文字で始める必要があります。

my-exporter-1

ip

sqlserverアドレス

はい

文字列

アドレスは 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。アドレスは小文字で始める必要があります。

sql-server

port

sqlserverポート

はい

文字列

リスニングポート。

4000

username

sqlserverユーザー名

はい

文字列

ユーザー名は 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。ユーザー名は小文字で始める必要があります。

user1

password

sqlserverパスワード

はい

文字列

パスワードは 1 ~ 32 文字で、小文字、数字、およびハイフン (-) を使用できます。パスワードは小文字で始める必要があります。

pwd

scrape_interval

メトリクススクレイピング間隔(秒)

はい

整数

監視データが収集される間隔。単位:秒。

30