すべてのプロダクト
Search
ドキュメントセンター

Simple Log Service:ログ収集のための Logtail 構成の管理

最終更新日:Jun 27, 2025

このトピックでは、Simple Log Service コンソールでログ収集のための Logtail 構成を作成、表示、変更、および削除する方法について説明します。コンソール操作に加えて、Simple Log Service は APISDK メソッドもサポートしています。

Logtail 構成の概要

Logtail 構成は、ログデータの収集および処理方法に関するコアとなるルールを定義します。その目的は、柔軟な構成を通じて効率的なログ収集、構造化解析、フィルタリング、および処理を可能にすることです。

コンソールでの Logtail 構成は、次の 3 つの部分で構成されます。

  • グローバル構成は、収集されたテキストログを異なるログトピックに整理するために使用されます。

    グローバル構成

    パラメーター

    説明

    構成名

    Logtail 構成の名前。プロジェクト内で一意である必要があります。Logtail 構成の作成後、その名前は変更できません。

    ログトピックタイプ

    ログトピックを生成する方法を選択します。

    • マシングループトピック: Simple Log Service では、Logtail 構成を複数のマシングループに適用できます。トピックを使用して、異なるマシングループからのログを区別します。Logtail がデータをレポートするとき、サーバーのマシングループのトピックをログトピックとしてプロジェクトにアップロードします。ログを照会するときは、ログトピックを照会条件として指定します。

    • ファイルパス抽出: 異なるユーザーまたはアプリケーションがログを異なるトップレベルディレクトリに保存しているが、サブディレクトリとログファイル名が同じである場合、Simple Log Service は収集中にどのユーザーまたはアプリケーションがログを生成したかを明確に区別できません。[ファイルパス抽出] を使用して、異なるユーザーまたはアプリケーションによって生成されたログデータを区別できます。正規表現を使用してファイルパスと完全に一致させ、一致した結果 (ユーザー名またはアプリケーション名) をログトピックとして Simple Log Service にアップロードします。

      ファイルパス抽出シナリオの例

      説明

      ログファイルパスと一致させるために使用される正規表現では、スラッシュ (/) をエスケープする必要があります。

      シナリオ 1: 異なるユーザーが異なるディレクトリにログを記録しますが、ログファイル名は同じです。ディレクトリパスは次のとおりです。

      /data/logs
      ├── userA
      │   └── serviceA
      │       └── service.log
      ├── userB
      │   └── serviceA
      │       └── service.log
      └── userC
          └── serviceA
              └── service.log

      Logtail 構成でファイルパスを /data/logs として、ファイル名を service.log としてのみ構成した場合、Logtail は 3 つの service.log ファイルすべての内容を同じログストアに収集するため、どのユーザーがログを生成したかを区別できません。次の正規表現を指定して、各ログファイルパスから値を抽出できます。各値は一意のログトピックとして使用されます。

      • 正規表現

        \/data\/logs\/(.*)\/serviceA\/.*
      • 抽出結果

        __topic__: userA
        __topic__: userB
        __topic__: userC

      シナリオ 2: 単一のログトピックではログのソースを区別できない場合は、ログファイルパスに複数のキャプチャグループを構成して、重要な情報を抽出します。キャプチャグループには、名前付き (?P<name>) と名前なしのキャプチャグループが含まれます。名前付きキャプチャグループを使用する場合、生成されるタグフィールドは __tag__:{name} です。名前なしのキャプチャグループを使用する場合、生成されるタグフィールドは __tag__:__topic_{i}__ です。ここで、{i} はキャプチャグループの序数です。

      説明

      正規表現に複数のキャプチャグループが存在する場合、__topic__ フィールドは生成されません。

      たとえば、ファイルパスが /data/logs/userA/serviceA/service.log の場合、次の方法を使用してファイルパスから複数の値を抽出できます。

      • 例 1: 正規表現で名前なしキャプチャグループを使用して複数の値を抽出します。

        • 正規表現

          \/data\/logs\/(.*?)\/(.*?)\/service.log
        • 抽出結果

          __tag__:__topic_1__: userA
          __tag__:__topic_2__: serviceA
      • 例 2: 正規表現で名前付きキャプチャグループを使用して複数の値を抽出します。

        • 正規表現

          \/data\/logs\/(?P<user>.*?)\/(?P<service>.*?)\/service.log
        • 抽出結果

          __tag__:user: userA
          __tag__:service: serviceA

      検証: 構成後、ログトピックでログを照会します。ログの照会と分析ページで、__topic__: userA__tag__:__topic_1__: userA など、生成された対応するログトピックを入力して、それぞれのトピックのログを照会します。詳細については、「クエリ構文と機能」をご参照ください。

      image

    • カスタム: customized:// + カスタムトピック名 を入力して、カスタム静的ログトピックを使用します。

    詳細パラメーター

    グローバル構成に関連するその他のオプションの詳細パラメーターについては、「Logtail パイプライン構成の作成」をご参照ください。

  • 入力構成は、収集の詳細を定義するために使用されます。

    入力構成

    パラメーター

    説明

    ファイルパス

    サーバー (Elastic Compute Service ( ECS ) インスタンスなど) 上のログの場所に基づいて、ログファイルのディレクトリと名前を指定します。

    • Linux のファイルパスはスラッシュ (/) で始まる必要があります。例: /apsara/nuwa/**/app.Log

    • Windows のファイルパスはドライブ文字で始まる必要があります。例: C:\Program Files\Intel\**\*.Log

    正確なディレクトリと正確な名前を指定できます。また、ワイルドカード文字 を使用して、ディレクトリと名前を指定することもできます。このパラメーターを構成するときは、ワイルドカード文字としてアスタリスク (*) または疑問符 (?) のみを使用してください。

    Simple Log Service は、指定されたディレクトリのすべてのレベルをスキャンして、指定された条件に一致するログファイルを検索します。例:

    • /apsara/nuwa/**/*.log を指定すると、Simple Log Service は /apsara/nuwa ディレクトリとその再帰的なサブディレクトリにある .log で終わるログファイルからログを収集します。

    • /var/logs/app_*/**/*.log を指定すると、Simple Log Service は次の条件を満たすログファイルからログを収集します。ファイル名は .log で終わります。ファイルは /var/logs ディレクトリまたはその再帰的なサブディレクトリのいずれかのサブディレクトリに保存されます。サブディレクトリの名前は app_* パターンと一致します。

    • /var/log/nginx/**/access* を指定すると、Simple Log Service は access で始まる名前のログファイルからログを /var/log/nginx ディレクトリとその再帰的なサブディレクトリから収集します。

    ディレクトリ監視の最大深度

    監視するサブディレクトリの最大レベル数を指定します。サブディレクトリは、指定したログファイルディレクトリにあります。このパラメーターは、[ファイルパス] の値に含まれる ** ワイルドカード文字で一致できるサブディレクトリのレベルを指定します。値 0 は、指定したログファイルディレクトリのみが監視されることを指定します。

    ファイルエンコーディング

    ログファイルのエンコーディング形式を選択します。

    初回収集サイズ

    Logtail がログファイルから初めてデータを収集するときに収集できるデータサイズを指定します。デフォルト値: 1024。単位: KB。

    • 1,024 KB 未満の場合、Logtail はファイルの先頭からデータを収集します。

    • 1,024 KB を超える場合、Logtail はファイルの最後の 1,024 KB のデータを収集します。

    ビジネス要件に基づいて [初回収集サイズ] を構成できます。有効な値: 0 ~ 10485760。単位: KB。

    収集ブラックリスト

    これを有効にした場合は、Simple Log Service がログを収集するときにスキップするディレクトリまたはファイルを指定するブラックリストを構成します。正確なディレクトリとファイル名を指定できます。また、ワイルドカード文字を使用してディレクトリとファイル名を指定することもできます。このパラメーターを構成するときは、ワイルドカード文字としてアスタリスク (*) または疑問符 (?) のみを使用できます。

    重要
    • [ファイルパス] の値を指定するためにワイルドカード文字を使用し、指定したディレクトリ内の一部のサブディレクトリをスキップする場合は、[収集ブラックリスト] を構成してサブディレクトリを指定します。完全なサブディレクトリを指定する必要があります。

      たとえば、[ファイルパス]/home/admin/app*/log/*.log に設定し、/home/admin/app1* ディレクトリ内のすべてのサブディレクトリをスキップする場合は、[ディレクトリブラックリスト] を選択し、ディレクトリ名フィールドに /home/admin/app1*/** と入力します。/home/admin/app1* と入力した場合、ブラックリストは有効になりません。

    • ブラックリストを使用している場合、計算オーバーヘッドが発生します。ブラックリストごとに最大 10 エントリを推奨します。

    • スラッシュ (/) で終わるディレクトリは指定できません。たとえば、/home/admin/dir1/ ディレクトリを指定した場合、ディレクトリブラックリストは有効になりません。

    次のタイプのブラックリストがサポートされています。

    ファイルパスブラックリスト

    • [ファイルパスブラックリスト] を選択し、ファイルパス名フィールドに /home/admin/private*.log と入力すると、/home/admin/ ディレクトリにある private で始まり .log で終わるすべてのファイルがスキップされます。

    • [ファイルパスブラックリスト] を選択し、ファイルパス名フィールドに /home/admin/private*/*_inner.log と入力すると、/home/admin/ ディレクトリにある private で始まるサブディレクトリにある _inner.log で終わるすべてのファイルがスキップされます。たとえば、/home/admin/private/app_inner.log ファイルはスキップされますが、/home/admin/private/app.log ファイルはスキップされません。

    ファイルブラックリスト

    [ファイルブラックリスト] を選択し、ファイル名フィールドに app_inner.log と入力すると、名前が app_inner.log であるすべてのファイルがスキップされます。

    ディレクトリブラックリスト

    • [ディレクトリブラックリスト] を選択し、ディレクトリ名フィールドに /home/admin/dir1 と入力すると、/home/admin/dir1 ディレクトリ内のすべてのファイルがスキップされます。

    • [ディレクトリブラックリスト] を選択し、ディレクトリ名フィールドに /home/admin/dir* と入力すると、/home/admin/ ディレクトリにある dir で始まるサブディレクトリ内のすべてのファイルがスキップされます。

    • [ディレクトリブラックリスト] を選択し、ディレクトリ名フィールドに /home/admin/*/dir と入力すると、/home/admin/ ディレクトリの各第 2 レベルサブディレクトリにある dir サブディレクトリ内のすべてのファイルがスキップされます。たとえば、/home/admin/a/dir ディレクトリ内のファイルはスキップされますが、/home/admin/a/b/dir ディレクトリ内のファイルはスキップされません。

    ファイルの複数回収集を許可する

    デフォルトでは、1 つの Logtail 構成のみを使用して、ログファイルからログを収集できます。ログファイルからログの複数のコピーを収集する場合は、[ファイルの複数回収集を許可する] をオンにします。

    詳細パラメーター

    オプション。入力プロセッサに関連する詳細パラメーターを構成します。詳細については、「CreateLogtailPipelineConfig」をご参照ください。

  • プロセッサ構成は、生のログを構造化データに変換するために使用されます。

    プロセッサ構成

    パラメーター

    説明

    ログサンプル

    実際のシナリオから収集されたサンプルログを追加します。サンプルログを使用すると、ログ処理に関連するパラメーターを簡単に構成できます。複数のサンプルログを追加できます。サンプルログの合計の長さが 1,500 文字を超えないようにしてください。

    [2023-10-01T10:30:01,000] [INFO] java.lang.Exception: exception happened
        at TestPrintStackTrace.f(TestPrintStackTrace.java:3)
        at TestPrintStackTrace.g(TestPrintStackTrace.java:7)
        at TestPrintStackTrace.main(TestPrintStackTrace.java:16)

    複数行モード

    • 複数行ログのタイプを指定します。複数行ログは、複数の連続した行にまたがっています。このパラメーターを構成して、ログファイル内の各複数行ログを識別できます。

      • カスタム: 複数行ログは、[最初の行と一致する正規表現] の値に基づいて識別されます。

      • 複数行 JSON: 各 JSON オブジェクトは複数行に展開されます。例:

        {
          "name": "John Doe",
          "age": 30,
          "address": {
            "city": "New York",
            "country": "USA"
          }
        }
    • [分割に失敗した場合の処理方法] を構成します。

      Exception in thread "main" java.lang.NullPointerException
          at com.example.MyClass.methodA(MyClass.java:12)
          at com.example.MyClass.methodB(MyClass.java:34)
          at com.example.MyClass.main(MyClass.java:½0)

      上記のサンプルログの場合、Simple Log Service は、ログの分割に失敗した場合、ログを破棄するか、各単一行をログとして保持できます。

      • 破棄: ログは破棄されます。

      • 単一行を保持: ログの各行がログとして保持されます。合計 4 つのログが保持されます。

    処理方法

    必要に応じて プロセッサ を追加します。データ処理のためにネイティブプロセッサと拡張プロセッサを追加できます。

    重要

    プロセッサの使用制限については、コンソールページのプロンプトを参照してください。

    • Logtail V2.0

      • データ処理のためにネイティブプロセッサを任意に組み合わせることができます。

      • ネイティブプロセッサと拡張プロセッサを組み合わせることができます。拡張プロセッサは、シーケンス内のネイティブプロセッサの後に続く必要があります。

    • V2.0 より前の Logtail

      • ネイティブプロセッサと拡張プロセッサを同時に追加することはできません。

      • ネイティブプロセッサを使用してテキストログのみを収集できます。ネイティブプロセッサを追加する場合は、次の点に注意してください。

        • 最初に、次の Logtail プロセッサのいずれかを追加する必要があります。データ解析 (正規表現モード)、データ解析 (デリミタモード)、データ解析 (JSON モード)、データ解析 (NGINX モード)、データ解析 (Apache モード)、およびデータ解析 (IIS モード)。

        • 最初のプロセッサを追加した後、時間解析プロセッサ、データフィルタリングプロセッサ、および複数のデータマスキングプロセッサを追加できます。

      • [解析に失敗した場合に元のフィールドを保持する] パラメーターと [解析に成功した場合に元のフィールドを保持する] パラメーターを構成する場合、使用できるパラメーターの組み合わせは次のとおりです。その他の組み合わせについては、Simple Log Service は構成の効果を保証しません。

        • 解析されたログをアップロードします。

          image

        • 解析に成功した後に取得されたログをアップロードし、解析に失敗した場合は生のログをアップロードします。

          image

        • 解析後に取得されたログをアップロードします。解析に成功した場合は生のログフィールドをログに追加し、解析に失敗した場合は生のログを追加します。

          たとえば、生のログが "content": "{"request_method":"GET", "request_time":"200"}" で、解析に成功した場合、システムは [元のフィールドの新しい名前] パラメーターで指定された生のログフィールドを追加します。パラメーターを構成しない場合は、元のフィールド名が使用されます。フィールド値は {"request_method":"GET", "request_time":"200"} です。

          image

Logtail 構成を作成する

  1. Simple Log Service コンソール にログインします。 [プロジェクト] セクションで、目的のプロジェクトをクリックします。

    image

  2. ログストアを見つけ、[データ収集] > [Logtail 構成] > [Logtail 構成を追加] を選択します。[今すぐ統合] をクリックします。この例では、[正規表現 - テキストログ] が使用されます。これは、正規表現マッチングを使用してテキストログが解析されることを意味します。image

  3. [サーバー][ECS] を選択します。以前に作成したマシングループを選択し、[>] ボタンをクリックして、適用されたマシングループに追加します。次に、[次へ] をクリックします。利用可能なマシングループがない場合は、「マシングループの作成」をご参照ください。image

  4. [グローバル構成] で、構成名を入力します。[その他のグローバル構成] で、ログトピックを設定します。

    imageログトピックの構成項目は次のように説明されています。詳細なパラメーターについては、「グローバル構成パラメーター」をご参照ください。

    • マシングループトピック: これを選択した場合は、マシングループの作成時に構成する必要があります。

    • ファイルパス抽出: これを選択した場合は、正規表現を構成する必要があります。

    • カスタム: これを選択した場合は、customized:// + カスタムトピック名 を入力して、カスタム静的ログトピックを使用する必要があります。

  5. [入力構成] で、ログ収集のパスを表す [ファイルパス] を構成します。ログパスはスラッシュ (/) で始まる必要があります (例: /data/wwwlogs/main/**/*.Log)。これは、/data/wwwlogs/main ディレクトリにある .Log サフィックスのファイルを意味します。監視対象のログディレクトリの最大深度 (つまり、[ファイルパス] のワイルドカード ** が一致できる最大ディレクトリ深度) を設定するには、ディレクトリ監視の最大深度の値を変更します。値 0 は、指定したログファイルディレクトリのみが監視されることを指定します。詳細なパラメーターについては、「入力構成パラメーター」をご参照ください。

    image

  6. [プロセッサ構成] で、[ログサンプル][複数行モード][処理方法] を設定します。image

    1. [ログサンプル] フィールドにサンプルログを追加することをお勧めします。サンプルログは、ログ処理関連のパラメーターを簡単に構成するのに役立ちます。このフィールドを構成する場合は、実際の収集シナリオのサンプルログを使用してください。

    2. 必要に応じて [複数行モード] をオンにします。複数行ログは、複数の連続した行にまたがっています。オフにすると、Simple Log Service は単一行モードでログを収集します。各ログは 1 行に配置されます。オンにした場合は、次のパラメーターを構成します。

      • タイプ

        • カスタム: 生ログの形式が固定されていない場合は、[最初の行と一致する正規表現] を構成して、各ログの最初の行を識別します。たとえば、正規表現 \[\d+-\d+-\w+:\d+:\d+,\d+]\s\[\w+]\s.* を使用して、例の 5 行の生データを 2 つのログに分割できます。「最初の行と一致する正規表現」パラメーターの値は、データの行全体と一致する必要があることに注意してください。

          [2023-10-01T10:30:01,000] [INFO] java.lang.Exception: exception happened
              at TestPrintStackTrace.f(TestPrintStackTrace.java:3)
              at TestPrintStackTrace.g(TestPrintStackTrace.java:7)
              at TestPrintStackTrace.main(TestPrintStackTrace.java:16)
          [2023-10-01T10:31:01,000] [INFO] java.lang.Exception: exception happened
        • 複数行 JSON: 生ログが標準 JSON 形式の場合は、[タイプ][複数行 JSON] に設定します。Logtail は、JSON 形式のログ内で発生する改行を自動的に処理します。

      • 分割に失敗した場合の処理方法:

        • 破棄: テキストを破棄します。

        • 単一行を保持: テキストの各行をログとして保存します。

    3. プロセッサ: [処理方法][プロセッサ] に設定します。プロセッサはログを分割するように構成されています。この例では、Logtail は完全な正規表現モードでテキストログを収集し、データ解析 (正規表現モード) プロセッサが自動的に生成されます。必要に応じて他のプロセッサを使用できます。

      以下では、一般的なプロセッサについて説明します。時間解析、フィルタリング、データマスキングなどのその他のプロセッサ機能については、「処理プラグイン」をご参照ください。Simple Log Service は、従来のプロセッサと同様の機能を実装しながら、より高い処理効率を特徴とする SPL ベースのデータ処理も提供しています。詳細については、「Logtail SPL を使用してログを解析する」をご参照ください。

      データ解析 (正規表現モード)

      1. [データ解析 (正規表現モード)] をクリックして、プロセッサ構成ページに移動します。image

      2. 正規表現を構成し、抽出された値に基づいてキーを指定します。[正規表現] の下の [生成] をクリックします。次に、ログサンプルの内容を選択し、[正規表現を生成] をクリックして、選択した内容の正規表現を自動的に生成します。

        image

      3. 正規表現が生成された後、[抽出されたフィールド] で、抽出された値に基づいてキーを指定します。これらのキーと値のペアを使用してインデックスを作成できます。

        image

      詳細については、「データ解析 (正規表現モード)」をご参照ください。

      データ解析 (JSON モード)

      重要

      収集された JSON ログを処理するには、データ解析 (JSON モード) プロセッサを追加します。JSON ログは、オブジェクト形式または配列形式にすることができます。オブジェクトログにはキーと値のペアが含まれ、配列ログには値の順序付きリストが含まれます。データ解析 (JSON モード) プロセッサは、オブジェクトタイプの JSON ログを解析し、最初のレイヤーからキーと値のペアを抽出できます。抽出されたキーはフィールド名になり、値はフィールド値になります。プロセッサは、配列タイプの JSON ログを解析できません。より詳細な処理については、「拡張プラグイン: JSON フィールドを展開する」をご参照ください。

      必要に応じて [複数行モード] をオンにします。オンにした場合は、次の手順を実行します。

      1. [タイプ][複数行 JSON] に設定します。

      2. [分割に失敗した場合の処理方法][単一行を保持] に設定します。

        image

      3. [処理方法] リストから [データ解析 (正規表現モード)] を削除し、[データ解析 (JSON モード)] を追加します。

      image

      次の表に、データ解析 (JSON モード) のパラメーターを示します。

      パラメーター名

      説明

      元のフィールド

      解析前にログの内容を格納する元のフィールド。デフォルト値: content

      解析に失敗した場合に元のフィールドを保持する

      選択すると、解析に失敗した場合に元のフィールドが保持されます。

      解析に成功した場合に元のフィールドを保持する

      選択すると、解析に成功した場合に元のフィールドが保持されます。

      元のフィールドの新しい名前

      [解析に失敗した場合に元のフィールドを保持する] または [解析に成功した場合に元のフィールドを保持する] を選択した後、生のログの内容を格納する元のフィールドの名前を変更します。

      詳細については、「データ解析 (JSON モード)」をご参照ください。

      データ解析 (デリミタモード)

      説明

      データ解析 (デリミタモード) プロセッサを使用して、特定のデリミタに基づいてログを複数のキーと値のペアに解析します。

      [処理方法] リストからデータ解析 (正規表現モード) プロセッサを削除し、データ解析 (デリミタモード) プロセッサを追加します。image

      次の表に、データ解析 (デリミタモード) プロセッサのパラメーターを示します。

      パラメーター

      説明

      元のフィールド

      解析前にログの内容を格納する元のフィールド。デフォルト値: content。

      デリミタ

      ログフィールドを抽出する基準となるデリミタ。[縦棒] (|) など、実際のログの内容に基づいてデリミタを選択します。

      説明

      [印刷不可文字] をデリミタとして選択した場合は、ASCII テーブルで非表示文字の 16 進値を見つけ、0x<ASCII テーブルの非表示文字の 16 進値> の形式で入力します。たとえば、ASCII テーブルの最初の非表示文字は 0x01 です。

      見積もり

      ログフィールドの内容にデリミタが含まれている場合は、内容を囲む引用符を指定する必要があります。引用符で囲まれた内容は、Simple Log Service によって完全なフィールドとして解析されます。収集するログの形式に基づいて引用符を選択する必要があります。

      説明

      [印刷不可文字] を引用符として選択した場合は、ASCII テーブルで非表示文字の 16 進値を見つけ、0x<ASCII テーブルの非表示文字の 16 進値> の形式で入力します。たとえば、ASCII テーブルの最初の非表示文字は 0x01 です。

      抽出されたフィールド

      • ログサンプルを構成すると、Simple Log Service はログサンプルと選択したデリミタに基づいてログの内容を抽出し、内容を値として定義します。各値のキーを指定します。

      • サンプルログを指定しない場合、[値] 列は使用できません。実際のログとデリミタに基づいてキーを指定します。

      キーには、文字、数字、アンダースコア (_) のみを含めることができ、文字またはアンダースコア (_) で始める必要があります。キーの長さは最大 128 バイトです。

      欠落フィールドを許可する

      ログから抽出された値の数がキーの数よりも少ない場合に、Simple Log Service にログをアップロードするかどうかを指定します。[欠落フィールドを許可する] を選択すると、ログがアップロードされます。

      たとえば、ログが 11|22|33|44 で、デリミタが縦棒 (|) で、キーが ABCDE であるとします。

      • [欠落フィールドを許可する] を選択すると、E フィールドの値は空になり、ログは Simple Log Service にアップロードされます。

      • そうでない場合、ログは破棄されます。

        説明

        Linux Logtail 1.0.28 以降または Windows Logtail 1.0.28.0 以降では、デリミタモード構成の [欠落フィールドを許可する] パラメーターがサポートされています。

      超過部分が割り当てられるフィールドの処理方法

      抽出された値の数が指定されたキーを超えた場合に、超過値を処理する方法。有効な値:

      • 展開: 超過値を保持し、__column$i__ 形式のフィールドに追加します。ここで、$i は超過フィールドのシーケンス番号を表し、0 から始まります。例: __column0____column1__

      • 保持: 超過値を保持し、__column0__ という名前のフィールドに追加します。

      • 破棄: 超過値を破棄します。

      解析に失敗した場合に元のフィールドを保持する

      解析に失敗した場合に元のフィールドを保持します。

      解析に成功した場合に元のフィールドを保持する

      解析に成功した場合に元のフィールドを保持します。

      元のフィールドの新しい名前

      [解析に失敗した場合に元のフィールドを保持する] または [解析に成功した場合に元のフィールドを保持する] を選択した後、生のログの内容を格納する元のフィールドの名前を変更します。

      詳細については、「データ解析 (デリミタモード)」をご参照ください。

      データ解析 (Apache モード)

      説明

      データ解析 (Apache モード) プロセッサを使用して、Apache 構成ファイルで指定したログ形式に基づいて Apache ログを構造化データに解析します。ログは複数のキーと値のペアに解析されます。

      手順

      [処理方法] リストからデータ解析 (正規表現モード) プロセッサを削除し、データ解析 (Apache モード) プロセッサを追加します。

      image

      次の表に、データ解析 (Apache モード) プロセッサのパラメーターを示します。

      パラメーター名

      説明

      ログ形式

      Apache 構成ファイルで定義されているログ形式 (common、combined、custom など) を選択します。

      APACHE LogFormat 構成

      Apache 構成ファイルで指定されたログ構成セクション。ほとんどの場合、セクションは LogFormat で始まります。

      • [ログ形式][common] または [combined] に設定すると、対応する形式の構成フィールドが自動的に入力されます。形式が Apache 構成ファイルで定義されている形式と一致していることを確認します。

      • [ログ形式][カスタム] に設定した場合は、必要に応じてこのフィールドに入力します (例: LogFormat "%h %l %u %t \"%r\" %>s %b \"%{Referer}i\" \"%{User-Agent}i\" %D %f %k %p %q %R %T %I %O" customized)。

      元のフィールド

      解析前にログの内容を格納する元のフィールド。デフォルト値: content。

      正規表現

      Apache ログを抽出する正規表現。Simple Log Service は、[APACHE LogFormat 構成] の内容に基づいてこの正規表現を自動的に生成します。

      抽出されたフィールド

      [APACHE LogFormat 構成] の内容に基づいてログフィールド (キー) を自動的に生成します。

      解析に失敗した場合に元のフィールドを保持する

      解析に失敗した場合に元のフィールドを保持します。

      解析に成功した場合に元のフィールドを保持する

      解析に成功した場合に元のフィールドを保持します。

      元のフィールドの新しい名前

      [解析に失敗した場合に元のフィールドを保持する] または [解析に成功した場合に元のフィールドを保持する] を選択した後、生のログの内容を格納する元のフィールドの名前を変更します。

      詳細については、「データ解析 (Apache モード)」をご参照ください。

      データ解析 (NGINX モード)

      説明

      データ解析 (NGINX モード) プロセッサを使用して、NGINX 構成ファイルで指定したログ形式に基づいて NGINX ログを構造化データに解析します。ログは複数のキーと値のペアに解析されます。

      [処理方法] リストからデータ解析 (正規表現モード) プロセッサを削除し、データ解析 (NGINX モード) プロセッサを追加します。

      image

      次の表に、データ解析 (NGINX モード) プロセッサのパラメーターを示します。

      パラメーター名

      説明

      NGINX ログ構成

      Nginx 構成ファイルのログ構成セクションは、log_format で始まります。例:

      log_format main  '$remote_addr - $remote_user [$time_local] "$request" '
                       '$request_time $request_length '
                       '$status $body_bytes_sent "$http_referer" '
                       '"$http_user_agent"';

      詳細については、「Nginx ログの概要」をご参照ください。

      元のフィールド

      解析前にログの内容を格納する元のフィールド。デフォルト値: content。

      正規表現

      NGINX ログを抽出するために使用される正規表現。Simple Log Service は、[NGINX ログ構成] の内容に基づいてこの正規表現を自動的に生成します。

      抽出されたフィールド

      [NGINX ログ構成] に基づいて対応するログフィールド (キー) を自動的に抽出します。

      解析に失敗した場合に元のフィールドを保持する

      解析に失敗した場合に元のフィールドを保持します。

      解析に成功した場合に元のフィールドを保持する

      解析に成功した場合に元のフィールドを保持します。

      元のフィールドの新しい名前

      [解析に失敗した場合に元のフィールドを保持する] または [解析に成功した場合に元のフィールドを保持する] を選択した後、生のログの内容を格納する元のフィールドの名前を変更します。

      詳細については、「データ解析 (NGINX モード)」をご参照ください。

      データ解析 (IIS モード)

      説明

      データ解析 (IIS モード) プロセッサを使用して、IIS 構成ファイルで指定したログ形式に基づいて IIS ログを構造化データに解析します。ログは複数のキーと値のペアに解析されます。

      image

      次の表に、データ解析 (IIS モード) プロセッサのパラメーターを示します。

      パラメーター名

      説明

      ログ形式

      IIS サーバーログで使用されるログ形式を選択します。

      • IIS: Microsoft IIS ログファイル形式。

      • NCSA: NCSA 共通ログファイル形式。

      • W3C: W3C 拡張ログファイル形式。

      IIS 構成フィールド

      IIS 構成フィールド:

      • ログ形式を IIS または NCSA に設定すると、システムは IIS 構成フィールドを自動的に指定します。

      • ログ形式を W3C に設定すると、IIS 構成ファイルの logExtFileFlags パラメーターの内容を指定します。例:

        logExtFileFlags="Date, Time, ClientIP, UserName, SiteName, ComputerName, ServerIP, Method, UriStem, UriQuery, HttpStatus, Win32Status, BytesSent, BytesRecv, TimeTaken, ServerPort, UserAgent, Cookie, Referer, ProtocolVersion, Host, HttpSubStatus"
        • IIS5 構成ファイルのデフォルトパス: C:\WINNT\system32\inetsrv\MetaBase.bin

        • IIS6 構成ファイルのデフォルトパス: C:\WINDOWS\system32\inetsrv\MetaBase.xml

        • IIS7 構成ファイルのデフォルトパス: C:\Windows\System32\inetsrv\config\applicationHost.config

      元のフィールド

      解析前にログの内容を格納する元のフィールド。デフォルト値: content。

      正規表現

      IIS ログを抽出するために使用される正規表現。Simple Log Service は、[IIS 構成フィールド] の内容に基づいてこの正規表現を自動的に生成します。

      抽出されたフィールド

      [IIS 構成フィールド] の内容に基づいてログフィールド (キー) を自動的に生成します。

      解析に失敗した場合に元のフィールドを保持する

      解析に失敗した場合に元のフィールドを保持します。

      解析に成功した場合に元のフィールドを保持する

      解析に成功した場合に元のフィールドを保持します。

      元のフィールドの新しい名前

      [解析に失敗した場合に元のフィールドを保持する] または [解析に成功した場合に元のフィールドを保持する] を選択した後、生のログの内容を格納する元のフィールドの名前を変更します。

      詳細については、「データ解析 (IIS モード)」をご参照ください。

      SPL ベースのデータ処理

      Simple Log Service は、カスタム SPL ベースのデータ処理を提供します。従来のプラグインと比較して、SPL ベースの処理は高速で効率的であり、使いやすくなっています。これにより、Simple Log Service の全体的な機能が強化され、SPL ステートメントとその計算機能を使用してデータを処理できます。詳細については、以下のトピックを参照してください。

Logtail 構成を表示する

  1. Simple Log Service コンソール にログインします。

  2. 管理するプロジェクトを [プロジェクト] セクションでクリックします。

    image

  3. [ログストレージ] > [ログストア] タブで、ターゲットログストアの前にある [>] アイコンをクリックし、[データ収集] > [Logtail 構成] を選択します。

  4. ターゲット Logtail 構成をクリックして、詳細を表示します。

Logtail 構成を変更する

  1. Simple Log Service コンソール にログインします。

  2. 管理するプロジェクトを [プロジェクト] セクションでクリックします。

    image

  3. [ログストレージ] > [ログストア] タブで、ターゲットログストアの前にある [>] アイコンをクリックし、[データ収集] > [Logtail 構成] を選択します。

  4. [Logtail 構成] リストで、ターゲット Logtail 構成をクリックします。

  5. [Logtail 構成] ページで、[編集] をクリックします。

  6. 構成を変更し、[保存] をクリックします。

    詳細については、「Logtail 構成の概要」をご参照ください。

Logtail 構成を削除する

  1. [Logtail 構成] リストで、ターゲット Logtail 構成を選択し、[操作] 列の [削除] をクリックします。

  2. [削除] ダイアログボックスで、[OK] をクリックします。

    Logtail 構成が削除されると、マシングループからデタッチされ、Logtail は構成に基づいてログの収集を停止します。

    説明

    ログストアを削除するには、最初にそれに関連付けられているすべての Logtail 構成を削除する必要があります。