すべてのプロダクト
Search
ドキュメントセンター

Simple Log Service:クエリと分析

最終更新日:Dec 21, 2025

このトピックでは、Simple Log Service のクエリと分析に関する制限について説明します。

Logstore

クエリ

項目

説明

キーワード数

検索条件として使用されるキーワードの数です。論理演算子の数は含まれません。検索文には最大 30 個のキーワードを指定できます。

フィールド値のサイズ

フィールド値の最大サイズは 512 KB です。超過した部分は検索対象外となります。

フィールド値のサイズが 512 KB を超える場合、キーワードでログを取得できないことがありますが、ログは実際に Logstore に保存されています。

説明

ログフィールド値の最大長を設定する方法については、「ログのクエリと分析時にフィールド値が切り捨てられるのはなぜですか?」をご参照ください。

同時検索文の最大数

各プロジェクトは、最大 100 の同時検索文をサポートします。

たとえば、100 人のユーザーが、あるプロジェクトのすべての Logstore で同時に検索文を実行できます。

返される結果

返されたログは複数のページに表示されます。各ページには最大 100 件のログが表示されます。

あいまい検索

あいまい検索では、SLS は指定された条件に一致する最大 100 個の単語を照合し、検索条件に一致し、かつこれらの単語の 1 つ以上を含むログを返します。詳細については、「あいまい検索」をご参照ください。

検索結果のデータソート

デフォルトでは、検索結果は秒単位で正確な時間の降順で表示されます。検索結果がナノ秒単位で返される場合、検索結果はナノ秒単位で正確な時間の降順で表示されます。

分析

制限

標準インスタンス

専用 SQL インスタンス

SQL 拡張

完全な精度

同時実行数

プロジェクトあたり最大 15 の同時クエリ。

プロジェクトあたり最大 100 の同時クエリ。

プロジェクトあたり最大 5 の同時クエリ。

データ量

1 回のクエリでスキャンできるログデータは最大 400 MB (キャッシュデータを除く) です。この制限を超えるデータは切り捨てられ、不完全なクエリ結果としてマークされます。

1 回のクエリでスキャンできるログデータは最大 2 GB (キャッシュデータを除く) です。この制限を超えるデータは切り捨てられ、不完全なクエリ結果としてマークされます。

無制限。

有効化の方法

デフォルトで、ログ分析機能は有効になっています。

専用 SQL を手動で有効にするためのスイッチが提供されています。

専用 SQL を手動で有効にするためのスイッチが提供されています。

料金

無料。

実際の CPU 時間に基づいて課金されます。

実際の CPU 時間に基づいて課金されます。

データ有効性メカニズム

ログ分析機能が有効になった後に Simple Log Service に書き込まれたデータのみを分析できます。

既存データを分析する必要がある場合は、既存データのインデックスを再作成する必要があります。

ログ分析機能が有効になった後に Simple Log Service に書き込まれたデータのみを分析できます。

既存データを分析する必要がある場合は、既存データのインデックスを再作成する必要があります。

ログ分析機能が有効になった後に Simple Log Service に書き込まれたデータのみを分析できます。

既存データを分析する必要がある場合は、既存データのインデックスを再作成する必要があります。

返される結果

デフォルトでは、分析は最大 100 行、100 MB のデータを返します。100 MB を超えるとエラーが発生します。

より多くのデータを返す必要がある場合は、LIMIT 句を使用してください。

デフォルトでは、分析は最大 100 行、100 MB のデータを返します。100 MB を超えるとエラーが発生します。

より多くのデータを返す必要がある場合は、LIMIT 句を使用してください。

デフォルトでは、分析は最大 100 行、100 MB のデータを返します。100 MB を超えるとエラーが発生します。

より多くのデータを返す必要がある場合は、LIMIT 句を使用してください。

フィールドの最大長

単一フィールドのデフォルトの最大長は 2,048 バイト (2 KB) で、最大 16,384 バイト (16 KB) まで調整できます。この制限を超えるデータは、ログのクエリと分析に含まれません。

説明

この上限を変更するには、[最大フィールド長] を調整します。変更は新しいデータにのみ適用されます。詳細については、「インデックスの作成」をご参照ください。

単一フィールドのデフォルトの最大長は 2,048 バイト (2 KB) で、最大 16,384 バイト (16 KB) まで調整できます。この制限を超えるデータは、ログのクエリと分析に含まれません。

説明

この制限を変更するには、[最大フィールド長] を調整します。変更は新規データにのみ適用されます。詳細については、「インデックスを作成する」をご参照ください。

単一フィールドのデフォルトの最大長は 2,048 バイト (2 KB) で、最大 16,384 バイト (16 KB) まで調整できます。この制限を超えるデータは、ログのクエリと分析に含まれません。

説明

この制限を変更するには、[最大フィールド長] を調整します。変更は、新しいデータにのみ適用されます。詳細については、「インデックスを作成する」をご参照ください。

タイムアウト期間

分析操作の最大タイムアウト期間は 55 秒です。

分析操作の最大タイムアウト期間は 55 秒です。

分析操作の最大タイムアウト期間は 55 秒です。

double 型フィールド値のビット数

double 型のフィールド値は 52 ビットに制限されています。これを超えると、浮動小数点数の精度が失われる可能性があります。

double 型のフィールド値は 52 ビットに制限されています。これを超えると、浮動小数点数の精度が失われる可能性があります。

double 型のフィールド値は 52 ビットに制限されています。これを超えると、浮動小数点数の精度が失われる可能性があります。

MetricStore

制限

説明

API リスト

サポートされているのは、/query、/query_range、/labels、/label/{label}/values、および /series API 操作のみです。

データ仕様

  1. メトリック名は正規表現 [a-zA-Z_:][a-zA-Z0-9_:]* に一致する必要があります。

  2. ラベルキーは正規表現 [a-zA-Z_][a-zA-Z0-9_]* に一致する必要があります。ラベル値に縦線 (|) を含めることはできません。その他の制限はありません。

その他の制限については、「時系列データ (メトリック)」をご参照ください。

同時クエリ

1 つのプロジェクトでサポートされる同時クエリ操作は最大 15 です。

たとえば、15 人のユーザーが同じプロジェクト内の異なる MetricStore で同時にクエリ操作を実行できます。

データ読み取り量

1 つのシャードで一度に読み取れるのは、最大 200 万の時系列、200 万のデータポイント、または 200 MB のデータです。読み取りプロセス中にこれらの制限のいずれかに達すると、プロセスは停止します。

制限に達した場合、ステータスは「不完全な読み取り」として記録され、クエリ側に返されます。大容量のデータ読み取りをサポートするには、シャードを分割できます。

コンピューティングのデータ量

PromQL 計算を実行する前に、シングルノード上の生データの量がチェックされます。現在の制限では、1 回の計算で最大 2 億の時系列、2 億のデータポイント、または 2 GB のデータが許可されます。これらの制限のいずれかを超えると、計算エラーが返されます。

ご利用のビジネスで大量データの単一実行集約が必要な場合は、同時コンピューティング機能を有効にしてください。詳細については、「同時コンピューティング」をご参照ください。

コンピューティングのデータポイント

PromQL エンジンでの計算プロセス中に、「ポイント選択」操作が実行されます。計算に含まれる選択されたデータポイントの数が 5,000 万を超えると、エラーが報告されます。

これは、オープンソースの Prometheus と同じ計算制限に従います。クエリが集約用である場合は、同時コンピューティング機能を使用できます。

クエリキューの長さ

リクエストがサーバー側に送信されると、まずキューに入り実行を待ちます。キューで待機しているタスクの数が 200 を超えると、後続のリクエストは破棄されます。

短期間に高いクエリ/秒 (QPS) のリクエストがバースト的に到着した場合、一部のリクエストは拒否されます。

クエリ結果 (PromQL)

標準のオープンソースプロトコルでは、/query_range API 操作には、時系列ごとに返されるデータポイントが 11,000 個という制限があります。クエリパラメーターが (end - start)/step > 11000 の条件を満たす場合、エラーが報告されます。

長期間にわたるクエリの場合は、必要に応じてステップサイズパラメーターを大きくしてください。

クエリ結果 (SQL)

1 回の SQL クエリまたは計算では、デフォルトで最大 100 行のデータが返されます。SQL 文に "limit all" 句を追加すると、最大 100 万行のデータが返されます。この制限は、次の 2 つのシナリオに適用されます:

  1. SQL を使用して、生時系列データに対して直接計算を実行する。

  2. SQL 文に PromQL サブクエリをネストして計算を実行する。

100 万行のデータは 100 万のデータポイントを表します。クエリ構文については、「時系列データのクエリと分析の構文」をご参照ください。

SQL での PromQL サブクエリのネスト

PromQL 文の長さは 3,000 文字に制限されています。

クエリ構文については、「時系列データのクエリと分析の構文」をご参照ください。

Remote Read API

Remote Read API は、1 回のリクエストで 1 GB のデータを返すことをサポートします。サポートされる最大クエリ期間は 30 日です。

説明

Remote Read API はすべての生データをプルします。この API を呼び出すと、MetricStore の大量のメモリリソースが消費されます。同時リクエスト数は 10 に制限されています。本番環境でこの API を使用することは推奨されません。代わりに MetricStore のクエリ API を使用してください。生データを取得するには、データ変換データ転送、または データ消費とエクスポートを使用してください。

最大クエリ期間は調整できません。

オープンソースの Remote Read API ドキュメントについては、「Prometheus Remote Read」をご参照ください。

説明

Remote Read API を使用してデータをリクエストする場合、ローカルの Prometheus の lookback-delta を 3 分に設定する必要があります。これは、MetricStore のデフォルトの lookback-delta パラメーターと一致します。そうしないと、クエリ結果が不完全になる可能性があります。

lookback-delta

SLS MetricStore では、このパラメーターはデフォルトで 3 分に設定されています。

lookback-delta は PromQL クエリに固有のパラメーターです。詳細については、「lookback-delta」をご参照ください。

PromQL API はカスタム設定をサポートしています。最大値は 3 日です。カスタム設定の構成方法については、「時系列メトリッククエリ API」をご参照ください。

タイムアウト

デフォルトのタイムアウト期間は、PromQL API クエリの場合は 1 分、SQL クエリの場合は 55 秒です。

PromQL API はカスタム設定をサポートしています。カスタム設定の構成方法については、「時系列メトリッククエリ API」をご参照ください。

Meta API の制限

クエリパフォーマンスを確保するため、Meta API は最大 5 分間のデータのクエリに制限されています。この制限は、/labels、/label/{label}/values、および /series API 操作にのみ適用されます。

5 分間のタイムウィンドウとは、end パラメーターから 5 分遡った時間範囲、つまり [end - 5min, end] を意味します。

PromQL API は、Meta API のカスタム開始時刻と終了時刻をサポートしています。設定の構成方法については、「シリーズクエリ API」をご参照ください。

説明

デフォルトでは、Meta API はすべてのデータをクエリします。合理的な match パラメーターを設定してクエリを絞り込むことで、パフォーマンスを大幅に向上させることができます。詳細については、「シリーズクエリ API」をご参照ください。