このトピックでは、Simple Log Service のクエリと分析に関する制限について説明します。
Logstore
クエリ
項目 | 説明 |
キーワード数 | 検索条件として使用されるキーワードの数です。論理演算子の数は含まれません。検索文には最大 30 個のキーワードを指定できます。 |
フィールド値のサイズ | フィールド値の最大サイズは 512 KB です。超過した部分は検索対象外となります。 フィールド値のサイズが 512 KB を超える場合、キーワードでログを取得できないことがありますが、ログは実際に Logstore に保存されています。 説明 ログフィールド値の最大長を設定する方法については、「ログのクエリと分析時にフィールド値が切り捨てられるのはなぜですか?」をご参照ください。 |
同時検索文の最大数 | 各プロジェクトは、最大 100 の同時検索文をサポートします。 たとえば、100 人のユーザーが、あるプロジェクトのすべての Logstore で同時に検索文を実行できます。 |
返される結果 | 返されたログは複数のページに表示されます。各ページには最大 100 件のログが表示されます。 |
あいまい検索 | あいまい検索では、SLS は指定された条件に一致する最大 100 個の単語を照合し、検索条件に一致し、かつこれらの単語の 1 つ以上を含むログを返します。詳細については、「あいまい検索」をご参照ください。 |
検索結果のデータソート | デフォルトでは、検索結果は秒単位で正確な時間の降順で表示されます。検索結果がナノ秒単位で返される場合、検索結果はナノ秒単位で正確な時間の降順で表示されます。 |
分析
制限 | 標準インスタンス | 専用 SQL インスタンス | |
SQL 拡張 | 完全な精度 | ||
同時実行数 | プロジェクトあたり最大 15 の同時クエリ。 | プロジェクトあたり最大 100 の同時クエリ。 | プロジェクトあたり最大 5 の同時クエリ。 |
データ量 | 1 回のクエリでスキャンできるログデータは最大 400 MB (キャッシュデータを除く) です。この制限を超えるデータは切り捨てられ、不完全なクエリ結果としてマークされます。 | 1 回のクエリでスキャンできるログデータは最大 2 GB (キャッシュデータを除く) です。この制限を超えるデータは切り捨てられ、不完全なクエリ結果としてマークされます。 | 無制限。 |
有効化の方法 | デフォルトで、ログ分析機能は有効になっています。 | 専用 SQL を手動で有効にするためのスイッチが提供されています。 | 専用 SQL を手動で有効にするためのスイッチが提供されています。 |
料金 | 無料。 | 実際の CPU 時間に基づいて課金されます。 | 実際の CPU 時間に基づいて課金されます。 |
データ有効性メカニズム | ログ分析機能が有効になった後に Simple Log Service に書き込まれたデータのみを分析できます。 既存データを分析する必要がある場合は、既存データのインデックスを再作成する必要があります。 | ログ分析機能が有効になった後に Simple Log Service に書き込まれたデータのみを分析できます。 既存データを分析する必要がある場合は、既存データのインデックスを再作成する必要があります。 | ログ分析機能が有効になった後に Simple Log Service に書き込まれたデータのみを分析できます。 既存データを分析する必要がある場合は、既存データのインデックスを再作成する必要があります。 |
返される結果 | デフォルトでは、分析は最大 100 行、100 MB のデータを返します。100 MB を超えるとエラーが発生します。 より多くのデータを返す必要がある場合は、LIMIT 句を使用してください。 | デフォルトでは、分析は最大 100 行、100 MB のデータを返します。100 MB を超えるとエラーが発生します。 より多くのデータを返す必要がある場合は、LIMIT 句を使用してください。 | デフォルトでは、分析は最大 100 行、100 MB のデータを返します。100 MB を超えるとエラーが発生します。 より多くのデータを返す必要がある場合は、LIMIT 句を使用してください。 |
フィールドの最大長 | 単一フィールドのデフォルトの最大長は 2,048 バイト (2 KB) で、最大 16,384 バイト (16 KB) まで調整できます。この制限を超えるデータは、ログのクエリと分析に含まれません。 説明 この上限を変更するには、[最大フィールド長] を調整します。変更は新しいデータにのみ適用されます。詳細については、「インデックスの作成」をご参照ください。 | 単一フィールドのデフォルトの最大長は 2,048 バイト (2 KB) で、最大 16,384 バイト (16 KB) まで調整できます。この制限を超えるデータは、ログのクエリと分析に含まれません。 説明 この制限を変更するには、[最大フィールド長] を調整します。変更は新規データにのみ適用されます。詳細については、「インデックスを作成する」をご参照ください。 | 単一フィールドのデフォルトの最大長は 2,048 バイト (2 KB) で、最大 16,384 バイト (16 KB) まで調整できます。この制限を超えるデータは、ログのクエリと分析に含まれません。 説明 この制限を変更するには、[最大フィールド長] を調整します。変更は、新しいデータにのみ適用されます。詳細については、「インデックスを作成する」をご参照ください。 |
タイムアウト期間 | 分析操作の最大タイムアウト期間は 55 秒です。 | 分析操作の最大タイムアウト期間は 55 秒です。 | 分析操作の最大タイムアウト期間は 55 秒です。 |
double 型フィールド値のビット数 | double 型のフィールド値は 52 ビットに制限されています。これを超えると、浮動小数点数の精度が失われる可能性があります。 | double 型のフィールド値は 52 ビットに制限されています。これを超えると、浮動小数点数の精度が失われる可能性があります。 | double 型のフィールド値は 52 ビットに制限されています。これを超えると、浮動小数点数の精度が失われる可能性があります。 |
MetricStore
制限 | 説明 | 注 |
API リスト | サポートされているのは、/query、/query_range、/labels、/label/{label}/values、および /series API 操作のみです。 |
|
データ仕様 |
| その他の制限については、「時系列データ (メトリック)」をご参照ください。 |
同時クエリ | 1 つのプロジェクトでサポートされる同時クエリ操作は最大 15 です。 | たとえば、15 人のユーザーが同じプロジェクト内の異なる MetricStore で同時にクエリ操作を実行できます。 |
データ読み取り量 | 1 つのシャードで一度に読み取れるのは、最大 200 万の時系列、200 万のデータポイント、または 200 MB のデータです。読み取りプロセス中にこれらの制限のいずれかに達すると、プロセスは停止します。 | 制限に達した場合、ステータスは「不完全な読み取り」として記録され、クエリ側に返されます。大容量のデータ読み取りをサポートするには、シャードを分割できます。 |
コンピューティングのデータ量 | PromQL 計算を実行する前に、シングルノード上の生データの量がチェックされます。現在の制限では、1 回の計算で最大 2 億の時系列、2 億のデータポイント、または 2 GB のデータが許可されます。これらの制限のいずれかを超えると、計算エラーが返されます。 | ご利用のビジネスで大量データの単一実行集約が必要な場合は、同時コンピューティング機能を有効にしてください。詳細については、「同時コンピューティング」をご参照ください。 |
コンピューティングのデータポイント | PromQL エンジンでの計算プロセス中に、「ポイント選択」操作が実行されます。計算に含まれる選択されたデータポイントの数が 5,000 万を超えると、エラーが報告されます。 | これは、オープンソースの Prometheus と同じ計算制限に従います。クエリが集約用である場合は、同時コンピューティング機能を使用できます。 |
クエリキューの長さ | リクエストがサーバー側に送信されると、まずキューに入り実行を待ちます。キューで待機しているタスクの数が 200 を超えると、後続のリクエストは破棄されます。 | 短期間に高いクエリ/秒 (QPS) のリクエストがバースト的に到着した場合、一部のリクエストは拒否されます。 |
クエリ結果 (PromQL) | 標準のオープンソースプロトコルでは、/query_range API 操作には、時系列ごとに返されるデータポイントが 11,000 個という制限があります。クエリパラメーターが (end - start)/step > 11000 の条件を満たす場合、エラーが報告されます。 | 長期間にわたるクエリの場合は、必要に応じてステップサイズパラメーターを大きくしてください。 |
クエリ結果 (SQL) | 1 回の SQL クエリまたは計算では、デフォルトで最大 100 行のデータが返されます。SQL 文に "limit all" 句を追加すると、最大 100 万行のデータが返されます。この制限は、次の 2 つのシナリオに適用されます:
| 100 万行のデータは 100 万のデータポイントを表します。クエリ構文については、「時系列データのクエリと分析の構文」をご参照ください。 |
SQL での PromQL サブクエリのネスト | PromQL 文の長さは 3,000 文字に制限されています。 | クエリ構文については、「時系列データのクエリと分析の構文」をご参照ください。 |
Remote Read API | Remote Read API は、1 回のリクエストで 1 GB のデータを返すことをサポートします。サポートされる最大クエリ期間は 30 日です。 説明 Remote Read API はすべての生データをプルします。この API を呼び出すと、MetricStore の大量のメモリリソースが消費されます。同時リクエスト数は 10 に制限されています。本番環境でこの API を使用することは推奨されません。代わりに MetricStore のクエリ API を使用してください。生データを取得するには、データ変換、データ転送、または データ消費とエクスポートを使用してください。 | 最大クエリ期間は調整できません。 オープンソースの Remote Read API ドキュメントについては、「Prometheus Remote Read」をご参照ください。 説明 Remote Read API を使用してデータをリクエストする場合、ローカルの Prometheus の lookback-delta を 3 分に設定する必要があります。これは、MetricStore のデフォルトの lookback-delta パラメーターと一致します。そうしないと、クエリ結果が不完全になる可能性があります。 |
lookback-delta | SLS MetricStore では、このパラメーターはデフォルトで 3 分に設定されています。 | lookback-delta は PromQL クエリに固有のパラメーターです。詳細については、「lookback-delta」をご参照ください。 PromQL API はカスタム設定をサポートしています。最大値は 3 日です。カスタム設定の構成方法については、「時系列メトリッククエリ API」をご参照ください。 |
タイムアウト | デフォルトのタイムアウト期間は、PromQL API クエリの場合は 1 分、SQL クエリの場合は 55 秒です。 | PromQL API はカスタム設定をサポートしています。カスタム設定の構成方法については、「時系列メトリッククエリ API」をご参照ください。 |
Meta API の制限 | クエリパフォーマンスを確保するため、Meta API は最大 5 分間のデータのクエリに制限されています。この制限は、/labels、/label/{label}/values、および /series API 操作にのみ適用されます。 | 5 分間のタイムウィンドウとは、end パラメーターから 5 分遡った時間範囲、つまり [end - 5min, end] を意味します。 PromQL API は、Meta API のカスタム開始時刻と終了時刻をサポートしています。設定の構成方法については、「シリーズクエリ API」をご参照ください。 説明 デフォルトでは、Meta API はすべてのデータをクエリします。合理的な match パラメーターを設定してクエリを絞り込むことで、パフォーマンスを大幅に向上させることができます。詳細については、「シリーズクエリ API」をご参照ください。 |