すべてのプロダクト
Search
ドキュメントセンター

Cloud Monitor:データセット

最終更新日:Apr 03, 2026

データセットは、AgentLoop の AI シナリオ向けデータストレージ機能であり、従来のロギングを強化します。完全な CRUD 機能、柔軟なスキーマ、ベクター検索、多次元分析を提供し、AI ランタイムデータを読み取り専用のログから管理可能な資産へと変革します。AI アプリケーションにおけるフルデータライフサイクル管理にご活用ください。トレーニングデータ管理、評価データセット構築、不良ケース追跡、モデル回帰テストなどが含まれます。

背景情報

SLS Logstore との関係

項目

Logstore

データセット

データモデル

追加のみ(Append-only)。一度書き込まれたデータは不変です。

完全な CRUD(Create、Read、Update、Delete)をサポートします。

スキーマ

柔軟なカスタムインデックス構成が可能です。

テキスト、long、double、json の各型をサポートするカスタマイズ可能なスキーマです。

検索機能

全文検索 + SQL 分析

全文検索 + 意味検索 + SQL 分析 + ハイブリッドクエリ

ベクター機能

意味的類似性検索のための埋め込みベクターインデックスをサポートします。

意味的類似性検索をサポートする組み込みの埋め込みベクターインデックスを備えています。

データ修正

サポートしていません。

一意の ID を用いた更新および削除をサポートします。

利用シーン

ログ収集、モニタリングとアラート、監査とコンプライアンス。

AI データ管理、評価ベンチマーク、トレーニングデータ、不良ケース追跡。

主要機能

機能

説明

カスタムスキーマ

テキスト、long、double、json の各型を含むカスタムフィールドおよび型を定義できます。textlongdoublejson を指定可能です。json 型ではネストされたサブフィールドのインデックスもサポートします。

ベクター検索

テキストフィールドに対して埋め込みモデルを構成することでベクターインデックスを有効化し、意味的類似性検索を実行できます。

完全な CRUD

標準 SQL を使用して INSERT / UPDATE / DELETE 操作を実行できます。データは可変であり、時間とともに進化させることができます。

多次元検索

全文検索、意味検索、SQL 分析、ハイブリッドクエリの 4 種類のクエリモードを自由に組み合わせられます。

バージョン追跡

各データレコードに自動的に一意の ID を割り当てることで、追跡、データエクスポート、回帰テストを可能にします。

操作手順

前提条件

SDK のインストール

pip install alibabacloud-cms20240330==6.4.0

認証情報の構成

環境変数または .env ファイルを使用して認証情報を設定します:

export ALIBABA_CLOUD_ACCESS_KEY_ID="your-access-key-id"
export ALIBABA_CLOUD_ACCESS_KEY_SECRET="your-access-key-secret"
export ALIBABA_CLOUD_ENDPOINT="cms.cn-shanghai.aliyuncs.com"
export ALIBABA_CLOUD_CMS_WORKSPACE="your-workspace"

クライアントの初期化

from alibabacloud_cms20240330.client import Client
from alibabacloud_tea_openapi.models import Config

config = Config(
    access_key_id="your-access-key-id",
    access_key_secret="your-access-key-secret",
    endpoint="cms.cn-shanghai.aliyuncs.com",
)
client = Client(config)
workspace = "your-workspace"

データセットの作成

スキーマのフィールド型

データセットはユーザー定義のスキーマをサポートします。以下のフィールド型が利用可能です:

説明

機能

例フィールド

text

全文検索および意味検索をサポートするテキスト文字列です。

chn:中国語の形態素解析を有効化します。embedding:ベクターインデックスを有効化します。

question、output

long

数値範囲クエリをサポートする長整数です。

input_tokens、latency_ms

double

数値範囲クエリをサポートする倍精度浮動小数点数です。

score

json

ネストされたフィールドインデックスをサポートする JSON オブジェクトです。

json_keys:サブフィールドインデックスを定義します。

metadata

ベクターインデックスembeddingtext 型フィールドに設定すると、ベクターインデックスが有効化され、意味検索が可能になります。

組み込みの ID プライマリキー:データセットは各データ入力に対して自動的に一意の id プライマリキーを生成します。UPDATE および DELETE 操作には、このプライマリキーを使用する必要があります。

SDK の使用例

from alibabacloud_cms20240330.models import (
    CreateDatasetRequest,
    IndexJsonKey,
    IndexKey,
)

schema = {
    "input": IndexKey(
        type="text",
        chn=True,                          # 中国語の形態素解析を有効化します。
        embedding="text-embedding-v4",     # ベクターインデックスを有効化します。
    ),
    "output": IndexKey(
        type="text",
        chn=True,
        embedding="text-embedding-v4",
    ),
    "model": IndexKey(type="text"),
    "score": IndexKey(type="double"),
    "metadata": IndexKey(
        type="json",
        json_keys={
            "input_tokens": IndexJsonKey(type="long"),
            "output_tokens": IndexJsonKey(type="long"),
        },
    ),
}

request = CreateDatasetRequest(
    dataset_name="my_dataset",
    description="AI Q&A データセット",
    schema=schema,
)
client.create_dataset(workspace, request)

データの書き込み

ExecuteQuery API を使用した INSERT SQL ステートメントにより、データセットにデータを書き込むことができます。

データの挿入(INSERT)

ExecuteQuery API を使用した標準 SQL ステートメントにより、データを挿入できます。

単一挿入

from alibabacloud_cms20240330.models import ExecuteQueryRequest

sql = """
INSERT INTO my_dataset (input, output, model, score)
VALUES (
    '直近 1 時間のエラーログを表示する方法は?',
    'クエリを使用:level:ERROR',
    'qwen-plus',
    0.95
)
"""
request = ExecuteQueryRequest(query=sql, type="SQL")
response = client.execute_query(workspace, "my_dataset", request)
print(f"affected_rows: {response.body.meta.affected_rows}")

バッチ挿入

sql = """
INSERT INTO my_dataset (input, output, model, score)
VALUES
    ('本日の各インターフェイスに対する API 呼び出し数をカウント', 'SELECT api, count(*) ...', 'gpt-4o', 0.88),
    ('タイムアウトしたリクエストを検索', 'latency > 5000 | SELECT ...', 'claude-3.5-sonnet', 0.92)
"""
request = ExecuteQueryRequest(query=sql, type="SQL")
client.execute_query(workspace, "my_dataset", request)

データの更新(UPDATE)

更新操作は必ずid プライマリキーを使用する必要があります。現在、バッチ更新はサポートされていません。

sql = """
UPDATE my_dataset
SET score = 0.98, output = '最適化された回答...'
WHERE id = 'your-doc-id'
"""
request = ExecuteQueryRequest(query=sql, type="SQL")
client.execute_query(workspace, "my_dataset", request)

データの削除(DELETE)

同様に、削除操作も必ずid プライマリキーを使用する必要があります。

sql = "DELETE FROM my_dataset WHERE id = 'your-doc-id'"
request = ExecuteQueryRequest(query=sql, type="SQL")
client.execute_query(workspace, "my_dataset", request)
ヒント:まずクエリを実行して対象データの id を取得し、その後その ID を使用してレコードを更新または削除できます。

データのクエリ

ExecuteQuery 操作と type="SQL" を使用してデータをクエリできます。この操作では、以下 4 種類のクエリモードを組み合わせて使用できます:

クエリモード

構文

説明

全文検索

field:keyword

キーワード一致を実行し、AND、OR、数値比較をサポートします。

意味検索

similarity()semantic_distance()

ベクターによる意味検索を有効化します。2 種類の形式が利用可能です。

SQL 分析

SELECT ... FROM dataset_name ...

標準 SQL クエリおよび分析です。

ハイブリッドクエリ

<検索条件> | <SQL ステートメント>

複数のクエリモードを柔軟に組み合わせます。

全文検索

全文検索は、SLS クエリ構文と互換性のあるキーワード一致構文を使用します:

構文

説明

field:keyword

単一フィールドでの一致

input:error

field1:v1 AND field2:v2

複数条件の組み合わせ

model:qwen-plus AND input:log

field:v1 OR field:v2

OR 条件

model:qwen-plus OR model:gpt-4o

field > value

数値比較

score > 0.9

field:v1 AND field > n

混合条件

model:qwen-plus AND score > 0.8

キーワード一致構文を単独で使用することも、パイプ | を使用して SQL と組み合わせることもできます:

from alibabacloud_cms20240330.models import ExecuteQueryRequest

# 全文検索
request = ExecuteQueryRequest(query="input:error", type="SQL")
response = client.execute_query(workspace, "my_dataset", request)

# 全文検索 + SQL
query = "input:error | SELECT input, score FROM my_dataset ORDER BY score DESC LIMIT 5"
request = ExecuteQueryRequest(query=query, type="SQL")
response = client.execute_query(workspace, "my_dataset", request)

意味検索

意味検索は、対応するフィールドにスキーマで embedding ベクターインデックスが構成されている場合に、ベクター類似度に基づく取得を実行します。

異なるクエリおよび分析シナリオに応じて、2 種類の形式が利用可能です

形式 1:検索構文 similarity()

パイプ | の左側の検索条件に対して、ANDOR を使用して全文検索構文と組み合わせられます:

# 意味検索
request = ExecuteQueryRequest(query="similarity(input, 'ログ分析') < 0.3", type="SQL")

# 意味検索 + 全文検索
request = ExecuteQueryRequest(
    query="similarity(input, 'ログ分析') < 0.3 AND model:qwen-plus",
    type="SQL",
)

# 意味検索 + SQL
request = ExecuteQueryRequest(
    query="similarity(input, 'ログ分析') < 0.3 | SELECT input, score FROM my_dataset ORDER BY score DESC",
    type="SQL",
)

形式 2:SQL 関数 semantic_distance()

パイプ | の右側の SQL ステートメントでは、SELECTWHEREORDER BY 句内で柔軟に使用できます:

sql = """
SELECT input, semantic_distance(input, 'ログクエリ統計') AS similarity
FROM my_dataset
WHERE semantic_distance(input, 'ログクエリ統計') < 0.3
ORDER BY semantic_distance(input, 'ログクエリ統計') ASC
"""
request = ExecuteQueryRequest(query=sql, type="SQL")
response = client.execute_query(workspace, "my_dataset", request)

2 種類の形式の比較

項目

similarity()

semantic_distance()

位置

| 左側(検索条件)

| 右側(SQL ステートメント)

目的

高速な意味フィルタリング

高精度な分析およびランキング

距離値の返却

いいえ

はい(SELECT 列として)

全文検索との組み合わせ

はい(ANDOR を使用)

はい(WHERE 句内)

典型的な利用シーン

意味的に関連するデータの迅速な再現

細かいランキング、類似度ソート、距離分析

しきい値の推奨値:しきい値の範囲は 0 ~ 1 です。値が小さいほど意味的類似度が高くなります。

しきい値範囲

一致レベル

利用シーン

0.1 ~ 0.2

厳密な一致

完全重複排除、ニア・デュプリケート検出

0.2 ~ 0.3

標準的な一致

関連コンテンツの取得

0.3 ~ 0.5

緩やかな一致

探索的検索、トピッククラスタリング

SQL 分析

データセットは、GROUP BYHAVINGORDER BYLIMIT、CTE(共通テーブル式)、サブクエリ、ウィンドウ関数を含む標準 SQL クエリおよび統計分析をサポートします。SQL エンジンは PrestoSQL ベースの構文を使用し、クエリをサーバー側で PostgreSQL に変換して実行します。

sql = """
SELECT model, count(*) AS total, avg(score) AS avg_score
FROM my_dataset
GROUP BY model
ORDER BY total DESC
"""
request = ExecuteQueryRequest(query=sql, type="SQL")
response = client.execute_query(workspace, "my_dataset", request)

ページネーションには LIMIT offset, count 構文を使用します:

page_size = 10
page = 2
skip = (page - 1) * page_size
# ページ 2(10 件をスキップし、10 件を取得)
sql = f"SELECT * FROM my_dataset ORDER BY score DESC LIMIT {skip}, {page_size}"
request = ExecuteQueryRequest(query=sql, type="SQL")
response = client.execute_query(workspace, "my_dataset", request)

サポートされる関数

サポートされる SQL 句

サポート状況

説明

SELECT

カラム選択、式、エイリアス、*、サブクエリ

FROM

単一テーブルクエリ、サブクエリ(エイリアス付き)

WHERE

比較演算子、INNOT INBETWEENLIKEIS NULLEXISTSIS DISTINCT FROM

GROUP BY

基本的なグループ化、GROUPING SETSROLLUPCUBE

HAVING

集約結果に対するフィルタリング

ORDER BY

ASCDESCNULLS FIRSTNULLS LAST

LIMIT

LIMIT countLIMIT offset, count

WITH(CTE)

共通テーブル式

JOIN

JOIN はサポートされていません。

UNIONINTERSECTEXCEPT

集合演算はサポートされていません。

集約関数

関数

説明

count(*)

行数をカウントします。

SELECT count(*) FROM ds

count(column)

NULL でない値の数をカウントします。

SELECT count(score) FROM ds

count(DISTINCT column)

重複しない値の数をカウントします。

SELECT count(DISTINCT model) FROM ds

sum(column)

合計値を計算します。

SELECT sum(score) FROM ds

avg(column)

平均値を計算します。

SELECT avg(score) FROM ds

min(column)max(column)

最小値/最大値を取得します。

SELECT min(score), max(score) FROM ds

count_if(condition)

条件に一致する行数をカウントします。

SELECT count_if(score > 0.9) FROM ds

approx_percentile(column, p)

近似パーセンタイルを計算します。

SELECT approx_percentile(score, 0.5) FROM ds

JSON 関数

関数

説明

json_extract_scalar(col, '$.path')

JSON からスカラー値を抽出します。

json_extract_scalar(metadata, '$.input_tokens')

json_size(col, '$.path')

JSON 配列またはオブジェクトのサイズを返します。

json_size(metadata, '$.tags')

注記json_extract_scalar はスカラー値の抽出のみをサポートします。json_size はワイルドカードパス(例:$.a[*])をサポートしません。json_extract 関数はサポートされていません。

日時関数

関数

説明

now()

現在時刻を返します。

WHERE __time__ > to_unixtime(now() - interval '1' day)

from_unixtime(epoch)

Unix エポックをタイムスタンプに変換します。

SELECT from_unixtime(__time__)

to_unixtime(timestamp)

タイムスタンプを Unix エポックに変換します。

WHERE __time__ >= to_unixtime(...)

date(timestamp)

日付を抽出します。

SELECT date(from_unixtime(__time__))

date_add(unit, n, timestamp)

時間間隔を加算または減算します。

date_add('day', 7, ts)

date_diff(unit, ts1, ts2)

2 つのタイムスタンプの差分を計算します。

date_diff('day', ts1, ts2)

INTERVAL

時間間隔リテラル

now() - interval '7' day

型変換および式

関数/式

説明

CAST(expr AS type)

式を指定された型に変換します。

CAST(score AS varchar)

try_cast(expr AS type)

安全な型変換(失敗時は NULL を返す)

try_cast(val AS bigint)

typeof(expr)

式のデータ型を返します。

typeof(score)

CASE WHEN ... THEN ... ELSE ... END

条件式

BETWEEN ... AND ...

値が指定範囲内にあるかをチェックします。

score BETWEEN 0.8 AND 1.0

ARRAY[...]

配列を作成します。

ARRAY[1, 2, 3]

ウィンドウ関数

関数

説明

row_number() OVER (...)

パーティション内の各行に連番を割り当てます。

row_number() OVER (PARTITION BY model ORDER BY score DESC)

rank() OVER (...)

パーティション内の各行に順位を割り当てます(同順位がある場合はギャップを空けます)。

rank() OVER (PARTITION BY model ORDER BY score DESC)

その他の一般的な関数

関数

説明

round(value, n)

値を指定した小数点以下桁数で四捨五入します。

floor(value)

最も近い整数に切り捨てます。

length(str)

文字列の長さを返します。

lower(str)

文字列を小文字に変換します。

coalesce(a, b, ...)

最初の NULL でない値を返します。

ハイブリッドクエリ

4 種類のクエリモードは、パイプ | を使用して自由に組み合わせられます。| の左側に検索条件を、右側に SQL ステートメントを配置します:

# 全文検索 + SQL + semantic_distance
query = """
model:qwen-plus
| SELECT input, output, score
  FROM my_dataset
  WHERE semantic_distance(input, 'データ分析') < 0.4
  ORDER BY score DESC
  LIMIT 10
"""
request = ExecuteQueryRequest(query=query, type="SQL")
response = client.execute_query(workspace, "my_dataset", request)
サポートされる SQL 機能(関数、句、制限事項を含む)の完全な一覧については、「データセット製品ドキュメント」をご参照ください。

データセットの管理

操作

API

説明

作成

client.create_dataset(workspace, CreateDatasetRequest)

データセットを作成し、そのスキーマを定義します。

表示

client.get_dataset(workspace, dataset_name)

データセットの詳細(スキーマを含む)を取得します。

一覧表示

client.list_datasets(workspace, ListDatasetsRequest)

すべてのデータセットを一覧表示します。ページネーションおよび名前によるフィルタリングをサポートします。

更新

client.update_dataset(workspace, dataset_name, UpdateDatasetRequest)

データセットの説明を更新します。

削除

client.delete_dataset(workspace, dataset_name)

データセットを削除します。この操作は取り消せません。

データセットの一覧表示

from alibabacloud_cms20240330.models import ListDatasetsRequest

request = ListDatasetsRequest(max_results=100)
response = client.list_datasets(workspace, request)
for ds in response.body.datasets:
    print(f"{ds.dataset_name}: {ds.description}")

# 名前によるフィルタリング
request = ListDatasetsRequest(max_results=100, dataset_name="my_dataset")
response = client.list_datasets(workspace, request)

データセットの表示

response = client.get_dataset(workspace, "my_dataset")
print(response.body.to_map())  # スキーマ、作成時刻なども含まれます。

データセットの更新

from alibabacloud_cms20240330.models import UpdateDatasetRequest

request = UpdateDatasetRequest(description="更新後の説明")
client.update_dataset(workspace, "my_dataset", request)

データセットの削除

# 注意:この操作は取り消せません。
client.delete_dataset(workspace, "my_dataset")

ユースケース

ユースケース 1:不良ケース管理

本番データからスコアが低いサンプルをフィルタリングし、手動ラベル付け後に更新します:

# 1. スコアが低いサンプルをフィルタリング
sql = "SELECT id, input, output, score FROM my_dataset WHERE score < 0.3 ORDER BY score ASC LIMIT 50"
request = ExecuteQueryRequest(query=sql, type="SQL")
response = client.execute_query(workspace, "my_dataset", request)

# 2. 手動レビュー後のラベル更新
sql = """
UPDATE my_dataset
SET human_label = 'ハルシネーション', fix_suggestion = '事実確認が必要'
WHERE id = 'bad-case-id'
"""
client.execute_query(workspace, "my_dataset", ExecuteQueryRequest(query=sql, type="SQL"))

ユースケース 2:回帰テスト

異なるモデルバージョンのパフォーマンスを比較するためのベンチマークデータセットを構築します:

# ベンチマークデータセットを取得
sql = "SELECT id, input, expected_output FROM my_dataset WHERE is_baseline = 'true'"
request = ExecuteQueryRequest(query=sql, type="SQL")
baseline = client.execute_query(workspace, "my_dataset", request)

# 新しいモデルバージョンを実行し、結果を比較
for sample in baseline.body.data:
    new_output = run_new_model(sample["input"])
    score = evaluate(new_output, sample["expected_output"])
    # 評価結果を記録...

ユースケース 3:トレーニングデータのエクスポート

高品質なサンプルをフィルタリングし、モデルの SFT ファインチューニングまたは RL 後学習用にエクスポートします:

import json

# 高品質なサンプルをクエリ
sql = """
SELECT input, output FROM my_dataset
WHERE human_label = 'correct' AND score >= 0.9
LIMIT 10000
"""
request = ExecuteQueryRequest(query=sql, type="SQL")
response = client.execute_query(workspace, "my_dataset", request)

# JSONL 形式でデータをエクスポート
with open("sft_data.jsonl", "w") as f:
    for item in response.body.data:
        f.write(json.dumps({
            "input": item["input"],
            "output": item["output"],
        }, ensure_ascii=False) + "\n")

制限事項

制約

制限値

説明

デフォルトの返却行数

1,000

LIMIT 句がないクエリでは、デフォルトで 1,000 行が返されます。

クエリごとの最大返却行数

100,000

LIMIT 句の値は、この数値を超えることはできません。

クエリごとの最大データサイズ

100 MB

単一クエリの結果は、このサイズを超えてはなりません。

JOIN

サポートしていません

JOIN 操作はサポートされていません。

集合演算

サポートしていません

UNIONINTERSECTEXCEPT の集合演算はサポートされていません。

データセット間クエリ

サポートしていません

データセット間クエリはサポートされていません。

UPDATE/DELETE の方法

id プライマリキーのみをサポート

条件に基づくバッチ UPDATEDELETE 操作はサポートされていません。

特定の関数

サポートしていません

approx_distinctmax_bynormalizetransformsequence、URL 関数など。

パラメーターのプレースホルダー

サポートしていません

? を使用したパラメーター化クエリはサポートされていません。

ベストプラクティス

スキーマ設計

  • 意味検索で頻繁に使用されるフィールドには、ベクターインデックスを有効化するために embedding の構成を推奨します。

  • メタデータやカスタム多次元タグ列など、動的に拡張可能なデータ列には、json データ型の使用を推奨します。

データ管理

  • id をクエリで取得し、その後更新または削除を行ってください。

  • ノイズ比率を低く保つために、定期的に低品質データをクリーンアップしてください。

  • データクリーンアップおよびインジェストを自動化するパイプラインを活用してください。

クエリ最適化

  • 意味検索と条件付きフィルタリングを組み合わせて、結果セットを絞り込んでください。

  • 大規模な結果セットの場合、ページネーションを使用してデータをバッチ処理で取得してください。

  • 複雑な集約には、SQL 分析をご活用ください。

よくある質問

データセット vs. Logstore

Logstore は追加のみのロギングを提供し、書き込み 1 回・読み取り多数のシナリオに適しています。一方、データセットは完全な CRUD 操作をサポートしており、修正、タグ付け、バージョン管理を必要とする AI データシナリオに最適です。

レコードの ID の取得方法

各レコードの挿入時に自動的に生成される id は、クエリを実行して取得できます:

sql = "SELECT id, input FROM my_dataset LIMIT 10"
request = ExecuteQueryRequest(query=sql, type="SQL")
response = client.execute_query(workspace, "my_dataset", request)

UPDATE および DELETE における ID の必須要件

データ整合性および運用上の安全性を確保するため、UPDATE および DELETE 操作には id プライマリキーの使用が必須です。他の条件に基づくバッチ更新または削除はサポートされていません。

意味検索のしきい値

similarity() および semantic_distance() 関数は、0 ~ 1 のベクター距離を返します。値が小さいほど類似度が高くなります。推奨しきい値は以下のとおりです:

  • 0.1 ~ 0.2:厳密な一致。

  • 0.2 ~ 0.3:標準的な一致。

  • 0.3 ~ 0.5:緩やかな一致。

自動データインジェスト

AgentLoop は Pipeline 機能を使用してデータを処理します。Pipeline を構成することで、Logstore から取得したデータを自動的にクリーンアップ、重複排除、評価したうえでデータセットに書き込むことが可能です。詳細については、Pipeline ユーザーガイドをご参照ください。

API リファレンス

データセットの管理

操作

メソッド

パラメーター

作成

client.create_dataset(workspace, request)

CreateDatasetRequest(dataset_name, description, schema)

取得

client.get_dataset(workspace, dataset_name)

一覧表示

client.list_datasets(workspace, request)

ListDatasetsRequest(max_results, next_token, dataset_name)

更新

client.update_dataset(workspace, dataset_name, request)

UpdateDatasetRequest(description)

削除

client.delete_dataset(workspace, dataset_name)

データ操作

すべてのデータ操作は ExecuteQuery API を使用します:

from alibabacloud_cms20240330.models import ExecuteQueryRequest

request = ExecuteQueryRequest(query="...", type="SQL")
response = client.execute_query(workspace, dataset_name, request)

パラメーター

説明

query

string

全文検索、意味検索、SQL 分析、ハイブリッドクエリの 4 種類のクエリモードをサポートします。意味検索には 2 種類の形式があり、similarity() 検索構文と semantic_distance() SQL 関数があります。

type

string

値は必ず "SQL" である必要があります。

応答構造

{
  "data": [{"id": "...", "input": "...", "score": 0.95, ...}],
  "meta": {
    "count": 10,
    "affectedRows": 0,
    "elapsedMillisecond": 42,
    "progress": "Complete"
  },
  "requestId": "..."
}

フィールド

説明

data

クエリ結果の配列(SELECT 操作)です。

meta.count

data 配列内のレコード数です。

meta.affectedRows

影響を受けた行数(INSERT、UPDATE、DELETE 操作)です。

meta.elapsedMillisecond

クエリの実行時間(ミリ秒)です。

SDK サンプルコード

実行可能な完全なサンプルコードは、dataset/samples/v2/ ディレクトリで確認できます:

ファイル

説明

ソース

quickstart.py

エンドツーエンドのワークフローのデモンストレーション(作成 → 書き込み → クエリ → 更新 → 削除)

quickstart.py

manage_dataset.py

データセットリソース管理(作成/表示/一覧表示/更新/削除)

manage_dataset.py

write_data.py

データの書き込み(単一挿入/バッチ挿入/更新/削除)

write_data.py

query_data.py

データのクエリ(全文検索/意味検索/SQL 分析/ハイブリッドクエリ/ページネーション)

query_data.py