すべてのプロダクト
Search
ドキュメントセンター

OpenSearch:コンテンツ生成サービス

最終更新日:Jul 11, 2025

このドキュメントでは、OpenAI 互換コンテンツ生成サービスの API パラメーターについて説明します。

URL

{host}/compatible-mode/v1/chat/completions

host:サービスを呼び出すためのアドレス。インターネットまたは VPC のいずれかを使用して API サービスを呼び出すことができます。 詳細については、「サービスアクセスアドレスのクエリ」をご参照ください。

AI apikey截图.png

リクエストパラメーター

パラメータ

タイプ

必須

説明

値の例

messages

List[Dict]

はい

これまでの会話におけるメッセージのリスト:

  • role。有効な値は system、user、assistant です。

    • system:システムメッセージを示します。会話履歴 (messages[0]) の最初のメッセージにのみ使用できます。 system ロールはオプションですが、存在する場合はリストの先頭にある必要があります。

    • user と assistant: ユーザーとモデル間の会話を表します。これらの2つのロールは、実際の会話の流れをシミュレートするために、会話内で交互に表示される必要があります。

  • content はダイアログ情報であり、空にすることはできません。

[

{"role": "system", "content": "あなたはロボットアシスタントです"},

{"role": "user", "content": "河南省の省都はどこですか?"},

{"role": "assistant", "content": "鄭州市です"},

{"role": "user", "content": "そこにはどんな楽しい場所がありますか?"}

]

model

String

はい

サービスID。サポートされているサービスIDのリストについては、

サービス ID。サポートされているサービス ID のリストについては、サポートされているサービスのリスト を参照してください。

ops-qwen-turbo

max_tokens

Int

いいえ

チャットの完了時に生成されるトークンの最大数。この制限に達しても会話が終了しない場合、「finish_reason」は「length」になります。それ以外の場合は「stop」になります。

1024

temperature

Float

いいえ

テキスト生成時に各候補語の確率分布を制御し、モデルの応答のランダム性と多様性を制御するために使用されます。範囲は [0, 2) です。 0 は意味がありません。

温度値が高いほど確率分布のピークが低くなり、確率の低い単語が選択される可能性が高くなり、出力の多様性が高まります。温度値が低いほど確率分布のピークが強くなり、確率の高い単語が選択される可能性が高くなり、より決定的な出力になります。

1

top_p

Float

いいえ

生成中のニュークリアスサンプリングの確率しきい値。範囲は (0, 1.0) です。値が大きいほど生成のランダム性が高まり、値が小さいほど決定論が高まります。

0.8

presence_penalty

Float

いいえ

モデルがテキストを生成するときのシーケンス全体の繰り返しを制御します。範囲は [-2.0, 2.0] で、デフォルト値は 0 です。

presence_penalty を増やすと、モデルの出力の繰り返しを減らすことができます。

0

frequency_penalty

Float

いいえ

頻度ペナルティ値。範囲は [-2.0, 2.0] で、デフォルト値は 0 です。

正の値は、テキスト中の現在の頻度に基づいて新しい単語にペナルティを課し、モデルが同じフレーズを繰り返す可能性を低減します。

0

stop

String, List[String]

いいえ

指定された「stop」単語またはトークンは、そのようなコンテンツが差し迫っているときにモデルにコンテンツの生成を停止するように促します。生成されたコンテンツには、指定された「stop」要素は含まれません。これは単一の文字列または文字列の配列にすることができます。デフォルトは null です。

デフォルト null

stream

Boolean

いいえ

ストリーミング出力を使用するかどうかを決定します。ストリームモードでは、インターフェイスは結果をジェネレーターとして返します。これは、増分シーケンスを取得するために反復処理する必要があります。デフォルトは false です。

false

レスポンスパラメーター

パラメータ

タイプ

説明

値の例

id

String

システムによって生成された呼び出しの一意の ID。

2244F3A8-4201-4F37-BF86-42013B1026D6

object

String

オブジェクトのタイプ。常に「chat.completion」に設定されます。

chat.completion

created

Long

レスポンスが作成されたUnixタイムスタンプ(秒単位)。

1719313883

model

String

レスポンスの生成に使用されたモデル。

ops-qwen-turbo

choices.index

Int

生成された結果のインデックス。0 は最初の結果を示します。

0

choices.message

Map

モデルによって生成されたメッセージの内容。

{

"role":"assistant",

"content":"これは例です"

}

choices.finish_reason

String

セグメント化 + ストリーミング

  • stop: モデルが完全な出力を返したことを示します。

  • length: 長さが超過したため、コンテンツの生成が停止されました。生成されるコンテンツの長さを増やすには、入力パラメータの max_tokens 値を調整します。

  • content_filter で始まる場合は、安全フィルタリングの結果を示します。

stop

usage.completion_tokens

Int

モデルがレスポンスを生成するために使用したトークンの数。

150

usage.prompt_tokens

Int

モデルへのユーザー入力のトークン数。

180

usage.total_tokens

Int

ユーザー入力とモデルのレスポンスに使用されたトークンの合計。

330

Curl リクエスト例

curl http://xxxx-cn-shanghai.opensearch.aliyuncs.com/compatible-mode/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer Your-API-Key" \
  -d '{
        "model":"ops-qwen-turbo",
        "messages":[
            {"role": "system", "content": "You are a robot assistant"},
            {"role": "user", "content": "Recommend 1 science fiction book"}
         ]
  }'

サンプルレスポンス

{
  "id":"fb4b3860e051ecad0b019971******",
  "object":"chat.completion",
  "created":1749804786,
  "model":"ops-qwen-turbo",
  "choices":
      [
         {
            "index":0,
            "message":
                {
                  "role":"assistant",
                  "content":"The 'Three-Body Problem' series by Liu Cixin. This is a story about......"
                 },
                  "finish_reason":"stop"
           }
        ],
     "usage":
         {
             "prompt_tokens":22,
             "completion_tokens":48,
             "total_tokens":70
           }
  }           

ステータスコード

状態コードの詳細については、「状態コード」をご参照ください。