このトピックでは、OpenAI 互換の Responses API を使用して Qwen モデルを呼び出す方法について説明します。入力パラメーターと出力パラメーターを解説し、呼び出し例を示します。
OpenAI Chat Completions API と比較した利点:
組み込みツール:ウェブ検索、コードインタープリター、ウェブエクストラクターが含まれます。これらのツールをまとめて (
tools=[{"type": "web_search"}, {"type": "code_interpreter"}, {"type": "web_extractor"}]) 有効化することで、複雑なタスクを処理する際に最高の結果を得ることができます。詳細については、「組み込みツールの呼び出し」をご参照ください。より柔軟な入力:この API は、モデルの入力として文字列を直接渡すことをサポートしています。また、Chat フォーマットのメッセージ配列とも互換性があります。
簡素化されたコンテキスト管理:以前の応答から
previous_response_idを渡すことができるため、完全なメッセージ履歴配列を手動で構築する必要がありません。
互換性に関する注意と制限事項
この API は、開発者の移行コストを削減するために OpenAI との互換性を持つように設計されています。ただし、パラメーター、特徴、および特定の動作には違いがあります。
基本原則:リクエストは、このドキュメントに明記されているパラメーターのみを処理します。記載されていない OpenAI パラメーターはすべて無視されます。
以下に、迅速に適応するための主な違いをいくつか示します:
マルチモーダル入力は非サポート:現在、テキストモデルの
qwen3-max-2026-01-23のみがサポートされています。inputパラメーターはテキストフォーマットのみをサポートし、画像やその他のファイルタイプはサポートしていません。非サポートのパラメーター:システムメッセージ命令の
instructionsや非同期実行パラメーターのbackgroundなど、一部の OpenAI Responses API パラメーターはサポートされていません。現在、同期呼び出しのみがサポートされています。追加でサポートされるパラメーター:この API は、
enable_thinkingなどの追加パラメーターもサポートしています。具体的な使用方法については、対応するパラメーターの説明をご参照ください。
現在、、Singapore リージョンのみ利用可能です。
シンガポール
SDK 呼び出し構成の base_url は次のとおりです:https://dashscope-intl.aliyuncs.com/api/v2/apps/protocols/compatible-mode/v1
HTTP リクエストアドレス:POST https://dashscope-intl.aliyuncs.com/api/v2/apps/protocols/compatible-mode/v1/responses
リクエストボディ | 基本的な呼び出しPythonNode.jscurlストリーミング出力PythonNode.jscurlマルチターン対話PythonNode.js組み込みツールの呼び出しPythonNode.jscurl |
model モデル名。現在、 | |
input モデルの入力。以下のフォーマットがサポートされています:
| |
previous_response_id 以前の応答の一意の ID。現在の応答 | |
stream ストリーミング出力を有効にするかどうかを指定します。このパラメーターが | |
tools モデルが応答を生成する際に呼び出すことができるツールの配列。組み込みツールとユーザー定義関数ツールの混在をサポートします。 最高の結果を得るために、 | |
tool_choice モデルがツールを選択して呼び出す方法を制御します。このパラメーターは、文字列とオブジェクトの 2 つのフォーマットをサポートします。 文字列フォーマット
オブジェクトパターン モデルが利用できるツールの範囲を設定します。モデルは、事前定義されたツールのリストからのみツールを選択して呼び出すことができます。 | |
temperature サンプリング温度。このパラメーターは、生成されるテキストの多様性を制御します。 温度が高いほど、より多様なテキストが生成されます。温度が低いほど、より決定論的なテキストが生成されます。 有効値:[0, 2) temperature と top_p の両方が生成されるテキストの多様性を制御します。どちらか一方のみを設定することを推奨します。詳細については、「テキスト生成モデルの概要」をご参照ください。 | |
top_p ニュークリアスサンプリングの確率しきい値。このパラメーターは、生成されるテキストの多様性を制御します。 top_p の値が高いほど、より多様なテキストが生成されます。top_p の値が低いほど、より決定論的なテキストが生成されます。 有効範囲: (0, 1.0] temperature と top_p の両方が生成されるテキストの多様性を制御します。どちらか一方のみを設定することを推奨します。詳細については、「テキスト生成モデルの概要」をご参照ください。 | |
enable_thinking 思考モードを有効にするかどうかを指定します。このパラメーターを有効にすると、モデルは返信する前に思考します。思考プロセスは、 思考モードを有効にする場合、複雑なタスクで最高のモデルパフォーマンスを達成するために、組み込みツールを有効にすることを推奨します。 有効な値:
このパラメーターは標準の OpenAI パラメーターではありません。Python SDK は |
応答オブジェクト (非ストリーミング出力) | |
id この応答の一意の識別子です。UUID 文字列であり、7 日間有効です。この識別子を | |
created_at このリクエストの Unix タイムスタンプ (秒単位)。 | |
object オブジェクトタイプ。値は | |
status 応答生成のステータス。有効な値:
| |
model 応答を生成するために使用されるモデルの ID。 | |
output モデルによって生成された出力項目の配列。配列内の要素のタイプと順序は、モデルの応答によって異なります。 | |
usage このリクエストのトークン消費情報。 | |
error モデルが応答を生成できなかった場合に返されるエラーオブジェクト。成功した場合、このフィールドは | |
tools エコーリクエストからの | |
tool_choice エコーリクエストからの |
応答チャンクオブジェクト (ストリーミング出力) | 基本的な呼び出し組み込みツールの呼び出し |
ストリーミング出力は一連の JSON オブジェクトを返します。各オブジェクトには、イベントタイプを識別するための | |
type イベントタイプ識別子。有効な値:
| |
sequence_number イベントシリアル番号。0 から始まり、増分します。これを使用して、クライアントがイベントを正しい順序で処理することを保証できます。 | |
response 応答オブジェクト。 | |
item 出力項目オブジェクト。 | |
part コンテンツブロックオブジェクト。 | |
delta 増分テキストコンテンツ。 | |
text 完全なテキストコンテンツ。 | |
item_id 出力項目の一意の識別子。同じ出力項目に関連するイベントを関連付けるために使用されます。 | |
output_index
| |
content_index
| |
summary_index まとめ配列のインデックス。 |
よくある質問
Q:マルチターン対話のコンテキストはどのように渡せばよいですか?
A:会話の新しいターンを開始するには、前の成功した応答の id を previous_response_id パラメーターとして渡します。
Q:応答例の一部のフィールドがこのドキュメントで説明されていないのはなぜですか?
A:公式の OpenAI SDK を使用すると、独自のモデル構造に基づいて追加のフィールドが出力される場合があります。これらのフィールドは通常 null です。これらのフィールドは OpenAI プロトコルによって定義されていますが、現在当社のサービスではサポートされていません。そのため、null 値になっています。このドキュメントで説明されているフィールドにのみ注目してください。