リクエストボディ
POST
/chat/completions
Debug
テキスト入力 Python import os
from openai import OpenAI
client = OpenAI(
# 環境変数が設定されていない場合、次の行を api_key="sk-xxx" に置き換えます
# シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
api_key=os.getenv("DASHSCOPE_API_KEY"),
# 以下はシンガポールリージョンの base_url です。
base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
)
completion = client.chat.completions.create(
# この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
model="qwen-plus",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Who are you?"},
],
# Qwen3 モデルの場合、enable_thinking パラメーターを使用して思考プロセスを制御できます(オープンソースモデルではデフォルトで True、商用モデルでは False)。
# Qwen3 オープンソースモデルでストリーミング出力を使用しない場合、エラーを回避するために次の行のコメントを外してください。
# extra_body={"enable_thinking": False},
)
print(completion.model_dump_json())Java リクエスト例 // このコードは OpenAI SDK バージョン 2.6.0 を使用しています
import com.openai.client.OpenAIClient;
import com.openai.client.okhttp.OpenAIOkHttpClient;
import com.openai.models.chat.completions.ChatCompletion;
import com.openai.models.chat.completions.ChatCompletionCreateParams;
public class Main {
public static void main(String[] args) {
OpenAIClient client = OpenAIOkHttpClient.builder()
// シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
.apiKey(System.getenv("DASHSCOPE_API_KEY"))
// 以下はシンガポールリージョンの base_url です。
.baseUrl("https://dashscope-intl.aliyuncs.com/compatible-mode/v1")
.build();
ChatCompletionCreateParams params = ChatCompletionCreateParams.builder()
.addUserMessage("Who are you?")
.model("qwen-plus")
.build();
try {
ChatCompletion chatCompletion = client.chat().completions().create(params);
System.out.println(chatCompletion);
} catch (Exception e) {
System.err.println("Error occurred: " + e.getMessage());
e.printStackTrace();
}
}
}Node.js import OpenAI from "openai";
const openai = new OpenAI(
{
// 環境変数が設定されていない場合、次の行を apiKey: "sk-xxx", に置き換えます
// シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
apiKey: process.env.DASHSCOPE_API_KEY,
// 以下はシンガポールリージョンの base_url です。
baseURL: "https://dashscope-intl.aliyuncs.com/compatible-mode/v1"
}
);
async function main() {
const completion = await openai.chat.completions.create({
model: "qwen-plus", //この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
messages: [
{ role: "system", content: "You are a helpful assistant." },
{ role: "user", content: "Who are you?" }
],
});
console.log(JSON.stringify(completion))
}
main();Go package main
import (
"context"
"os"
"github.com/openai/openai-go"
"github.com/openai/openai-go/option"
)
func main() {
client := openai.NewClient(
// シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
option.WithAPIKey(os.Getenv("DASHSCOPE_API_KEY")), // defaults to os.LookupEnv("OPENAI_API_KEY")
// 以下はシンガポールリージョンの base_url です。
option.WithBaseURL("https://dashscope-intl.aliyuncs.com/compatible-mode/v1/"),
)
chatCompletion, err := client.Chat.Completions.New(
context.TODO(), openai.ChatCompletionNewParams{
Messages: openai.F(
[]openai.ChatCompletionMessageParamUnion{
openai.UserMessage("Who are you?"),
},
),
Model: openai.F("qwen-plus"),
},
)
if err != nil {
panic(err.Error())
}
println(chatCompletion.Choices[0].Message.Content)
}
C# (HTTP) using System.Net.Http.Headers;
using System.Text;
class Program
{
private static readonly HttpClient httpClient = new HttpClient();
static async Task Main(string[] args)
{
// 環境変数が設定されていない場合、次の行を string? apiKey = "sk-xxx"; に置き換えます
// シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
string? apiKey = Environment.GetEnvironmentVariable("DASHSCOPE_API_KEY");
if (string.IsNullOrEmpty(apiKey))
{
Console.WriteLine("API キーが設定されていません。「DASHSCOPE_API_KEY」環境変数が設定されていることを確認してください。");
return;
}
// リクエスト URL とコンテンツを設定
// 以下はシンガポールリージョンの base_url です。
string url = "https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions";
// この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
string jsonContent = @"{
""model"": ""qwen-plus"",
""messages"": [
{
""role"": ""system"",
""content"": ""You are a helpful assistant.""
},
{
""role"": ""user"",
""content"": ""Who are you?""
}
]
}";
// リクエストを送信して応答を取得
string result = await SendPostRequestAsync(url, jsonContent, apiKey);
// 結果を出力
Console.WriteLine(result);
}
private static async Task<string> SendPostRequestAsync(string url, string jsonContent, string apiKey)
{
using (var content = new StringContent(jsonContent, Encoding.UTF8, "application/json"))
{
// リクエストヘッダーを設定
httpClient.DefaultRequestHeaders.Authorization = new AuthenticationHeaderValue("Bearer", apiKey);
httpClient.DefaultRequestHeaders.Accept.Add(new MediaTypeWithQualityHeaderValue("application/json"));
// リクエストを送信して応答を取得
HttpResponseMessage response = await httpClient.PostAsync(url, content);
// 応答を処理
if (response.IsSuccessStatusCode)
{
return await response.Content.ReadAsStringAsync();
}
else
{
return $"リクエストが失敗しました: {response.StatusCode}";
}
}
}
}PHP (HTTP) <?php
// リクエスト URL を設定
// 以下はシンガポールリージョンの base_url です。
$url = 'https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions';
// 環境変数が設定されていない場合、次の行を $apiKey = "sk-xxx"; に置き換えます
// シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
$apiKey = getenv('DASHSCOPE_API_KEY');
// リクエストヘッダーを設定
$headers = [
'Authorization: Bearer '.$apiKey,
'Content-Type: application/json'
];
// リクエストボディを設定
$data = [
// この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
"model" => "qwen-plus",
"messages" => [
[
"role" => "system",
"content" => "You are a helpful assistant."
],
[
"role" => "user",
"content" => "Who are you?"
]
]
];
// cURL セッションを初期化
$ch = curl_init();
// cURL オプションを設定
curl_setopt($ch, CURLOPT_URL, $url);
curl_setopt($ch, CURLOPT_POST, true);
curl_setopt($ch, CURLOPT_POSTFIELDS, json_encode($data));
curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);
curl_setopt($ch, CURLOPT_HTTPHEADER, $headers);
// cURL セッションを実行
$response = curl_exec($ch);
// エラーをチェック
if (curl_errno($ch)) {
echo 'Curl error: ' . curl_error($ch);
}
// cURL リソースを閉じる
curl_close($ch);
// 応答を出力
echo $response;
?>curl シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください。北京リージョンのモデルを使用する場合は、URL を https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions に置き換えてください。 curl -X POST https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "qwen-plus",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "Who are you?"
}
]
}'ストリーミング出力 詳細については、「ストリーミング出力 」をご参照ください。 Python import os
from openai import OpenAI
client = OpenAI(
# 環境変数が設定されていない場合は、次の行を api_key="sk-xxx" に置き換えます
# シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーを取得するには、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
api_key=os.getenv("DASHSCOPE_API_KEY"),
# 以下は、シンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えます
base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
)
completion = client.chat.completions.create(
model="qwen-plus", # この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルのリストについては、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
messages=[{'role': 'system', 'content': 'You are a helpful assistant.'},
{'role': 'user', 'content': 'Who are you?'}],
stream=True,
stream_options={"include_usage": True}
)
for chunk in completion:
print(chunk.model_dump_json())Node.js import OpenAI from "openai";
const openai = new OpenAI(
{
// シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
apiKey: process.env.DASHSCOPE_API_KEY,
// 以下はシンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えてください
baseURL: "https://dashscope-intl.aliyuncs.com/compatible-mode/v1"
}
);
async function main() {
const completion = await openai.chat.completions.create({
model: "qwen-plus", // この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
messages: [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Who are you?"}
],
stream: true,
});
for await (const chunk of completion) {
console.log(JSON.stringify(chunk));
}
}
main();curl シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください 北京リージョンのモデルを使用する場合は、URL を https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions に置き換えてください。 curl --location "https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions" \
--header "Authorization: Bearer $DASHSCOPE_API_KEY" \
--header "Content-Type: application/json" \
--data '{
"model": "qwen-plus",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "Who are you?"
}
],
"stream":true
}'画像入力 大規模言語モデルを使用して画像を分析する他の方法については、「視覚理解 」をご参照ください。 Python import os
from openai import OpenAI
client = OpenAI(
# 環境変数が設定されていない場合は、次の行を api_key="sk-xxx" に置き換えます
# シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーを取得するには、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
api_key=os.getenv("DASHSCOPE_API_KEY"),
# 以下は、シンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えます
base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
)
completion = client.chat.completions.create(
model="qwen-vl-plus", # この例では qwen-vl-plus を使用します。必要に応じてモデル名を変更できます。モデルのリストについては、https://www.alibabacloud.com/help/en/model-studio/models をご参照ください
messages=[{"role": "user","content": [
{"type": "image_url",
"image_url": {"url": "https://dashscope.oss-cn-beijing.aliyuncs.com/images/dog_and_girl.jpeg"}},
{"type": "text", "text": "What is this?"},
]}]
)
print(completion.model_dump_json())Node.js import OpenAI from "openai";
const openai = new OpenAI(
{
// シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
apiKey: process.env.DASHSCOPE_API_KEY,
// 以下はシンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えてください
baseURL: "https://dashscope-intl.aliyuncs.com/compatible-mode/v1"
}
);
async function main() {
const response = await openai.chat.completions.create({
model: "qwen-vl-max", // この例では qwen-vl-max を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/models をご参照ください
messages: [{role: "user",content: [
{ type: "image_url",image_url: {"url": "https://dashscope.oss-cn-beijing.aliyuncs.com/images/dog_and_girl.jpeg"}},
{ type: "text", text: "これは何ですか?" },
]}]
});
console.log(JSON.stringify(response));
}
main();curl シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください 北京リージョンのモデルを使用する場合は、URL を https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions に置き換えてください。 curl -X POST https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H 'Content-Type: application/json' \
-d '{
"model": "qwen-vl-plus",
"messages": [{
"role": "user",
"content": [
{"type": "image_url","image_url": {"url": "https://dashscope.oss-cn-beijing.aliyuncs.com/images/dog_and_girl.jpeg"}},
{"type": "text","text": "これは何ですか?"}
]}]
}'ビデオ入力 以下は画像リストを渡す例です。ビデオファイルを渡すなど、その他の使用方法については「視覚理解 」をご参照ください。 Python import os
from openai import OpenAI
client = OpenAI(
# 環境変数が設定されていない場合は、次の行を api_key="sk-xxx" に置き換えます
# シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーを取得するには、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
api_key=os.getenv("DASHSCOPE_API_KEY"),
# 以下は、シンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えます
base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
)
completion = client.chat.completions.create(
# この例では qwen-vl-max を使用します。必要に応じてモデル名を変更できます。モデルのリストについては、https://www.alibabacloud.com/help/en/model-studio/models をご参照ください
model="qwen-vl-max",
messages=[{
"role": "user",
"content": [
{
"type": "video",
"video": [
"https://img.alicdn.com/imgextra/i3/O1CN01K3SgGo1eqmlUgeE9b_!!6000000003923-0-tps-3840-2160.jpg",
"https://img.alicdn.com/imgextra/i4/O1CN01BjZvwg1Y23CF5qIRB_!!6000000003000-0-tps-3840-2160.jpg",
"https://img.alicdn.com/imgextra/i4/O1CN01Ib0clU27vTgBdbVLQ_!!6000000007859-0-tps-3840-2160.jpg",
"https://img.alicdn.com/imgextra/i1/O1CN01aygPLW1s3EXCdSN4X_!!6000000005710-0-tps-3840-2160.jpg"]
},
{
"type": "text",
"text": "このビデオのプロセスを説明してください。"
}]}]
)
print(completion.model_dump_json())Node.js // package.json で "type": "module" を指定していることを確認してください。
import OpenAI from "openai";
const openai = new OpenAI({
// 環境変数が設定されていない場合、次の行を apiKey: "sk-xxx", に置き換えます
// シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
apiKey: process.env.DASHSCOPE_API_KEY,
// 以下はシンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えてください
baseURL: "https://dashscope-intl.aliyuncs.com/compatible-mode/v1"
});
async function main() {
const response = await openai.chat.completions.create({
// この例では qwen-vl-max を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/models をご参照ください
model: "qwen-vl-max",
messages: [{
role: "user",
content: [
{
type: "video",
video: [
"https://img.alicdn.com/imgextra/i3/O1CN01K3SgGo1eqmlUgeE9b_!!6000000003923-0-tps-3840-2160.jpg",
"https://img.alicdn.com/imgextra/i4/O1CN01BjZvwg1Y23CF5qIRB_!!6000000003000-0-tps-3840-2160.jpg",
"https://img.alicdn.com/imgextra/i4/O1CN01Ib0clU27vTgBdbVLQ_!!6000000007859-0-tps-3840-2160.jpg",
"https://img.alicdn.com/imgextra/i1/O1CN01aygPLW1s3EXCdSN4X_!!6000000005710-0-tps-3840-2160.jpg"
]
},
{
type: "text",
text: "このビデオのプロセスを説明してください。"
}
]}]
});
console.log(JSON.stringify(response));
}
main();curl シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーを取得 してください。以下はシンガポールリージョンの base_url です。 curl -X POST https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H 'Content-Type: application/json' \
-d '{
"model": "qwen-vl-max",
"messages": [
{
"role": "user",
"content": [
{
"type": "video",
"video": [
"https://img.alicdn.com/imgextra/i3/O1CN01K3SgGo1eqmlUgeE9b_!!6000000003923-0-tps-3840-2160.jpg",
"https://img.alicdn.com/imgextra/i4/O1CN01BjZvwg1Y23CF5qIRB_!!6000000003000-0-tps-3840-2160.jpg",
"https://img.alicdn.com/imgextra/i4/O1CN01Ib0clU27vTgBdbVLQ_!!6000000007859-0-tps-3840-2160.jpg",
"https://img.alicdn.com/imgextra/i1/O1CN01aygPLW1s3EXCdSN4X_!!6000000005710-0-tps-3840-2160.jpg"
]
},
{
"type": "text",
"text": "このビデオのプロセスを説明してください。"
}
]
}
]
}'ツール呼び出し 関数呼び出しの完全なワークフローのコードについては、「関数呼び出し 」をご参照ください。 Qwen3 (思考モード) および QwQ モデルの関数呼び出しコードについては、「深層思考 」をご参照ください。 Python import os
from openai import OpenAI
client = OpenAI(
// 環境変数が設定されていない場合、次の行を api_key="sk-xxx" に置き換えます
// シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
api_key=os.getenv("DASHSCOPE_API_KEY"),
// 以下はシンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えてください
base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
)
tools = [
// ツール 1: 現在時刻を取得
{
"type": "function",
"function": {
"name": "get_current_time",
"description": "現在時刻を知りたい場合に役立ちます。",
"parameters": {} // parameters は空の辞書です。現在時刻を取得するには入力が不要なためです
}
},
// ツール 2: 指定された都市の天気を取得
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "特定の都市の天気を確認したい場合に役立ちます。",
"parameters": {
"type": "object",
"properties": {
// 天気を確認するには場所が必要なため、パラメーターは location に設定されています
"location": {
"type": "string",
"description": "北京や杭州、余杭区などの都市または地区。"
}
},
"required": ["location"]
}
}
}
]
messages = [{"role": "user", "content": "杭州の天気はどうですか?"}]
completion = client.chat.completions.create(
model="qwen-plus", // この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
messages=messages,
tools=tools
)
print(completion.model_dump_json())Node.js import OpenAI from "openai";
const openai = new OpenAI(
{
// 環境変数が設定されていない場合、次の行を apiKey: "sk-xxx", に置き換えます
// シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
apiKey: process.env.DASHSCOPE_API_KEY,
// 以下はシンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えてください
baseURL: "https://dashscope-intl.aliyuncs.com/compatible-mode/v1"
}
);
const messages = [{"role": "user", "content": "杭州の天気はどうですか?"}];
const tools = [
// ツール 1: 現在時刻を取得
{
"type": "function",
"function": {
"name": "get_current_time",
"description": "現在時刻を知りたい場合に役立ちます。",
// parameters は空です。現在時刻を取得するには入力が不要なためです
"parameters": {}
}
},
// ツール 2: 指定された都市の天気を取得
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "特定の都市の天気を確認したい場合に役立ちます。",
"parameters": {
"type": "object",
"properties": {
// 天気を確認するには場所が必要なため、パラメーターは location に設定されています
"location": {
"type": "string",
"description": "北京や杭州、余杭区などの都市または地区。"
}
},
"required": ["location"]
}
}
}
];
async function main() {
const response = await openai.chat.completions.create({
model: "qwen-plus", // この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
messages: messages,
tools: tools,
});
console.log(JSON.stringify(response));
}
main();curl シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーを取得 してください。以下はシンガポールリージョンの base_url です。 curl -X POST https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "qwen-plus",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "杭州の天気はどうですか?"
}
],
"tools": [
{
"type": "function",
"function": {
"name": "get_current_time",
"description": "現在時刻を知りたい場合に役立ちます。",
"parameters": {}
}
},
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "特定の都市の天気を確認したい場合に役立ちます。",
"parameters": {
"type": "object",
"properties": {
"location":{
"type": "string",
"description": "北京や杭州、余杭区などの都市または地区。"
}
},
"required": ["location"]
}
}
}
]
}'非同期呼び出し import os
import asyncio
from openai import AsyncOpenAI
import platform
client = AsyncOpenAI(
// 環境変数が設定されていない場合、次の行を api_key="sk-xxx" に置き換えます
// 中国 (北京) リージョンのモデルを使用する場合は、そのリージョンの API KEY を使用する必要があります。こちらから取得できます:https://bailian.console.alibabacloud.com/?tab=model#/api-key
api_key=os.getenv("DASHSCOPE_API_KEY"),
// 以下はシンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えてください
base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
)
async def main():
response = await client.chat.completions.create(
messages=[{"role": "user", "content": "Who are you?"}],
model="qwen-plus", // この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
)
print(response.model_dump_json())
if platform.system() == "Windows":
asyncio.set_event_loop_policy(asyncio.WindowsSelectorEventLoopPolicy())
asyncio.run(main()) model string (必須)
使用するモデルの名前。
サポートされているモデルには、Qwen 大規模言語モデル (商用およびオープンソース)、Qwen-VL、Qwen-Coder、Qwen-Omni、および Qwen-Math が含まれます。
Qwen-Audio は OpenAI 互換プロトコルをサポートしていません。DashScope プロトコルのみをサポートしています。 具体的なモデル名と課金情報については、「 モデル 」をご参照ください。
messages array (必須)
モデルへの会話履歴。時系列順に記述します。
メッセージタイプ
システムメッセージ object (任意)
大規模言語モデルのロール、トーン、タスク目的、または制約を設定するシステムメッセージです。messages 配列の先頭に配置してください。
QwQ モデルにはシステムメッセージを設定しないでください。QVQ モデルではシステムメッセージは効果がありません。 プロパティ
content string (必須)
モデルのロール、動作、応答スタイル、およびタスク制約を定義するシステム命令。
role string (必須)
システムメッセージのロール。値は固定で system です。
ユーザーメッセージ object (必須)
質問、命令、またはコンテキストをモデルに渡すユーザーメッセージ。
プロパティ
content string or array (必須)
メッセージのコンテンツ。テキストのみの入力では文字列になります。マルチモーダル入力 (画像など) や明示的キャッシュが有効な場合は配列になります。
マルチモーダルモデルまたは明示的キャッシュが有効な場合のプロパティ
type string (必須)
有効な値:
text
テキスト入力の場合は text に設定します。
image_url
画像入力の場合は image_url に設定します。
input_audio
音声入力の場合は input_audio に設定します。
video
ビデオ入力が画像リストの場合、video に設定します。
video_url
ビデオファイル入力の場合は video_url に設定します。
一部の Qwen-VL モデルのみがビデオファイル入力をサポートしています。詳細については、「ビデオ理解 (Qwen-VL) 」をご参照ください。QVQ および Qwen-Omni モデルは直接ビデオファイル入力をサポートしています。 text string
入力テキスト。このパラメーターは type が text の場合に必須です。
image_url object
入力画像情報。このパラメーターは type が image_url の場合に必須です。
プロパティ
url string (必須)
画像の URL または Base64 Data URL。ローカルファイルを渡す方法については、「視覚理解 」をご参照ください。
input_audio object
入力音声情報。このパラメーターは type が input_audio の場合に必須です。
プロパティ
format string (必須)
入力音声のフォーマット。例:mp3 または wav。
video array
画像リストとしてのビデオ情報 。このパラメーターは type が video の場合に必須です。使用方法については、「ビデオ理解 (Qwen-VL) 」、「ビデオ理解 (QVQ) 」、または「ビデオ理解 (Qwen-Omni) 」をご参照ください。
例:
[
"https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20241108/xzsgiz/football1.jpg",
"https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20241108/tdescd/football2.jpg",
"https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20241108/zefdja/football3.jpg",
"https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20241108/aedbqh/football4.jpg"
]video_url object
入力ビデオファイル情報。このパラメーターは type が video_url の場合に必須です。
Qwen-VL はビデオファイルの視覚情報のみを理解できます。Qwen-Omni は視覚情報と音声情報を両方理解できます。
fps float (任意)
1 秒あたりに抽出するフレーム数。値は [0.1, 10] の範囲内である必要があります。デフォルト値は 2.0 です。
このパラメーターには 2 つの機能があります:
例:
画像リスト入力の場合:{"video":["https://xx1.jpg",...,"https://xxn.jpg"],"fps":2}
ビデオファイル入力の場合:{"video": "https://xx1.mp4","fps":2}
fps 値が大きいほど、スポーツイベントやアクション映画などの高速動作シナリオに適しています。fps 値が小さいほど、長尺ビデオや静的なシーンのコンテンツに適しています。
min_pixels integer (任意)
入力画像またはビデオフレームの最小ピクセルしきい値を設定します。入力画像またはビデオフレームのピクセル数が min_pixels より小さい場合、総ピクセル数が min_pixels を超えるまで拡大されます。
画像入力の場合:
ビデオファイルまたは画像リスト入力の場合:
適用モデル:Qwen-VL、QVQ
値の範囲:
min_pixels 値の範囲
Qwen3-VL (商用およびオープンソースバージョンを含む)、qwen-vl-max、qwen-vl-max-latest、qwen-vl-max-0813、qwen-vl-plus、qwen-vl-plus-latest、qwen-vl-plus-0815:デフォルト値は 65536 です。最小値は 4096 です。
その他の qwen-vl-plus モデル、その他の qwen-vl-max モデル、オープンソース Qwen2.5-VL シリーズ、および QVQ シリーズモデル:デフォルト値は 50176 です。最小値は 3136 です。
例:
ビデオファイル入力の場合:{"type": "video_url","video_url": {"url":"https://xxxx.mp4"},"min_pixels": 65536}
画像リスト入力の場合:{"type": "video","video": ["https://xx1.jpg",...,"https://xxn.jpg"],"min_pixels": 65536}
max_pixels integer (任意)
入力画像またはビデオフレームの最大ピクセルしきい値を設定します。入力画像またはビデオのピクセル数が [min_pixels, max_pixels] の範囲内の場合、モデルは元の画像を処理します。ピクセル数が max_pixels を超える場合、総ピクセル数が max_pixels 未満になるまで縮小されます。
画像入力の場合:
ビデオファイルまたは画像リスト入力の場合:
適用モデル:Qwen-VL、QVQ
値の範囲:
max_pixels 値の範囲
qwen3-vl-plus シリーズ、qwen3-vl-flash シリーズ、qwen3-vl-235b-a22b-thinking、および qwen3-vl-235b-a22b-instruct:デフォルト値は 655360 です。最大値は 2048000 です。
その他のオープンソース Qwen3-VL モデル、qwen-vl-max、qwen-vl-max-latest、qwen-vl-max-0813、qwen-vl-plus、qwen-vl-plus-latest、qwen-vl-plus-0815:デフォルト値は 655360 です。最大値は 786432 です。
その他の qwen-vl-plus モデル、その他の qwen-vl-max モデル、オープンソース Qwen2.5-VL シリーズ、および QVQ シリーズモデル:デフォルト値は 501760 です。最大値は 602112 です。
例:
ビデオファイル入力の場合:{"type": "video_url","video_url": {"url":"https://xxxx.mp4"},"max_pixels": 655360}
画像リスト入力の場合:{"type": "video","video": ["https://xx1.jpg",...,"https://xxn.jpg"],"max_pixels": 655360}
total_pixels integer (任意)
ビデオから抽出されたすべてのフレームの合計ピクセル数を制限します (フレームあたりのピクセル数 × 総フレーム数)。ビデオの合計ピクセル数がこの制限を超える場合、システムはビデオフレームを縮小します。ただし、任意の単一フレームのピクセル値が [min_pixels, max_pixels] の範囲内に収まるようにします。Qwen-VL および QVQ に適用されます。
フレーム数が多い長尺ビデオの場合、この値を下げることでトークン消費量と処理時間を削減できます。ただし、画像の詳細が失われる可能性があります。
値の範囲
qwen3-vl-plus シリーズ、qwen3-vl-flash シリーズ、qwen3-vl-235b-a22b-thinking、および qwen3-vl-235b-a22b-instruct:デフォルト値および最小値は 134217728 です。この値は 131072 の画像トークンに対応します (1 画像トークンあたり 32×32 ピクセル)。
その他のオープンソース Qwen3-VL モデル、qwen-vl-max、qwen-vl-max-latest、qwen-vl-max-0813、qwen-vl-plus、qwen-vl-plus-latest、qwen-vl-plus-0815:デフォルト値および最小値は 67108864 です。この値は 65536 の画像トークンに対応します (1 画像トークンあたり 32×32 ピクセル)。
その他の qwen-vl-plus モデル、その他の qwen-vl-max モデル、オープンソース Qwen2.5-VL シリーズ、および QVQ シリーズモデル:デフォルト値および最小値は 51380224 です。この値は 65536 の画像トークンに対応します (1 画像トークンあたり 28×28 ピクセル)。
例
ビデオファイル入力の場合:{"type": "video_url","video_url": {"url":"https://xxxx.mp4"},"total_pixels": 134217728}
画像リスト入力の場合:{"type": "video","video": ["https://xx1.jpg",...,"https://xxn.jpg"],"total_pixels": 134217728}
cache_control object (任意)
明示的キャッシュを有効にします。詳細については、「明示的キャッシュ 」をご参照ください。
プロパティ
type string (必須)
ephemeral のみをサポートしています。
role string (必須)
ユーザーメッセージのロール。値は固定で user です。
アシスタントメッセージ object (任意)
モデルの返信。通常、マルチターン対話でコンテキストとしてモデルに再送信されます。
プロパティ
content string (任意)
モデルの返信のテキストコンテンツ。tool_calls が含まれている場合、content は空にできます。それ以外の場合、content は必須です。
role string (必須)
アシスタントメッセージのロール。値は固定で assistant です。
partial boolean (任意) デフォルト値:false
部分モード を有効にするかどうかを指定します。
有効な値:
サポートされているモデル
Qwen-Max シリーズ
qwen3-max、qwen3-max-2025-09-23、qwen3-max-preview (非思考モード)、qwen-max、qwen-max-latest、および qwen-max-2025-01-25 以降のスナップショットモデル
Qwen-Plus シリーズ (非思考モード)
qwen-plus、qwen-plus-latest、および qwen-plus-2025-01-25 以降のスナップショットモデル
Qwen-Flash シリーズ (非思考モード)
qwen-flash、および qwen-flash-2025-07-28 以降のスナップショットモデル
Qwen-Coder シリーズ
qwen3-coder-plus、qwen3-coder-flash、qwen3-coder-480b-a35b-instruct、qwen3-coder-30b-a3b-instruct
Qwen-VL シリーズ
qwen3-vl-plus シリーズ (非思考モード)
qwen3-vl-plus、および qwen3-vl-plus-2025-09-23 以降のスナップショットモデル
qwen3-vl-flash シリーズ (非思考モード)
qwen3-vl-flash、および qwen3-vl-flash-2025-10-15 以降のスナップショットモデル
qwen-vl-max シリーズ
qwen-vl-max、qwen-vl-max-latest、および qwen-vl-max-2025-04-08 以降のスナップショットモデル
qwen-vl-plus シリーズ
qwen-vl-plus、qwen-vl-plus-latest、および qwen-vl-plus-2025-01-25 以降のスナップショットモデル
Qwen-Turbo シリーズ (非思考モード)
qwen-turbo、qwen-turbo-latest、および qwen-turbo-2024-11-01 以降のスナップショットモデル
Qwen オープンソースシリーズ
Qwen3 オープンソースモデル (非思考モード)、Qwen2.5 シリーズテキストモデル、Qwen3-VL オープンソースモデル (非思考モード)
tool_calls array (任意)
関数呼び出しが開始された後に返されるツールおよび入力パラメーター情報。1 つ以上のオブジェクトを含み、前のモデル応答の tool_calls フィールドから取得します。
プロパティ
type string (必須)
ツールタイプ。現在、function のみをサポートしています。
function object (必須)
ツールおよび入力パラメーター情報。
プロパティ
arguments string (必須)
入力パラメーター情報。JSON 文字列形式です。
index integer (必須)
tool_calls 配列内の現在のツール情報のインデックス。
ツールメッセージ object (任意)
ツールの出力情報。
プロパティ
content string (必須)
ツール関数の出力コンテンツ。文字列である必要があります。ツールが構造化データ (JSON など) を返す場合、文字列にシリアル化してください。
role string (必須)
値は固定で tool です。
tool_call_id string (必須)
関数呼び出しが開始された後に返される ID。completion.choices[0].message.tool_calls[$index].id から取得します。この ID は、対応するツールメッセージを識別します。
stream boolean (任意) デフォルト値:false
ストリーミング出力モードを有効にします。詳細については、「ストリーミング出力 」をご参照ください。
有効な値:
true に設定すると、ユーザーエクスペリエンスが向上し、タイムアウトのリスクが軽減されます。
stream_options object (任意)
ストリーミング出力の構成オプション。このパラメーターは、stream が true に設定されている場合にのみ有効です。
プロパティ
include_usage boolean (任意) デフォルト値:false
応答の最後のデータブロック にトークン消費情報が含まれるかどうかを指定します。
有効な値:
ストリーミング出力の場合、トークン消費情報は応答の最後のデータブロックにのみ表示されます。 modalities array (任意) デフォルト値:["text"]
出力データのモダリティ。このパラメーターは Qwen-Omni モデルにのみ適用されます。詳細については、「オムニモーダル 」をご参照ください。
有効な値:
audio object (任意)
出力音声の音声とフォーマット。このパラメーターは Qwen-Omni モデルにのみ適用され、modalities パラメーターを ["text","audio"] に設定する必要があります。詳細については、「オムニモーダル 」をご参照ください。
プロパティ
voice string (必須)
出力音声の音声。詳細については、「音声リスト 」をご参照ください。
format string (必須)
出力音声のフォーマット。wav のみをサポートしています。
temperature float (任意)
サンプリング温度。この値は、モデルが生成するテキストの多様性を制御します。
値が高いほど多様性が増し、値が低いほど出力が決定論的になります。
値の範囲:[0, 2)
temperature と top_p はどちらも生成テキストの多様性を制御します。いずれか一方のみを設定してください。詳細については、「テキスト生成モデルの概要 」をご参照ください。
QVQ モデルのデフォルト temperature 値は変更しないでください。 top_p float (任意)
ヌクレウスサンプリングの確率しきい値。モデルが生成するテキストの多様性を制御します。
top_p 値が高いほどテキストが多様になり、値が低いほどテキストが決定論的になります。
値の範囲:(0, 1.0]
temperature と top_p はどちらも生成テキストの多様性を制御します。いずれか一方のみを設定してください。詳細については、「テキスト生成モデルの概要 」をご参照ください。
QVQ モデルのデフォルト top_p 値は変更しないでください。 top_k integer (任意)
生成中にサンプリングする候補トークンの数。値が大きいほどランダムな出力になり、値が小さいほど決定論的な出力になります。このパラメーターが null または 100 を超える値に設定されている場合、top_k 戦略は無効になり、top_p 戦略のみが有効になります。値は 0 以上の整数である必要があります。
デフォルトの top_k 値
QVQ シリーズ、qwen-vl-plus-2025-07-10、および qwen-vl-plus-2025-08-15:10。
QwQ シリーズ:40。
その他の qwen-vl-plus シリーズ、qwen-vl-max-2025-08-13 より前のモデル、qwen2.5-omni-7b:1。
Qwen3-Omni-Flash シリーズ:50。
その他のすべてのモデル:20。
このパラメーターは標準的な OpenAI パラメーターではありません。Python SDK を使用して呼び出す場合、このパラメーターを extra_body オブジェクトに配置してください。 設定方法:extra_body={"top_k":xxx}。QVQ モデルのデフォルト top_k 値は変更しないでください。 presence_penalty float (任意)
モデルがコンテンツの繰り返しを避ける程度を制御します。
値の範囲:[-2.0, 2.0]。正の値は繰り返しを減らし、負の値は繰り返しを増やします。
創造性や多様性が求められるシナリオ (創造的な文章作成やブレインストーミングなど) では、この値を上げてください。一貫性や用語の正確性が求められるシナリオ (技術文書や正式なテキストなど) では、この値を下げてください。
デフォルトの presence_penalty 値
qwen3-max-preview (思考モード)、Qwen3 (非思考モード)、Qwen3-Instruct シリーズ、qwen3-0.6b/1.7b/4b (思考モード)、QVQ シリーズ、qwen-max、qwen-max-latest、qwen-max-latest、qwen2.5-vl シリーズ、qwen-vl-max シリーズ、qwen-vl-plus、Qwen3-VL (非思考):1.5。
qwen-vl-plus-latest、qwen-vl-plus-2025-08-15:1.2。
qwen-vl-plus-2025-01-25:1.0。
qwen3-8b/14b/32b/30b-a3b/235b-a22b (思考モード)、qwen-plus/qwen-plus-latest/2025-04-28 (思考モード)、qwen-turbo/qwen-turbo/2025-04-28 (思考モード):0.5。
その他のすべてのモデル:0.0。
動作原理
パラメーター値が正の場合、モデルはテキスト内にすでに存在するトークンにペナルティを課します。ペナルティ量はトークンが出現する回数に依存しません。これにより、これらのトークンが再び出現する可能性が低下し、コンテンツの繰り返しが減少して単語の多様性が増加します。
例
プロンプト: この文を英語に翻訳してください: "Esta película es buena. La trama es buena, la actuación es buena, la música es buena, y en general, toda la película es simplemente buena. Es realmente buena, de hecho. La trama es tan buena, y la actuación es tan buena, y la música es tan buena."
パラメーター値 2.0: この映画はとても良いです。プロットは素晴らしく、演技も素晴らしく、音楽も非常に良いです。そして全体的に、この映画は信じられないほど素晴らしいです。実際、実に秀逸です。プロットは非常にエキサイティングで、演技は傑出しており、音楽はとても美しいです。
パラメーター値 0.0: この映画は良いです。プロットは良く、演技も良く、音楽も良いです。そして全体として、映画全体が非常に良いです。実際、本当に素晴らしいです。プロットは非常に良く、演技も傑出しており、音楽も秀逸です。
パラメーター値 -2.0:この映画はとても良いです。プロットはとても良く、演技もとても良く、音楽もとても良いです。そして全体的に、映画全体がとても良いです。実際、本当に素晴らしいです。プロットはとても良く、演技もまたとても良く、音楽もまたとても良いです。
qwen-vl-plus-2025-01-25 モデルを使用してテキスト抽出を行う場合、presence_penalty を 1.5 に設定してください。 QVQ モデルのデフォルト presence_penalty 値は変更しないでください。 response_format object (任意) デフォルト値:{"type": "text"}
返されるコンテンツのフォーマット。有効な値:
{"type": "text"}:テキスト返信を出力します。
{"type": "json_object"}:標準フォーマットの JSON 文字列を出力します。
{"type": "json_schema","json_schema": {...} }:指定されたフォーマットの JSON 文字列を出力します。
詳細については、「構造化出力 」をご参照ください。 {"type": "json_object"} を指定する場合、プロンプトでモデルに JSON 形式で出力するよう明示的に指示する必要があります (例:「JSON 形式で出力してください」)。そうしないとエラーが発生します。サポートされているモデルについては、「構造化出力 」をご参照ください。 プロパティ
type string (必須)
返されるコンテンツのフォーマット。有効な値:
json_schema object
type が json_schema の場合に必須となるフィールドです。構造化出力の構成を定義します。
プロパティ
name string (必須)
スキーマの一意な名前。名前には英数字 (大文字・小文字を区別しない)、アンダースコア (_)、ハイフン (-) のみを使用できます。名前の長さは最大 64 文字です。
description string (任意)
スキーマの目的の説明。これにより、モデルは出力のセマンティックコンテキストを理解しやすくなります。
schema object (任意)
JSON Schema 標準に準拠したオブジェクト。モデル出力のデータ構造を定義します。
JSON Schema の構築方法については、JSON Schema strict boolean (任意) デフォルト値:false
モデルがすべてのスキーマ制約に厳密に従う必要があるかどうかを指定します。
max_input_tokens integer (任意)
入力に許可される最大トークン長。このパラメーターは現在、qwen-plus-0728 および qwen-plus-latest モデルでのみサポートされています。
qwen-plus-latest デフォルト値:129,024
将来的にデフォルト値が 1,000,000 に調整される可能性があります。 qwen-plus-2025-07-28 デフォルト値:1,000,000
このパラメーターは標準的な OpenAI パラメーターではありません。Python SDK を使用して呼び出す場合、このパラメーターを extra_body オブジェクトに配置してください。 設定方法:extra_body={"max_input_tokens": xxx}。max_tokens integer (任意)
応答の最大トークン数。この制限に達すると生成が停止し、返される finish_reason は length になります。
デフォルト値および最大値は、モデルの最大出力長です。詳細については、「モデル 」をご参照ください。
このパラメーターは、要約やキーワードの生成などの出力長を制御する必要があるシナリオや、コストを削減して応答時間を短縮する場合に役立ちます。
max_tokens がトリガーされると、応答の finish_reason フィールドは length になります。
max_tokens は、思考の連鎖の長さを制限するものではありません。vl_high_resolution_images boolean (任意) デフォルト値:false
有効にすると、入力画像の最大ピクセル制限が引き上げられます。制限は、16384 トークンに対応するピクセル値に設定されます。詳細については、「高解像度画像の処理 」をご参照ください。
vl_high_resolution_images: true:固定解像度戦略が使用され、max_pixels 設定は無視されます。画像がこの解像度を超える場合、総ピクセル数がこの制限にダウンスケールされます。
各モデルのピクセル制限を表示
vl_high_resolution_images が True の場合、モデルごとに異なるピクセル制限があります:
Qwen3-VL シリーズ、qwen-vl-max、qwen-vl-max-latest、qwen-vl-max-0813、qwen-vl-plus、qwen-vl-plus-latest、qwen-vl-plus-0815:16777216 (各 Token は 32*32 ピクセルに対応、つまり 16384*32*32)
QVQ シリーズ およびその他の Qwen2.5-VL シリーズ モデル:12845056 (各 Token は 28*28 ピクセルに対応、つまり 16384*28*28)
vl_high_resolution_images が false の場合、実際の解像度は max_pixels とデフォルト制限の両方によって決定されます。画像が max_pixels を超える場合、max_pixels にダウンスケールされます。モデルのデフォルトピクセル制限は、max_pixels のデフォルト値です。
このパラメーターは標準的な OpenAI パラメーターではありません。Python SDK を使用して呼び出す場合、このパラメーターを extra_body オブジェクトに配置してください。 設定方法:extra_body={"vl_high_resolution_images":xxx}。n integer (任意) デフォルト値:1
生成する応答の数を指定します。値の範囲は 1-4 です。創造的な文章作成や広告コピーなど、複数の候補応答が必要なシナリオに役立ちます。
このパラメーターは、非思考モードの Qwen3 モデル のみでサポートされています。 tools パラメーターを渡す場合、n を 1 に設定してください。n を増やすと出力トークンの消費量が増加しますが、入力トークンの消費量は増加しません。 enable_thinking boolean (任意)
ハイブリッド思考モデルの思考モードを有効にします。Qwen3、Qwen3-Omni-Flash、および Qwen3-VL モデルに適用されます。詳細については、「深層思考 」をご参照ください。
有効な値:
true
有効にすると、思考コンテンツは reasoning_content フィールドで返されます。 false
モデルごとのデフォルト値:サポートされているモデル
このパラメーターは標準的な OpenAI パラメーターではありません。Python SDK を使用して呼び出す場合、このパラメーターを extra_body オブジェクトに配置してください。 設定方法:extra_body={"enable_thinking": xxx}。thinking_budget integer (任意)
思考プロセスの最大トークン数。Qwen3-VL および Qwen3 モデルの商用版とオープンソース版に適用されます。詳細については、「思考長の制限 」をご参照ください。
デフォルト値は、モデルの思考の連鎖の最大長です。詳細については、「モデル 」をご参照ください。
このパラメーターは標準的な OpenAI パラメーターではありません。Python SDK を使用して呼び出す場合、このパラメーターを extra_body オブジェクトに配置してください。 設定方法:extra_body={"thinking_budget": xxx}。enable_code_interpreter boolean (任意) デフォルト値:false
コードインタープリター機能を有効にするかどうかを指定します。このパラメーターは、model が qwen3-max-preview に設定され、かつ enable_thinking が true に設定されている場合にのみ有効になります。詳細については、「コードインタープリター 」をご参照ください。
有効な値:
このパラメーターは標準的な OpenAI パラメーターではありません。Python SDK を使用して呼び出す場合、このパラメーターを extra_body オブジェクトに配置してください。 設定方法:extra_body={"enable_code_interpreter": xxx}。seed integer (任意)
乱数のシード。このパラメーターにより、同じ入力とパラメーターに対して結果を再現可能にします。同じ seed 値を呼び出しで渡し、他のパラメーターが変更されない場合、モデルは可能な限り同じ結果を返します。
値の範囲:[0,2<sup>31</sup>-1]。
logprobs boolean (任意) デフォルト値:false
出力トークンの対数確率を返すかどうかを指定します。有効な値:
思考フェーズ (reasoning_content) で生成されたコンテンツは、対数確率を返しません。 top_logprobs integer (任意) デフォルト値:0
各生成ステップで返される最も可能性の高い候補トークンの数を指定します。
値の範囲:[0, 5]
このパラメーターは、logprobs が true に設定されている場合にのみ有効です。
stop string or array (任意)
ストップワードを指定します。モデルが生成したテキストに stop で指定された文字列または token_id が出現した場合、生成は直ちに停止します。
禁止用語を渡して、モデルの出力を制御します。
stop が配列の場合、token_id と文字列を同時に要素として使用しないでください。例:["Hello",104307] は有効な値ではありません。 tools array (任意)
関数呼び出しでモデルが呼び出す 1 つ以上のツールオブジェクトを含む配列。詳細については、「関数呼び出し 」をご参照ください。
tools が設定され、モデルがツールの呼び出しが必要と判断した場合、応答は tool_calls フィールドにツール情報を返します。
プロパティ
type string (必須)
ツールタイプ。現在、function のみをサポートしています。
function object (必須)
プロパティ
name string (必須)
ツール名。英数字、アンダースコア (_)、ハイフン (-) のみを使用できます。最大長は 64 トークンです。
description string (必須)
このツールをいつ使用するかをモデルに理解させるのに役立ちます。
parameters object (任意) デフォルト値:{}
ツールのパラメーターの説明。有効な JSON Schema である必要があります。詳細については、JSON Schema をご参照ください。パラメーター parameters が空の場合、ツールに入力パラメーターがないことを意味します (例:時刻照会ツール)。
parameters を指定すると、より正確なツール呼び出しが可能になります。tool_choice string or object (任意) デフォルト値:auto
ツール選択ポリシー。このパラメーターを設定して、特定のタイプの質問に対して常に特定のツールを使用する、またはすべてのツールを無効にするなどの強制的なツール呼び出しを行います。
有効な値:
auto
モデルが自動的にツールを選択します。
none
ツール呼び出しを無効にするには、tool_choice パラメーターを none に設定します。
{"type": "function", "function": {"name": "the_function_to_call"}}
特定のツールを強制的に呼び出すには、tool_choice パラメーターを {"type": "function", "function": {"name": "the_function_to_call"}} に設定します。ここで、the_function_to_call は指定するツール関数の名前です。
思考モードのモデルは、特定のツールを強制的に呼び出すことをサポートしていません。 parallel_tool_calls boolean (任意) デフォルト値:false
並列ツール呼び出しを有効にするかどうかを指定します。詳細については、「並列ツール呼び出し 」をご参照ください。
有効な値:
enable_search boolean (任意) デフォルト値:false
Web 検索を有効にします。詳細については、「Web 検索 」をご参照ください。
有効な値:
true
有効にしても Web 検索がトリガーされない場合は、プロンプトを最適化するか、search_options の forced_search パラメーターを設定して強制検索を有効にしてください。 false
Web 検索機能を有効にすると、トークンの消費量が増加する可能性があります。 このパラメーターは標準的な OpenAI パラメーターではありません。Python SDK を使用して呼び出す場合、このパラメーターを extra_body オブジェクトに含めてください。 設定方法:extra_body={"enable_search": True}。search_options object (任意)
Web 検索戦略。詳細については、「Web 検索 」をご参照ください。
プロパティ
forced_search boolean (任意) デフォルト値:false
Web 検索を強制するかどうかを指定します。このパラメーターは、enable_search が true の場合にのみ有効です。
有効な値:
search_strategy string (任意) デフォルト値:turbo
検索戦略。このパラメーターは、enable_search が true の場合にのみ有効です。
有効な値:
turbo (デフォルト):応答速度と検索効果のバランスを取ります。ほとんどのシナリオに適しています。
max:より包括的な検索戦略を使用し、複数の検索エンジンを呼び出してより詳細な結果を取得できます。ただし、応答時間が長くなる可能性があります。
agent:Web 検索ツールと大規模言語モデルを複数回呼び出して、複数ラウンドの情報取得とコンテンツ統合を実行します。
agent 戦略は、qwen3-max および qwen3-max-2025-09-23 にのみ適用されます。agent 戦略は、他の Web 検索戦略と同時に設定することはできません。enable_search_extension boolean (任意) デフォルト値:false
ドメイン固有の検索を有効にするかどうかを指定します。このパラメーターは、enable_search が true の場合にのみ有効です。
有効な値:
このパラメーターは標準的な OpenAI パラメーターではありません。Python SDK を使用して呼び出す場合、このパラメーターを extra_body オブジェクトに配置してください。 設定方法:extra_body={"search_options": xxx}。