すべてのプロダクト
Search
ドキュメントセンター

Alibaba Cloud Model Studio:OpenAI Chat API リファレンス

最終更新日:Jan 27, 2026

Qwen OpenAI Chat API の入力パラメーター、出力パラメーター、およびコードサンプルを提供します。

シンガポール

SDK の base_urlhttps://dashscope-intl.aliyuncs.com/compatible-mode/v1

HTTP エンドポイント:POST https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions

米国 (バージニア)

SDK の base_urlhttps://dashscope-us.aliyuncs.com/compatible-mode/v1

HTTP エンドポイント:POST https://dashscope-us.aliyuncs.com/compatible-mode/v1/chat/completions

中国 (北京)

SDK の base_urlhttps://dashscope.aliyuncs.com/compatible-mode/v1

HTTP エンドポイント:POST https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions

まず、API キーを作成し、環境変数として設定してください。OpenAI SDK を使用する場合は、SDK をインストールしてください。

リクエストボディ

POST /chat/completions

OpenAI 互換 API のオンラインデバッグ

POST https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions

テキスト入力

Python

import os
from openai import OpenAI


client = OpenAI(
    # 環境変数が設定されていない場合、次の行を api_key="sk-xxx" に置き換えます
    # シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    # 以下はシンガポールリージョンの base_url です。
    base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1",  
)

completion = client.chat.completions.create(
    # この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
    model="qwen-plus",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Who are you?"},
    ],
    # Qwen3 モデルの場合、enable_thinking パラメーターを使用して思考プロセスを制御できます(オープンソースモデルではデフォルトで True、商用モデルでは False)。
    # Qwen3 オープンソースモデルでストリーミング出力を使用しない場合、エラーを回避するために次の行のコメントを外してください。
    # extra_body={"enable_thinking": False},
)
print(completion.model_dump_json())

Java

リクエスト例

// このコードは OpenAI SDK バージョン 2.6.0 を使用しています
import com.openai.client.OpenAIClient;
import com.openai.client.okhttp.OpenAIOkHttpClient;
import com.openai.models.chat.completions.ChatCompletion;
import com.openai.models.chat.completions.ChatCompletionCreateParams;

public class Main {
    public static void main(String[] args) {
        OpenAIClient client = OpenAIOkHttpClient.builder()
                // シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
                .apiKey(System.getenv("DASHSCOPE_API_KEY"))
                // 以下はシンガポールリージョンの base_url です。
                .baseUrl("https://dashscope-intl.aliyuncs.com/compatible-mode/v1") 
                .build();

        ChatCompletionCreateParams params = ChatCompletionCreateParams.builder()
                .addUserMessage("Who are you?")
                .model("qwen-plus")
                .build();

        try {
            ChatCompletion chatCompletion = client.chat().completions().create(params);
            System.out.println(chatCompletion);
        } catch (Exception e) {
            System.err.println("Error occurred: " + e.getMessage());
            e.printStackTrace();
        }
    }
}

Node.js

import OpenAI from "openai";

const openai = new OpenAI(
    {
        // 環境変数が設定されていない場合、次の行を apiKey: "sk-xxx", に置き換えます
        // シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
        apiKey: process.env.DASHSCOPE_API_KEY,
        // 以下はシンガポールリージョンの base_url です。
        baseURL: "https://dashscope-intl.aliyuncs.com/compatible-mode/v1" 
    }
);

async function main() {
    const completion = await openai.chat.completions.create({
        model: "qwen-plus",  //この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
        messages: [
            { role: "system", content: "You are a helpful assistant." },
            { role: "user", content: "Who are you?" }
        ],
    });
    console.log(JSON.stringify(completion))
}

main();

Go

package main

import (
	"context"
	"os"

	"github.com/openai/openai-go"
	"github.com/openai/openai-go/option"
)

func main() {
	client := openai.NewClient(
	        // シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
		option.WithAPIKey(os.Getenv("DASHSCOPE_API_KEY")), // defaults to os.LookupEnv("OPENAI_API_KEY")
		// 以下はシンガポールリージョンの base_url です。
		option.WithBaseURL("https://dashscope-intl.aliyuncs.com/compatible-mode/v1/"), 
	)
	chatCompletion, err := client.Chat.Completions.New(
		context.TODO(), openai.ChatCompletionNewParams{
			Messages: openai.F(
				[]openai.ChatCompletionMessageParamUnion{
					openai.UserMessage("Who are you?"),
				},
			),
			Model: openai.F("qwen-plus"),
		},
	)

	if err != nil {
		panic(err.Error())
	}

	println(chatCompletion.Choices[0].Message.Content)
}

C# (HTTP)

using System.Net.Http.Headers;
using System.Text;

class Program
{
    private static readonly HttpClient httpClient = new HttpClient();

    static async Task Main(string[] args)
    {
        // 環境変数が設定されていない場合、次の行を string? apiKey = "sk-xxx"; に置き換えます
        // シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
        string? apiKey = Environment.GetEnvironmentVariable("DASHSCOPE_API_KEY");

        if (string.IsNullOrEmpty(apiKey))
        {
            Console.WriteLine("API キーが設定されていません。「DASHSCOPE_API_KEY」環境変数が設定されていることを確認してください。");
            return;
        }

        // リクエスト URL とコンテンツを設定
        // 以下はシンガポールリージョンの base_url です。
        string url = "https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions";
        // この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
        string jsonContent = @"{
            ""model"": ""qwen-plus"",
            ""messages"": [
                {
                    ""role"": ""system"",
                    ""content"": ""You are a helpful assistant.""
                },
                {
                    ""role"": ""user"", 
                    ""content"": ""Who are you?""
                }
            ]
        }";

        // リクエストを送信して応答を取得
        string result = await SendPostRequestAsync(url, jsonContent, apiKey);

        // 結果を出力
        Console.WriteLine(result);
    }

    private static async Task<string> SendPostRequestAsync(string url, string jsonContent, string apiKey)
    {
        using (var content = new StringContent(jsonContent, Encoding.UTF8, "application/json"))
        {
            // リクエストヘッダーを設定
            httpClient.DefaultRequestHeaders.Authorization = new AuthenticationHeaderValue("Bearer", apiKey);
            httpClient.DefaultRequestHeaders.Accept.Add(new MediaTypeWithQualityHeaderValue("application/json"));

            // リクエストを送信して応答を取得
            HttpResponseMessage response = await httpClient.PostAsync(url, content);

            // 応答を処理
            if (response.IsSuccessStatusCode)
            {
                return await response.Content.ReadAsStringAsync();
            }
            else
            {
                return $"リクエストが失敗しました: {response.StatusCode}";
            }
        }
    }
}

PHP (HTTP)

<?php
// リクエスト URL を設定
// 以下はシンガポールリージョンの base_url です。
$url = 'https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions';
// 環境変数が設定されていない場合、次の行を $apiKey = "sk-xxx"; に置き換えます
// シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
$apiKey = getenv('DASHSCOPE_API_KEY');
// リクエストヘッダーを設定
$headers = [
    'Authorization: Bearer '.$apiKey,
    'Content-Type: application/json'
];
// リクエストボディを設定
$data = [
    // この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
    "model" => "qwen-plus",
    "messages" => [
        [
            "role" => "system",
            "content" => "You are a helpful assistant."
        ],
        [
            "role" => "user",
            "content" => "Who are you?"
        ]
    ]
];
// cURL セッションを初期化
$ch = curl_init();
// cURL オプションを設定
curl_setopt($ch, CURLOPT_URL, $url);
curl_setopt($ch, CURLOPT_POST, true);
curl_setopt($ch, CURLOPT_POSTFIELDS, json_encode($data));
curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);
curl_setopt($ch, CURLOPT_HTTPHEADER, $headers);
// cURL セッションを実行
$response = curl_exec($ch);
// エラーをチェック
if (curl_errno($ch)) {
    echo 'Curl error: ' . curl_error($ch);
}
// cURL リソースを閉じる
curl_close($ch);
// 応答を出力
echo $response;
?>

curl

シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください。北京リージョンのモデルを使用する場合は、URL を https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions に置き換えてください。
curl -X POST https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H "Content-Type: application/json" \
-d '{
    "model": "qwen-plus",
    "messages": [
        {
            "role": "system",
            "content": "You are a helpful assistant."
        },
        {
            "role": "user", 
            "content": "Who are you?"
        }
    ]
}'

ストリーミング出力

詳細については、「ストリーミング出力」をご参照ください。

Python

import os
from openai import OpenAI

client = OpenAI(
    # 環境変数が設定されていない場合は、次の行を api_key="sk-xxx" に置き換えます
    # シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーを取得するには、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    # 以下は、シンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えます
    base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
)
completion = client.chat.completions.create(
    model="qwen-plus",  # この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルのリストについては、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
    messages=[{'role': 'system', 'content': 'You are a helpful assistant.'},
                {'role': 'user', 'content': 'Who are you?'}],
    stream=True,
    stream_options={"include_usage": True}
    )
for chunk in completion:
    print(chunk.model_dump_json())

Node.js

import OpenAI from "openai";

const openai = new OpenAI(
    {
        // シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
        apiKey: process.env.DASHSCOPE_API_KEY,
        // 以下はシンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えてください
        baseURL: "https://dashscope-intl.aliyuncs.com/compatible-mode/v1"
    }
);

async function main() {
    const completion = await openai.chat.completions.create({
        model: "qwen-plus", // この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
        messages: [
            {"role": "system", "content": "You are a helpful assistant."},
            {"role": "user", "content": "Who are you?"}
        ],
        stream: true,
    });
    for await (const chunk of completion) {
        console.log(JSON.stringify(chunk));
    }
}

main();

curl

シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
北京リージョンのモデルを使用する場合は、URL を https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions に置き換えてください。
curl --location "https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions" \
--header "Authorization: Bearer $DASHSCOPE_API_KEY" \
--header "Content-Type: application/json" \
--data '{
    "model": "qwen-plus",
    "messages": [
        {
            "role": "system",
            "content": "You are a helpful assistant."
        },
        {
            "role": "user", 
            "content": "Who are you?"
        }
    ],
    "stream":true
}'

画像入力

大規模言語モデルを使用して画像を分析する他の方法については、「視覚理解」をご参照ください。

Python

import os
from openai import OpenAI

client = OpenAI(
    # 環境変数が設定されていない場合は、次の行を api_key="sk-xxx" に置き換えます
    # シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーを取得するには、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    # 以下は、シンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えます
    base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
)
completion = client.chat.completions.create(
    model="qwen-vl-plus",  # この例では qwen-vl-plus を使用します。必要に応じてモデル名を変更できます。モデルのリストについては、https://www.alibabacloud.com/help/en/model-studio/models をご参照ください
    messages=[{"role": "user","content": [
            {"type": "image_url",
             "image_url": {"url": "https://dashscope.oss-cn-beijing.aliyuncs.com/images/dog_and_girl.jpeg"}},
            {"type": "text", "text": "What is this?"},
            ]}]
    )
print(completion.model_dump_json())

Node.js

import OpenAI from "openai";

const openai = new OpenAI(
    {
        // シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
        apiKey: process.env.DASHSCOPE_API_KEY,
         // 以下はシンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えてください
        baseURL: "https://dashscope-intl.aliyuncs.com/compatible-mode/v1"
    }
);

async function main() {
    const response = await openai.chat.completions.create({
        model: "qwen-vl-max", // この例では qwen-vl-max を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/models をご参照ください
        messages: [{role: "user",content: [
            { type: "image_url",image_url: {"url": "https://dashscope.oss-cn-beijing.aliyuncs.com/images/dog_and_girl.jpeg"}},
            { type: "text", text: "これは何ですか?" },
        ]}]
    });
    console.log(JSON.stringify(response));
}

main();

curl

シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
北京リージョンのモデルを使用する場合は、URL を https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions に置き換えてください。
curl -X POST https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H 'Content-Type: application/json' \
-d '{
  "model": "qwen-vl-plus",
  "messages": [{
      "role": "user",
      "content": [
       {"type": "image_url","image_url": {"url": "https://dashscope.oss-cn-beijing.aliyuncs.com/images/dog_and_girl.jpeg"}},
       {"type": "text","text": "これは何ですか?"}
       ]}]
}'

ビデオ入力

以下は画像リストを渡す例です。ビデオファイルを渡すなど、その他の使用方法については「視覚理解」をご参照ください。

Python

import os
from openai import OpenAI

client = OpenAI(
    # 環境変数が設定されていない場合は、次の行を api_key="sk-xxx" に置き換えます
    # シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーを取得するには、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    # 以下は、シンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えます
    base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1",  
)
completion = client.chat.completions.create(
    # この例では qwen-vl-max を使用します。必要に応じてモデル名を変更できます。モデルのリストについては、https://www.alibabacloud.com/help/en/model-studio/models をご参照ください
    model="qwen-vl-max",
    messages=[{
        "role": "user",
        "content": [
            {
                "type": "video",
                "video": [
                    "https://img.alicdn.com/imgextra/i3/O1CN01K3SgGo1eqmlUgeE9b_!!6000000003923-0-tps-3840-2160.jpg",
                    "https://img.alicdn.com/imgextra/i4/O1CN01BjZvwg1Y23CF5qIRB_!!6000000003000-0-tps-3840-2160.jpg",
                    "https://img.alicdn.com/imgextra/i4/O1CN01Ib0clU27vTgBdbVLQ_!!6000000007859-0-tps-3840-2160.jpg",
                    "https://img.alicdn.com/imgextra/i1/O1CN01aygPLW1s3EXCdSN4X_!!6000000005710-0-tps-3840-2160.jpg"]
            },
            {
                "type": "text",
                "text": "このビデオのプロセスを説明してください。"
            }]}]
)
print(completion.model_dump_json())

Node.js

// package.json で "type": "module" を指定していることを確認してください。
import OpenAI from "openai"; 

const openai = new OpenAI({
    // 環境変数が設定されていない場合、次の行を apiKey: "sk-xxx", に置き換えます
    // シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
    apiKey: process.env.DASHSCOPE_API_KEY, 
    // 以下はシンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えてください
    baseURL: "https://dashscope-intl.aliyuncs.com/compatible-mode/v1"    
});

async function main() {
    const response = await openai.chat.completions.create({
        // この例では qwen-vl-max を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/models をご参照ください 
        model: "qwen-vl-max",
        messages: [{
            role: "user",
            content: [
                {
                    type: "video",
                    video: [
                        "https://img.alicdn.com/imgextra/i3/O1CN01K3SgGo1eqmlUgeE9b_!!6000000003923-0-tps-3840-2160.jpg",
                        "https://img.alicdn.com/imgextra/i4/O1CN01BjZvwg1Y23CF5qIRB_!!6000000003000-0-tps-3840-2160.jpg",
                        "https://img.alicdn.com/imgextra/i4/O1CN01Ib0clU27vTgBdbVLQ_!!6000000007859-0-tps-3840-2160.jpg",
                        "https://img.alicdn.com/imgextra/i1/O1CN01aygPLW1s3EXCdSN4X_!!6000000005710-0-tps-3840-2160.jpg"
                    ]
                },
                {
                    type: "text",
                    text: "このビデオのプロセスを説明してください。"
                }
        ]}]
    });
    console.log(JSON.stringify(response));
}

main();

curl

シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーを取得してください。以下はシンガポールリージョンの base_url です。
curl -X POST https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H 'Content-Type: application/json' \
-d '{
    "model": "qwen-vl-max",
    "messages": [
        {
            "role": "user",
            "content": [
                {
                    "type": "video",
                    "video": [
                        "https://img.alicdn.com/imgextra/i3/O1CN01K3SgGo1eqmlUgeE9b_!!6000000003923-0-tps-3840-2160.jpg",
                        "https://img.alicdn.com/imgextra/i4/O1CN01BjZvwg1Y23CF5qIRB_!!6000000003000-0-tps-3840-2160.jpg",
                        "https://img.alicdn.com/imgextra/i4/O1CN01Ib0clU27vTgBdbVLQ_!!6000000007859-0-tps-3840-2160.jpg",
                        "https://img.alicdn.com/imgextra/i1/O1CN01aygPLW1s3EXCdSN4X_!!6000000005710-0-tps-3840-2160.jpg"
                    ]
                },
                {
                    "type": "text",
                    "text": "このビデオのプロセスを説明してください。"
                }
            ]
        }
    ]
}'

ツール呼び出し

関数呼び出しの完全なワークフローのコードについては、「関数呼び出し」をご参照ください。
Qwen3 (思考モード) および QwQ モデルの関数呼び出しコードについては、「深層思考」をご参照ください。

Python

import os
from openai import OpenAI

client = OpenAI(
    // 環境変数が設定されていない場合、次の行を api_key="sk-xxx" に置き換えます
    // シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    // 以下はシンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えてください
    base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1",  
)

tools = [
    // ツール 1: 現在時刻を取得
    {
        "type": "function",
        "function": {
            "name": "get_current_time",
            "description": "現在時刻を知りたい場合に役立ちます。",
            "parameters": {}  // parameters は空の辞書です。現在時刻を取得するには入力が不要なためです
        }
    },  
    // ツール 2: 指定された都市の天気を取得
    {
        "type": "function",
        "function": {
            "name": "get_current_weather",
            "description": "特定の都市の天気を確認したい場合に役立ちます。",
            "parameters": {  
                "type": "object",
                "properties": {
                    // 天気を確認するには場所が必要なため、パラメーターは location に設定されています
                    "location": {
                        "type": "string",
                        "description": "北京や杭州、余杭区などの都市または地区。"
                    }
                },
                "required": ["location"]
            }
        }
    }
]
messages = [{"role": "user", "content": "杭州の天気はどうですか?"}]
completion = client.chat.completions.create(
    model="qwen-plus",  // この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
    messages=messages,
    tools=tools
)

print(completion.model_dump_json())

Node.js

import OpenAI from "openai";

const openai = new OpenAI(
    {
        // 環境変数が設定されていない場合、次の行を apiKey: "sk-xxx", に置き換えます
        // シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーの取得方法については、https://www.alibabacloud.com/help/en/model-studio/get-api-key をご参照ください
        apiKey: process.env.DASHSCOPE_API_KEY,
        // 以下はシンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えてください
        baseURL: "https://dashscope-intl.aliyuncs.com/compatible-mode/v1"
    }
);

const messages = [{"role": "user", "content": "杭州の天気はどうですか?"}];
const tools = [
// ツール 1: 現在時刻を取得
{
    "type": "function",
    "function": {
        "name": "get_current_time",
        "description": "現在時刻を知りたい場合に役立ちます。",
        // parameters は空です。現在時刻を取得するには入力が不要なためです
        "parameters": {}  
    }
},  
// ツール 2: 指定された都市の天気を取得
{
    "type": "function",
    "function": {
        "name": "get_current_weather",
        "description": "特定の都市の天気を確認したい場合に役立ちます。",
        "parameters": {  
            "type": "object",
            "properties": {
                // 天気を確認するには場所が必要なため、パラメーターは location に設定されています
                "location": {
                    "type": "string",
                    "description": "北京や杭州、余杭区などの都市または地区。"
                }
            },
            "required": ["location"]
        }
    }
}
];

async function main() {
    const response = await openai.chat.completions.create({
        model: "qwen-plus", // この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
        messages: messages,
        tools: tools,
    });
    console.log(JSON.stringify(response));
}

main();

curl

シンガポール/バージニアリージョンと北京リージョンの API キーは異なります。API キーを取得してください。以下はシンガポールリージョンの base_url です。
curl -X POST https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H "Content-Type: application/json" \
-d '{
    "model": "qwen-plus",
    "messages": [
        {
            "role": "system",
            "content": "You are a helpful assistant."
        },
        {
            "role": "user", 
            "content": "杭州の天気はどうですか?"
        }
    ],
    "tools": [
    {
        "type": "function",
        "function": {
            "name": "get_current_time",
            "description": "現在時刻を知りたい場合に役立ちます。",
            "parameters": {}
        }
    },
    {
        "type": "function",
        "function": {
            "name": "get_current_weather",
            "description": "特定の都市の天気を確認したい場合に役立ちます。",
            "parameters": {
                "type": "object",
                "properties": {
                    "location":{
                        "type": "string",
                        "description": "北京や杭州、余杭区などの都市または地区。"
                    }
                },
                "required": ["location"]
            }
        }
    }
  ]
}'

非同期呼び出し

import os
import asyncio
from openai import AsyncOpenAI
import platform

client = AsyncOpenAI(
    // 環境変数が設定されていない場合、次の行を api_key="sk-xxx" に置き換えます
    // 中国 (北京) リージョンのモデルを使用する場合は、そのリージョンの API KEY を使用する必要があります。こちらから取得できます:https://bailian.console.alibabacloud.com/?tab=model#/api-key
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    // 以下はシンガポール/バージニアリージョンの base_url です。北京リージョンのモデルを使用する場合は、base_url を https://dashscope.aliyuncs.com/compatible-mode/v1 に置き換えてください
    base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
)

async def main():
    response = await client.chat.completions.create(
        messages=[{"role": "user", "content": "Who are you?"}],
        model="qwen-plus",  // この例では qwen-plus を使用しています。必要に応じてモデル名を変更できます。モデルの一覧については、https://www.alibabacloud.com/help/en/model-studio/getting-started/models をご参照ください
    )
    print(response.model_dump_json())

if platform.system() == "Windows":
    asyncio.set_event_loop_policy(asyncio.WindowsSelectorEventLoopPolicy())
asyncio.run(main())

model string (必須)

使用するモデルの名前。

サポートされているモデルには、Qwen 大規模言語モデル (商用およびオープンソース)、Qwen-VL、Qwen-Coder、Qwen-Omni、および Qwen-Math が含まれます。

Qwen-Audio は OpenAI 互換プロトコルをサポートしていません。DashScope プロトコルのみをサポートしています。

具体的なモデル名と課金情報については、「モデル」をご参照ください。

messages array (必須)

モデルへの会話履歴。時系列順に記述します。

メッセージタイプ

システムメッセージ object (任意)

大規模言語モデルのロール、トーン、タスク目的、または制約を設定するシステムメッセージです。messages 配列の先頭に配置してください。

QwQ モデルにはシステムメッセージを設定しないでください。QVQ モデルではシステムメッセージは効果がありません。

プロパティ

content string (必須)

モデルのロール、動作、応答スタイル、およびタスク制約を定義するシステム命令。

role string (必須)

システムメッセージのロール。値は固定で system です。

ユーザーメッセージ object (必須)

質問、命令、またはコンテキストをモデルに渡すユーザーメッセージ。

プロパティ

content string or array (必須)

メッセージのコンテンツ。テキストのみの入力では文字列になります。マルチモーダル入力 (画像など) や明示的キャッシュが有効な場合は配列になります。

マルチモーダルモデルまたは明示的キャッシュが有効な場合のプロパティ

type string (必須)

有効な値:

  • text

    テキスト入力の場合は text に設定します。

  • image_url

    画像入力の場合は image_url に設定します。

  • input_audio

    音声入力の場合は input_audio に設定します。

  • video

    ビデオ入力が画像リストの場合、video に設定します。

  • video_url

    ビデオファイル入力の場合は video_url に設定します。

    一部の Qwen-VL モデルのみがビデオファイル入力をサポートしています。詳細については、「ビデオ理解 (Qwen-VL)」をご参照ください。QVQ および Qwen-Omni モデルは直接ビデオファイル入力をサポートしています。

text string

入力テキスト。このパラメーターは typetext の場合に必須です。

image_url object

入力画像情報。このパラメーターは typeimage_url の場合に必須です。

プロパティ

url string (必須)

画像の URL または Base64 Data URL。ローカルファイルを渡す方法については、「視覚理解」をご参照ください。

input_audio object

入力音声情報。このパラメーターは typeinput_audio の場合に必須です。

プロパティ

data string (必須)

音声の URL または Base64 Data URL。ローカルファイルを渡す方法については、「Base64 エンコードされたローカルファイルの入力」をご参照ください。

format string (必須)

入力音声のフォーマット。例:mp3 または wav

video array

画像リストとしてのビデオ情報。このパラメーターは typevideo の場合に必須です。使用方法については、「ビデオ理解 (Qwen-VL)」、「ビデオ理解 (QVQ)」、または「ビデオ理解 (Qwen-Omni)」をご参照ください。

例:

[
    "https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20241108/xzsgiz/football1.jpg",
    "https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20241108/tdescd/football2.jpg",
    "https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20241108/zefdja/football3.jpg",
    "https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20241108/aedbqh/football4.jpg"
]

video_url object

入力ビデオファイル情報。このパラメーターは typevideo_url の場合に必須です。

Qwen-VL はビデオファイルの視覚情報のみを理解できます。Qwen-Omni は視覚情報と音声情報を両方理解できます。

プロパティ

url string (必須)

ビデオファイルのパブリックネットワーク URL または Base64 Data URL。ローカルビデオファイルを入力する方法については、「Base64 エンコードされたローカルファイルの入力」をご参照ください。

fps float (任意)

1 秒あたりに抽出するフレーム数。値は [0.1, 10] の範囲内である必要があります。デフォルト値は 2.0 です。

このパラメーターには 2 つの機能があります:

  • ビデオファイル入力の場合、フレーム抽出頻度を制御します。1 フレームは 秒ごとに抽出されます。

    Qwen-VL および QVQ モデル に適用されます。
  • 隣接するフレーム間の時間間隔をモデルに通知します。これにより、モデルはビデオの時間的ダイナミクスをよりよく理解できます。この機能は、ビデオファイル入力と画像リスト入力の両方に適用され、イベント時間のローカライズやセグメントコンテンツの要約などのシナリオに適しています。

    Qwen2.5-VLQwen3-VL、および QVQ モデルをサポートします。

例:

  • 画像リスト入力の場合:{"video":["https://xx1.jpg",...,"https://xxn.jpg"],"fps":2}

  • ビデオファイル入力の場合:{"video": "https://xx1.mp4","fps":2}

fps 値が大きいほど、スポーツイベントやアクション映画などの高速動作シナリオに適しています。fps 値が小さいほど、長尺ビデオや静的なシーンのコンテンツに適しています。

min_pixels integer (任意)

入力画像またはビデオフレームの最小ピクセルしきい値を設定します。入力画像またはビデオフレームのピクセル数が min_pixels より小さい場合、総ピクセル数が min_pixels を超えるまで拡大されます。

  • 画像入力の場合:

    • 適用モデル:Qwen-VL、QVQ

    • 値の範囲:

      min_pixels 値の範囲

      • Qwen3-VL:デフォルト値および最小値は 65536 です。

      • qwen-vl-maxqwen-vl-max-latestqwen-vl-max-0813qwen-vl-plusqwen-vl-plus-latestqwen-vl-plus-0815:デフォルト値および最小値は 4096 です。

      • その他の qwen-vl-plus モデル、その他の qwen-vl-max モデル、オープンソース Qwen2.5-VL シリーズ、および QVQ シリーズモデル:デフォルト値および最小値は 3136 です。

    • 例:{"type": "image_url","image_url": {"url":"https://xxxx.jpg"},"min_pixels": 65536}

  • ビデオファイルまたは画像リスト入力の場合:

    • 適用モデル:Qwen-VL、QVQ

    • 値の範囲:

      min_pixels 値の範囲

      • Qwen3-VL (商用およびオープンソースバージョンを含む)、qwen-vl-maxqwen-vl-max-latestqwen-vl-max-0813qwen-vl-plusqwen-vl-plus-latestqwen-vl-plus-0815:デフォルト値は 65536 です。最小値は 4096 です。

      • その他の qwen-vl-plus モデル、その他の qwen-vl-max モデル、オープンソース Qwen2.5-VL シリーズ、および QVQ シリーズモデル:デフォルト値は 50176 です。最小値は 3136 です。

    • 例:

      • ビデオファイル入力の場合:{"type": "video_url","video_url": {"url":"https://xxxx.mp4"},"min_pixels": 65536}

      • 画像リスト入力の場合:{"type": "video","video": ["https://xx1.jpg",...,"https://xxn.jpg"],"min_pixels": 65536}

max_pixels integer (任意)

入力画像またはビデオフレームの最大ピクセルしきい値を設定します。入力画像またはビデオのピクセル数が [min_pixels, max_pixels] の範囲内の場合、モデルは元の画像を処理します。ピクセル数が max_pixels を超える場合、総ピクセル数が max_pixels 未満になるまで縮小されます。

  • 画像入力の場合:

    • 適用モデル:Qwen-VL、QVQ

    • 値の範囲:

      max_pixels 値の範囲

      max_pixels の値は、<a baseurl="t3230321_v1_0_0.xdita" data-node="4759789" data-root="85177" data-tag="xref" href="t2614691.xdita#0edad44583knr" id="8c77169308s40">vl_high_resolution_images</a> パラメーターが有効になっているかどうかによって異なります。

      • vl_high_resolution_imagesFalse の場合:

        • Qwen3-VL:デフォルト値は 2621440 です。最大値は 16777216 です。

        • qwen-vl-maxqwen-vl-max-latestqwen-vl-max-0813qwen-vl-plusqwen-vl-plus-latestqwen-vl-plus-0815:デフォルト値は 1310720 です。最大値は 16777216 です。

        • その他の qwen-vl-plus モデル、その他の qwen-vl-max モデル、オープンソース Qwen2.5-VL シリーズ、および QVQ シリーズモデル:デフォルト値は 1003520 です。最大値は 12845056 です。

      • vl_high_resolution_imagesTrue の場合:

        • Qwen3-VLqwen-vl-maxqwen-vl-max-latestqwen-vl-max-0813qwen-vl-plusqwen-vl-plus-latestqwen-vl-plus-0815max_pixels は無効です。入力画像の最大ピクセル数は固定で 16777216 です。

        • その他の qwen-vl-plus モデル、その他の qwen-vl-max モデル、オープンソース Qwen2.5-VL シリーズ、および QVQ シリーズモデル:max_pixels は無効です。入力画像の最大ピクセル数は固定で 12845056 です。

    • 例:{"type": "image_url","image_url": {"url":"https://xxxx.jpg"},"max_pixels": 8388608}

  • ビデオファイルまたは画像リスト入力の場合:

    • 適用モデル:Qwen-VL、QVQ

    • 値の範囲:

      max_pixels 値の範囲

      • qwen3-vl-plus シリーズ、qwen3-vl-flash シリーズ、qwen3-vl-235b-a22b-thinking、および qwen3-vl-235b-a22b-instruct:デフォルト値は 655360 です。最大値は 2048000 です。

      • その他のオープンソース Qwen3-VL モデル、qwen-vl-maxqwen-vl-max-latestqwen-vl-max-0813qwen-vl-plusqwen-vl-plus-latestqwen-vl-plus-0815:デフォルト値は 655360 です。最大値は 786432 です。

      • その他の qwen-vl-plus モデル、その他の qwen-vl-max モデル、オープンソース Qwen2.5-VL シリーズ、および QVQ シリーズモデル:デフォルト値は 501760 です。最大値は 602112 です。

    • 例:

      • ビデオファイル入力の場合:{"type": "video_url","video_url": {"url":"https://xxxx.mp4"},"max_pixels": 655360}

      • 画像リスト入力の場合:{"type": "video","video": ["https://xx1.jpg",...,"https://xxn.jpg"],"max_pixels": 655360}

total_pixels integer (任意)

ビデオから抽出されたすべてのフレームの合計ピクセル数を制限します (フレームあたりのピクセル数 × 総フレーム数)。ビデオの合計ピクセル数がこの制限を超える場合、システムはビデオフレームを縮小します。ただし、任意の単一フレームのピクセル値が [min_pixels, max_pixels] の範囲内に収まるようにします。Qwen-VL および QVQ に適用されます。

フレーム数が多い長尺ビデオの場合、この値を下げることでトークン消費量と処理時間を削減できます。ただし、画像の詳細が失われる可能性があります。

値の範囲

  • qwen3-vl-plus シリーズ、qwen3-vl-flash シリーズ、qwen3-vl-235b-a22b-thinking、および qwen3-vl-235b-a22b-instruct:デフォルト値および最小値は 134217728 です。この値は 131072 の画像トークンに対応します (1 画像トークンあたり 32×32 ピクセル)。

  • その他のオープンソース Qwen3-VL モデル、qwen-vl-maxqwen-vl-max-latestqwen-vl-max-0813qwen-vl-plusqwen-vl-plus-latestqwen-vl-plus-0815:デフォルト値および最小値は 67108864 です。この値は 65536 の画像トークンに対応します (1 画像トークンあたり 32×32 ピクセル)。

  • その他の qwen-vl-plus モデル、その他の qwen-vl-max モデル、オープンソース Qwen2.5-VL シリーズ、および QVQ シリーズモデル:デフォルト値および最小値は 51380224 です。この値は 65536 の画像トークンに対応します (1 画像トークンあたり 28×28 ピクセル)。

  • ビデオファイル入力の場合:{"type": "video_url","video_url": {"url":"https://xxxx.mp4"},"total_pixels": 134217728}

  • 画像リスト入力の場合:{"type": "video","video": ["https://xx1.jpg",...,"https://xxn.jpg"],"total_pixels": 134217728}

cache_control object (任意)

明示的キャッシュを有効にします。詳細については、「明示的キャッシュ」をご参照ください。

プロパティ

type string (必須)

ephemeral のみをサポートしています。

role string (必須)

ユーザーメッセージのロール。値は固定で user です。

アシスタントメッセージ object (任意)

モデルの返信。通常、マルチターン対話でコンテキストとしてモデルに再送信されます。

プロパティ

content string (任意)

モデルの返信のテキストコンテンツ。tool_calls が含まれている場合、content は空にできます。それ以外の場合、content は必須です。

role string (必須)

アシスタントメッセージのロール。値は固定で assistant です。

partial boolean (任意) デフォルト値:false

部分モードを有効にするかどうかを指定します。

有効な値:

  • true

  • false

サポートされているモデル

  • Qwen-Max シリーズ

    qwen3-max、qwen3-max-2025-09-23、qwen3-max-preview (非思考モード)、qwen-max、qwen-max-latest、および qwen-max-2025-01-25 以降のスナップショットモデル

  • Qwen-Plus シリーズ (非思考モード)

    qwen-plus、qwen-plus-latest、および qwen-plus-2025-01-25 以降のスナップショットモデル

  • Qwen-Flash シリーズ (非思考モード)

    qwen-flash、および qwen-flash-2025-07-28 以降のスナップショットモデル

  • Qwen-Coder シリーズ

    qwen3-coder-plus、qwen3-coder-flash、qwen3-coder-480b-a35b-instruct、qwen3-coder-30b-a3b-instruct

  • Qwen-VL シリーズ

    • qwen3-vl-plus シリーズ (非思考モード)

      qwen3-vl-plus、および qwen3-vl-plus-2025-09-23 以降のスナップショットモデル

    • qwen3-vl-flash シリーズ (非思考モード)

      qwen3-vl-flash、および qwen3-vl-flash-2025-10-15 以降のスナップショットモデル

    • qwen-vl-max シリーズ

      qwen-vl-max、qwen-vl-max-latest、および qwen-vl-max-2025-04-08 以降のスナップショットモデル

    • qwen-vl-plus シリーズ

      qwen-vl-plus、qwen-vl-plus-latest、および qwen-vl-plus-2025-01-25 以降のスナップショットモデル

  • Qwen-Turbo シリーズ (非思考モード)

    qwen-turbo、qwen-turbo-latest、および qwen-turbo-2024-11-01 以降のスナップショットモデル

  • Qwen オープンソースシリーズ

    Qwen3 オープンソースモデル (非思考モード)、Qwen2.5 シリーズテキストモデル、Qwen3-VL オープンソースモデル (非思考モード)

tool_calls array (任意)

関数呼び出しが開始された後に返されるツールおよび入力パラメーター情報。1 つ以上のオブジェクトを含み、前のモデル応答の tool_calls フィールドから取得します。

プロパティ

id string (必須)

ツール応答の ID。

type string (必須)

ツールタイプ。現在、function のみをサポートしています。

function object (必須)

ツールおよび入力パラメーター情報。

プロパティ

name string (必須)

ツール名。

arguments string (必須)

入力パラメーター情報。JSON 文字列形式です。

index integer (必須)

tool_calls 配列内の現在のツール情報のインデックス。

ツールメッセージ object (任意)

ツールの出力情報。

プロパティ

content string (必須)

ツール関数の出力コンテンツ。文字列である必要があります。ツールが構造化データ (JSON など) を返す場合、文字列にシリアル化してください。

role string (必須)

値は固定で tool です。

tool_call_id string (必須)

関数呼び出しが開始された後に返される ID。completion.choices[0].message.tool_calls[$index].id から取得します。この ID は、対応するツールメッセージを識別します。

stream boolean (任意) デフォルト値:false

ストリーミング出力モードを有効にします。詳細については、「ストリーミング出力」をご参照ください。

有効な値:

  • false:モデルは生成後に一度に完全なコンテンツを返します。

  • true:出力は逐次生成され送信されます。コンテンツの一部が生成されるとすぐにデータブロック (チャンク) が返されます。完全な返信を組み立てるには、これらのチャンクをリアルタイムで読み取る必要があります。

true に設定すると、ユーザーエクスペリエンスが向上し、タイムアウトのリスクが軽減されます。

stream_options object (任意)

ストリーミング出力の構成オプション。このパラメーターは、streamtrue に設定されている場合にのみ有効です。

プロパティ

include_usage boolean (任意) デフォルト値:false

応答の最後のデータブロックにトークン消費情報が含まれるかどうかを指定します。

有効な値:

  • true

  • false

ストリーミング出力の場合、トークン消費情報は応答の最後のデータブロックにのみ表示されます。

modalities array (任意) デフォルト値:["text"]

出力データのモダリティ。このパラメーターは Qwen-Omni モデルにのみ適用されます。詳細については、「オムニモーダル」をご参照ください。

有効な値:

  • ["text","audio"]:テキストと音声を返します。

  • ["text"]:テキストのみの出力を指定します。

audio object (任意)

出力音声の音声とフォーマット。このパラメーターは Qwen-Omni モデルにのみ適用され、modalities パラメーターを ["text","audio"] に設定する必要があります。詳細については、「オムニモーダル」をご参照ください。

プロパティ

voice string (必須)

出力音声の音声。詳細については、「音声リスト」をご参照ください。

format string (必須)

出力音声のフォーマット。wav のみをサポートしています。

temperature float (任意)

サンプリング温度。この値は、モデルが生成するテキストの多様性を制御します。

値が高いほど多様性が増し、値が低いほど出力が決定論的になります。

値の範囲:[0, 2)

temperature と top_p はどちらも生成テキストの多様性を制御します。いずれか一方のみを設定してください。詳細については、「テキスト生成モデルの概要」をご参照ください。

QVQ モデルのデフォルト temperature 値は変更しないでください。

top_p float (任意)

ヌクレウスサンプリングの確率しきい値。モデルが生成するテキストの多様性を制御します。

top_p 値が高いほどテキストが多様になり、値が低いほどテキストが決定論的になります。

値の範囲:(0, 1.0]

temperature と top_p はどちらも生成テキストの多様性を制御します。いずれか一方のみを設定してください。詳細については、「テキスト生成モデルの概要」をご参照ください。

QVQ モデルのデフォルト top_p 値は変更しないでください。

top_k integer (任意)

生成中にサンプリングする候補トークンの数。値が大きいほどランダムな出力になり、値が小さいほど決定論的な出力になります。このパラメーターが null または 100 を超える値に設定されている場合、top_k 戦略は無効になり、top_p 戦略のみが有効になります。値は 0 以上の整数である必要があります。

デフォルトの top_k 値

QVQ シリーズ、qwen-vl-plus-2025-07-10、および qwen-vl-plus-2025-08-15:10。

QwQ シリーズ:40。

その他の qwen-vl-plus シリーズ、qwen-vl-max-2025-08-13 より前のモデル、qwen2.5-omni-7b:1。

Qwen3-Omni-Flash シリーズ:50。

その他のすべてのモデル:20。

このパラメーターは標準的な OpenAI パラメーターではありません。Python SDK を使用して呼び出す場合、このパラメーターを extra_body オブジェクトに配置してください。 設定方法:extra_body={"top_k":xxx}。
QVQ モデルのデフォルト top_k 値は変更しないでください。

presence_penalty float (任意)

モデルがコンテンツの繰り返しを避ける程度を制御します。

値の範囲:[-2.0, 2.0]。正の値は繰り返しを減らし、負の値は繰り返しを増やします。

創造性や多様性が求められるシナリオ (創造的な文章作成やブレインストーミングなど) では、この値を上げてください。一貫性や用語の正確性が求められるシナリオ (技術文書や正式なテキストなど) では、この値を下げてください。

デフォルトの presence_penalty 値

qwen3-max-preview (思考モード)、Qwen3 (非思考モード)、Qwen3-Instruct シリーズ、qwen3-0.6b/1.7b/4b (思考モード)、QVQ シリーズ、qwen-max、qwen-max-latest、qwen-max-latest、qwen2.5-vl シリーズ、qwen-vl-max シリーズ、qwen-vl-plus、Qwen3-VL (非思考):1.5。

qwen-vl-plus-latest、qwen-vl-plus-2025-08-15:1.2。

qwen-vl-plus-2025-01-25:1.0。

qwen3-8b/14b/32b/30b-a3b/235b-a22b (思考モード)、qwen-plus/qwen-plus-latest/2025-04-28 (思考モード)、qwen-turbo/qwen-turbo/2025-04-28 (思考モード):0.5。

その他のすべてのモデル:0.0。

動作原理

パラメーター値が正の場合、モデルはテキスト内にすでに存在するトークンにペナルティを課します。ペナルティ量はトークンが出現する回数に依存しません。これにより、これらのトークンが再び出現する可能性が低下し、コンテンツの繰り返しが減少して単語の多様性が増加します。

プロンプト: この文を英語に翻訳してください: "Esta película es buena. La trama es buena, la actuación es buena, la música es buena, y en general, toda la película es simplemente buena. Es realmente buena, de hecho. La trama es tan buena, y la actuación es tan buena, y la música es tan buena."

パラメーター値 2.0: この映画はとても良いです。プロットは素晴らしく、演技も素晴らしく、音楽も非常に良いです。そして全体的に、この映画は信じられないほど素晴らしいです。実際、実に秀逸です。プロットは非常にエキサイティングで、演技は傑出しており、音楽はとても美しいです。

パラメーター値 0.0: この映画は良いです。プロットは良く、演技も良く、音楽も良いです。そして全体として、映画全体が非常に良いです。実際、本当に素晴らしいです。プロットは非常に良く、演技も傑出しており、音楽も秀逸です。

パラメーター値 -2.0:この映画はとても良いです。プロットはとても良く、演技もとても良く、音楽もとても良いです。そして全体的に、映画全体がとても良いです。実際、本当に素晴らしいです。プロットはとても良く、演技もまたとても良く、音楽もまたとても良いです。

qwen-vl-plus-2025-01-25 モデルを使用してテキスト抽出を行う場合、presence_penalty を 1.5 に設定してください。
QVQ モデルのデフォルト presence_penalty 値は変更しないでください。

response_format object (任意) デフォルト値:{"type": "text"}

返されるコンテンツのフォーマット。有効な値:

  • {"type": "text"}:テキスト返信を出力します。

  • {"type": "json_object"}:標準フォーマットの JSON 文字列を出力します。

  • {"type": "json_schema","json_schema": {...} }:指定されたフォーマットの JSON 文字列を出力します。

詳細については、「構造化出力」をご参照ください。
{"type": "json_object"} を指定する場合、プロンプトでモデルに JSON 形式で出力するよう明示的に指示する必要があります (例:「JSON 形式で出力してください」)。そうしないとエラーが発生します。
サポートされているモデルについては、「構造化出力」をご参照ください。

プロパティ

type string (必須)

返されるコンテンツのフォーマット。有効な値:

  • text:テキスト返信を出力します。

  • json_object:標準フォーマットの JSON 文字列を出力します。

  • json_schema:指定されたフォーマットの JSON 文字列を出力します。

json_schema object

type が json_schema の場合に必須となるフィールドです。構造化出力の構成を定義します。

プロパティ

name string (必須)

スキーマの一意な名前。名前には英数字 (大文字・小文字を区別しない)、アンダースコア (_)、ハイフン (-) のみを使用できます。名前の長さは最大 64 文字です。

description string (任意)

スキーマの目的の説明。これにより、モデルは出力のセマンティックコンテキストを理解しやすくなります。

schema object (任意)

JSON Schema 標準に準拠したオブジェクト。モデル出力のデータ構造を定義します。

JSON Schema の構築方法については、JSON Schema

strict boolean (任意) デフォルト値:false

モデルがすべてのスキーマ制約に厳密に従う必要があるかどうかを指定します。

  • true (推奨)

    モデルはフィールドタイプ、必須項目、フォーマットなどのすべての制約に厳密に従います。これにより、出力が 100% 仕様に準拠することが保証されます。

  • false (非推奨)

    モデルはスキーマに緩やかに従います。出力が仕様に準拠しない可能性があり、検証エラーが発生する場合があります。

max_input_tokens integer (任意)

入力に許可される最大トークン長。このパラメーターは現在、qwen-plus-0728 および qwen-plus-latest モデルでのみサポートされています。

  • qwen-plus-latest デフォルト値:129,024

    将来的にデフォルト値が 1,000,000 に調整される可能性があります。
  • qwen-plus-2025-07-28 デフォルト値:1,000,000

このパラメーターは標準的な OpenAI パラメーターではありません。Python SDK を使用して呼び出す場合、このパラメーターを extra_body オブジェクトに配置してください。設定方法:extra_body={"max_input_tokens": xxx}

max_tokens integer (任意)

応答の最大トークン数。この制限に達すると生成が停止し、返される finish_reasonlength になります。

デフォルト値および最大値は、モデルの最大出力長です。詳細については、「モデル」をご参照ください。

このパラメーターは、要約やキーワードの生成などの出力長を制御する必要があるシナリオや、コストを削減して応答時間を短縮する場合に役立ちます。

max_tokens がトリガーされると、応答の finish_reason フィールドは length になります。

max_tokens は、思考の連鎖の長さを制限するものではありません。

vl_high_resolution_images boolean (任意) デフォルト値:false

有効にすると、入力画像の最大ピクセル制限が引き上げられます。制限は、16384 トークンに対応するピクセル値に設定されます。詳細については、「高解像度画像の処理」をご参照ください。

  • vl_high_resolution_images: true:固定解像度戦略が使用され、max_pixels 設定は無視されます。画像がこの解像度を超える場合、総ピクセル数がこの制限にダウンスケールされます。

    各モデルのピクセル制限を表示

    vl_high_resolution_imagesTrue の場合、モデルごとに異なるピクセル制限があります:

    • Qwen3-VL シリーズqwen-vl-maxqwen-vl-max-latestqwen-vl-max-0813qwen-vl-plusqwen-vl-plus-latestqwen-vl-plus-081516777216 (各 Token32*32 ピクセルに対応、つまり 16384*32*32)

    • QVQ シリーズ およびその他の Qwen2.5-VL シリーズ モデル:12845056 (各 Token28*28 ピクセルに対応、つまり 16384*28*28)

  • vl_high_resolution_imagesfalse の場合、実際の解像度は max_pixels とデフォルト制限の両方によって決定されます。画像が max_pixels を超える場合、max_pixels にダウンスケールされます。モデルのデフォルトピクセル制限は、max_pixels のデフォルト値です。

このパラメーターは標準的な OpenAI パラメーターではありません。Python SDK を使用して呼び出す場合、このパラメーターを extra_body オブジェクトに配置してください。 設定方法:extra_body={"vl_high_resolution_images":xxx}。

n integer (任意) デフォルト値:1

生成する応答の数を指定します。値の範囲は 1-4 です。創造的な文章作成や広告コピーなど、複数の候補応答が必要なシナリオに役立ちます。

このパラメーターは、非思考モードの Qwen3 モデル のみでサポートされています。
tools パラメーターを渡す場合、n を 1 に設定してください。
n を増やすと出力トークンの消費量が増加しますが、入力トークンの消費量は増加しません。

enable_thinking boolean (任意)

ハイブリッド思考モデルの思考モードを有効にします。Qwen3、Qwen3-Omni-Flash、および Qwen3-VL モデルに適用されます。詳細については、「深層思考」をご参照ください。

有効な値:

  • true

    有効にすると、思考コンテンツは reasoning_content フィールドで返されます。
  • false

モデルごとのデフォルト値:サポートされているモデル

このパラメーターは標準的な OpenAI パラメーターではありません。Python SDK を使用して呼び出す場合、このパラメーターを extra_body オブジェクトに配置してください。 設定方法:extra_body={"enable_thinking": xxx}

thinking_budget integer (任意)

思考プロセスの最大トークン数。Qwen3-VL および Qwen3 モデルの商用版とオープンソース版に適用されます。詳細については、「思考長の制限」をご参照ください。

デフォルト値は、モデルの思考の連鎖の最大長です。詳細については、「モデル」をご参照ください。

このパラメーターは標準的な OpenAI パラメーターではありません。Python SDK を使用して呼び出す場合、このパラメーターを extra_body オブジェクトに配置してください。 設定方法:extra_body={"thinking_budget": xxx}

enable_code_interpreter boolean (任意) デフォルト値:false

コードインタープリター機能を有効にするかどうかを指定します。このパラメーターは、modelqwen3-max-preview に設定され、かつ enable_thinkingtrue に設定されている場合にのみ有効になります。詳細については、「コードインタープリター」をご参照ください。

有効な値:

  • true

  • false

このパラメーターは標準的な OpenAI パラメーターではありません。Python SDK を使用して呼び出す場合、このパラメーターを extra_body オブジェクトに配置してください。 設定方法:extra_body={"enable_code_interpreter": xxx}

seed integer (任意)

乱数のシード。このパラメーターにより、同じ入力とパラメーターに対して結果を再現可能にします。同じ seed 値を呼び出しで渡し、他のパラメーターが変更されない場合、モデルは可能な限り同じ結果を返します。

値の範囲:[0,2<sup>31</sup>-1]

logprobs boolean (任意) デフォルト値:false

出力トークンの対数確率を返すかどうかを指定します。有効な値:

  • true

  • false

思考フェーズ (reasoning_content) で生成されたコンテンツは、対数確率を返しません。

サポートされているモデル

  • qwen-plus シリーズのスナップショットモデル (メインモデルを除く)

  • qwen-turbo シリーズのスナップショットモデル (メインモデルを除く)

  • Qwen3 オープンソースモデル

top_logprobs integer (任意) デフォルト値:0

各生成ステップで返される最も可能性の高い候補トークンの数を指定します。

値の範囲:[0, 5]

このパラメーターは、logprobstrue に設定されている場合にのみ有効です。

stop string or array (任意)

ストップワードを指定します。モデルが生成したテキストに stop で指定された文字列または token_id が出現した場合、生成は直ちに停止します。

禁止用語を渡して、モデルの出力を制御します。

stop が配列の場合、token_id と文字列を同時に要素として使用しないでください。例:["Hello",104307] は有効な値ではありません。

tools array (任意)

関数呼び出しでモデルが呼び出す 1 つ以上のツールオブジェクトを含む配列。詳細については、「関数呼び出し」をご参照ください。

tools が設定され、モデルがツールの呼び出しが必要と判断した場合、応答は tool_calls フィールドにツール情報を返します。

プロパティ

type string (必須)

ツールタイプ。現在、function のみをサポートしています。

function object (必須)

プロパティ

name string (必須)

ツール名。英数字、アンダースコア (_)、ハイフン (-) のみを使用できます。最大長は 64 トークンです。

description string (必須)

このツールをいつ使用するかをモデルに理解させるのに役立ちます。

parameters object (任意) デフォルト値:{}

ツールのパラメーターの説明。有効な JSON Schema である必要があります。詳細については、JSON Schema をご参照ください。パラメーター parameters が空の場合、ツールに入力パラメーターがないことを意味します (例:時刻照会ツール)。

parameters を指定すると、より正確なツール呼び出しが可能になります。

tool_choice string or object (任意) デフォルト値:auto

ツール選択ポリシー。このパラメーターを設定して、特定のタイプの質問に対して常に特定のツールを使用する、またはすべてのツールを無効にするなどの強制的なツール呼び出しを行います。

有効な値:

  • auto

    モデルが自動的にツールを選択します。

  • none

    ツール呼び出しを無効にするには、tool_choice パラメーターを none に設定します。

  • {"type": "function", "function": {"name": "the_function_to_call"}}

    特定のツールを強制的に呼び出すには、tool_choice パラメーターを {"type": "function", "function": {"name": "the_function_to_call"}} に設定します。ここで、the_function_to_call は指定するツール関数の名前です。

    思考モードのモデルは、特定のツールを強制的に呼び出すことをサポートしていません。

parallel_tool_calls boolean (任意) デフォルト値:false

並列ツール呼び出しを有効にするかどうかを指定します。詳細については、「並列ツール呼び出し」をご参照ください。

有効な値:

  • true

  • false

enable_search boolean (任意) デフォルト値:false

Web 検索を有効にします。詳細については、「Web 検索」をご参照ください。

有効な値:

  • true

    有効にしても Web 検索がトリガーされない場合は、プロンプトを最適化するか、search_optionsforced_search パラメーターを設定して強制検索を有効にしてください。
  • false

Web 検索機能を有効にすると、トークンの消費量が増加する可能性があります。
このパラメーターは標準的な OpenAI パラメーターではありません。Python SDK を使用して呼び出す場合、このパラメーターを extra_body オブジェクトに含めてください。 設定方法:extra_body={"enable_search": True}

search_options object (任意)

Web 検索戦略。詳細については、「Web 検索」をご参照ください。

プロパティ

forced_search boolean (任意) デフォルト値:false

Web 検索を強制するかどうかを指定します。このパラメーターは、enable_searchtrue の場合にのみ有効です。

有効な値:

  • true

  • false:モデルが Web 検索を実行するかどうかを決定します。

search_strategy string (任意) デフォルト値:turbo

検索戦略。このパラメーターは、enable_searchtrue の場合にのみ有効です。

有効な値:

  • turbo (デフォルト):応答速度と検索効果のバランスを取ります。ほとんどのシナリオに適しています。

  • max:より包括的な検索戦略を使用し、複数の検索エンジンを呼び出してより詳細な結果を取得できます。ただし、応答時間が長くなる可能性があります。

  • agent:Web 検索ツールと大規模言語モデルを複数回呼び出して、複数ラウンドの情報取得とコンテンツ統合を実行します。

    agent 戦略は、qwen3-max および qwen3-max-2025-09-23 にのみ適用されます。
    agent 戦略は、他の Web 検索戦略と同時に設定することはできません。

enable_search_extension boolean (任意) デフォルト値:false

ドメイン固有の検索を有効にするかどうかを指定します。このパラメーターは、enable_searchtrue の場合にのみ有効です。

有効な値:

  • true

  • false

このパラメーターは標準的な OpenAI パラメーターではありません。Python SDK を使用して呼び出す場合、このパラメーターを extra_body オブジェクトに配置してください。設定方法:extra_body={"search_options": xxx}

チャット応答オブジェクト (非ストリーミング出力)

{
    "choices": [
        {
            "message": {
                "role": "assistant",
                "content": "I am a large-scale language model developed by Alibaba Cloud. My name is Qwen."
            },
            "finish_reason": "stop",
            "index": 0,
            "logprobs": null
        }
    ],
    "object": "chat.completion",
    "usage": {
        "prompt_tokens": 3019,
        "completion_tokens": 104,
        "total_tokens": 3123,
        "prompt_tokens_details": {
            "cached_tokens": 2048
        }
    },
    "created": 1735120033,
    "system_fingerprint": null,
    "model": "qwen-plus",
    "id": "chatcmpl-6ada9ed2-7f33-9de2-8bb0-78bd4035025a"
}

id string

この呼び出しの一意の ID。

choices array

モデルが生成したコンテンツの配列。

プロパティ

finish_reason string

モデルが出力の生成を停止した理由を示します。

以下の 3 つのシナリオがあります:

  • stop:モデルが自然に停止したか、stop 入力パラメーターがトリガーされたため。

  • length:出力が最大長に達したため、生成が停止しました。

  • tool_calls:モデルがツールを呼び出すために停止しました。

index integer

choices 配列内の現在のオブジェクトのインデックス。

logprobs object

モデルの出力におけるトークンの確率情報。

プロパティ

content array

トークンとその対数確率の配列。

プロパティ

token string

現在のトークンのテキスト。

bytes array

現在のトークンの生の UTF-8 バイトのリスト。このリストは、絵文字や漢字などの出力コンテンツを正確に復元するために使用されます。

logprob float

現在のトークンの対数確率。戻り値が null の場合は、確率が非常に低いことを示します。

top_logprobs array

現在のトークンの位置で最も可能性の高い候補トークン。候補の数は top_logprobs リクエストパラメーターと一致します。各要素には以下が含まれます:

プロパティ

token string

候補トークンのテキスト。

bytes array

現在のトークンの生の UTF-8 バイトのリスト。このリストは、絵文字や漢字などの出力コンテンツを正確に復元するために使用されます。

logprob float

この候補トークンの対数確率。戻り値が null の場合は、確率が非常に低いことを示します。

message object

モデルによって生成されたメッセージ。

プロパティ

content string

モデルの応答のコンテンツ。

reasoning_content string

モデルの思考の連鎖の内容

refusal string

このパラメーターは常に null です。

role string

メッセージのロール。値は常に assistant です。

audio object

このパラメーターは常に null です。

function_call (非推奨予定) object

この値は常に null です。tool_calls パラメーターをご参照ください。

tool_calls array

関数呼び出しが開始された後にモデルが生成するツールおよび入力パラメーター情報。

プロパティ

id string

このツール応答の一意の識別子。

type string

ツールのタイプ。現在、function のみをサポートしています。

function object

ツールに関する情報。

プロパティ

name string

ツールの名前。

arguments string

入力パラメーター。JSON 形式の文字列です。

モデルの出力は非決定的です。出力パラメーターが関数シグネチャと一致しない場合があります。関数を呼び出す前にパラメーターを検証してください。

index integer

tool_calls 配列内の現在のツールのインデックス。

created integer

リクエストが作成されたときの UNIX タイムスタンプ (秒単位)。

model string

リクエストに使用されたモデル。

object string

値は常に chat.completion です。

service_tier string

このパラメーターは現在、固定で null です。

system_fingerprint string

このパラメーターは現在、固定で null です。

usage object

このリクエストのトークン消費情報。

プロパティ

completion_tokens integer

モデルの出力におけるトークン数。

prompt_tokens integer

入力のトークン数。

total_tokens integer

消費された合計トークン数。prompt_tokenscompletion_tokens の合計です。

completion_tokens_details object

Qwen-VL モデルを使用した場合の出力トークンの詳細な内訳。

プロパティ

audio_tokens integer

このパラメーターは現在 null に設定されています。

reasoning_tokens integer

このパラメーターは現在 null に設定されています。

text_tokens integer

Qwen-VL モデルの出力におけるテキストトークンの数。

prompt_tokens_details object

入力トークンの詳細な内訳。

プロパティ

audio_tokens integer

このパラメーターは現在 null に設定されています。

cached_tokens integer

キャッシュにヒットしたトークンの数。詳細については、「コンテキストキャッシュ」をご参照ください。

text_tokens integer

Qwen-VL モデルの入力におけるテキストトークンの数。

image_tokens integer

Qwen-VL モデルの入力における画像トークンの数。

video_tokens integer

Qwen-VL モデルにおける入力ビデオファイルまたは画像リストのトークン数。

cache_creation object

明示的キャッシュの作成に関する情報。

プロパティ

ephemeral_5m_input_tokens integer

明示的キャッシュの作成に使用されたトークン数。

cache_creation_input_tokens integer

明示的キャッシュの作成に使用されたトークン数。

cache_type string

明示的キャッシュを使用する場合、パラメーター値は ephemeral です。それ以外の場合、このパラメーターは存在しません。

チャット応答チャンクオブジェクト (ストリーミング出力)

{"id":"chatcmpl-e30f5ae7-3063-93c4-90fe-beb5f900bd57","choices":[{"delta":{"content":"","function_call":null,"refusal":null,"role":"assistant","tool_calls":null},"finish_reason":null,"index":0,"logprobs":null}],"created":1735113344,"model":"qwen-plus","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-e30f5ae7-3063-93c4-90fe-beb5f900bd57","choices":[{"delta":{"content":"I am a ","function_call":null,"refusal":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null}],"created":1735113344,"model":"qwen-plus","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-e30f5ae7-3063-93c4-90fe-beb5f900bd57","choices":[{"delta":{"content":"large-scale ","function_call":null,"refusal":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null}],"created":1735113344,"model":"qwen-plus","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-e30f5ae7-3063-93c4-90fe-beb5f900bd57","choices":[{"delta":{"content":"language model ","function_call":null,"refusal":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null}],"created":1735113344,"model":"qwen-plus","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-e30f5ae7-3063-93c4-90fe-beb5f900bd57","choices":[{"delta":{"content":"from Alibaba ","function_call":null,"refusal":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null}],"created":1735113344,"model":"qwen-plus","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-e30f5ae7-3063-93c4-90fe-beb5f900bd57","choices":[{"delta":{"content":"Cloud. My name ","function_call":null,"refusal":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null}],"created":1735113344,"model":"qwen-plus","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-e30f5ae7-3063-93c4-90fe-beb5f900bd57","choices":[{"delta":{"content":"is Qwen","function_call":null,"refusal":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null}],"created":1735113344,"model":"qwen-plus","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-e30f5ae7-3063-93c4-90fe-beb5f900bd57","choices":[{"delta":{"content":".","function_call":null,"refusal":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null}],"created":1735113344,"model":"qwen-plus","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-e30f5ae7-3063-93c4-90fe-beb5f900bd57","choices":[{"delta":{"content":"","function_call":null,"refusal":null,"role":null,"tool_calls":null},"finish_reason":"stop","index":0,"logprobs":null}],"created":1735113344,"model":"qwen-plus","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-e30f5ae7-3063-93c4-90fe-beb5f900bd57","choices":[],"created":1735113344,"model":"qwen-plus","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":{"completion_tokens":17,"prompt_tokens":22,"total_tokens":39,"completion_tokens_details":null,"prompt_tokens_details":{"audio_tokens":null,"cached_tokens":0}}}

id string

この呼び出しの一意の ID。各チャンクオブジェクトは同じ ID を持ちます。

choices array

モデルによって生成されたコンテンツの配列。この配列には 1 つ以上のオブジェクトを含めることができます。include_usage パラメーターを true に設定した場合、最後のチャンクでは choices は空の配列になります。

プロパティ

delta object

リクエストの増分オブジェクト。

プロパティ

content string

増分メッセージコンテンツ。

reasoning_content string

増分チェーンオブソートコンテンツ。

function_call object

この値はデフォルトで null です。詳細については、tool_calls パラメーターをご参照ください。

audio object

Qwen-Omni モデルを使用した場合に生成される応答。

プロパティ

data string

増分 Base64 エンコードされた音声データ。

expires_at integer

リクエストが作成された UNIX タイムスタンプ。

refusal object

このパラメーターは常に null です。

role string

増分メッセージオブジェクトのロール。このプロパティは最初のチャンクにのみ値を持ちます。

tool_calls array

関数呼び出し後にモデルが生成するツールおよび入力パラメーター情報。

プロパティ

index integer

tool_calls 配列内の現在のツールのインデックス。

id string

このツール応答の一意の ID。

function object

呼び出されたツールに関する情報。

プロパティ

arguments string

入力パラメーターに関する増分情報。すべてのチャンクから arguments を連結して、完全な入力パラメーターを取得します。

大規模モデルの応答にはある程度のランダム性があるため、出力パラメーター情報が関数シグネチャに準拠しない場合があります。関数を呼び出す前にパラメーターを検証してください。

name string

ツール名。このプロパティは最初のチャンクにのみ値を持ちます。

type string

ツールタイプ。現在、function のみをサポートしています。

finish_reason string

モデルは以下の 4 つのシナリオのいずれかで生成を停止します:

  • stop:モデルが自然にコンテンツの生成を停止したか、stop パラメーターがトリガーされました。

  • 生成が不完全な場合、null が返されます。

  • length:最大出力長に達したため、コンテンツの生成が停止しました。

  • tool_calls:モデルがツール呼び出しを行うために停止しました。

index integer

choices 配列内の現在の応答のインデックス。入力パラメーター n が 1 より大きい場合、このパラメーターを使用して異なる応答の完全なコンテンツを連結します。

logprobs object

現在のオブジェクトの確率情報。

プロパティ

content array

対数確率情報を持つトークンの配列。

プロパティ

token string

現在のトークン。

bytes array

現在のトークンの生の UTF-8 バイトのリスト。これは出力コンテンツを正確に復元するために使用され、絵文字や漢字を扱う際に役立ちます。

logprob float

現在のトークンの対数確率。戻り値が null の場合は、確率が非常に低いことを示します。

top_logprobs array

現在のトークン位置で最も可能性の高いトークンとその対数確率。要素の数は top_logprobs 入力パラメーターと一致します。

プロパティ

token string

現在のトークン。

bytes array

現在のトークンの生の UTF-8 バイトのリスト。これは出力コンテンツを正確に復元するために使用され、絵文字や漢字を扱う際に役立ちます。

logprob float

現在のトークンの対数確率。戻り値が null の場合は、確率が非常に低いことを示します。

created integer

このリクエストが作成されたタイムスタンプ。各チャンクは同じタイムスタンプを持ちます。

model string

このリクエストに使用されたモデル。

object string

値は常に chat.completion.chunk です。

service_tier string

このパラメーターは現在、固定で null です。

system_fingerprintstring

このパラメーターは現在、固定で null です。

usage object

このリクエストによって消費されたトークン。これは、include_usagetrue の場合にのみ、最後のチャンクに表示されます。

プロパティ

completion_tokens integer

モデルの出力におけるトークン数。

prompt_tokens integer

入力トークン数。

total_tokens integer

合計トークン数。prompt_tokenscompletion_tokens の合計です。

completion_tokens_details object

出力トークンに関する詳細情報。

プロパティ

audio_tokens integer

Qwen-Omni モデルの出力におけるオーディオトークンの数。

reasoning_tokens integer

思考プロセスにおけるトークンの数。

text_tokens integer

出力テキストトークンの数。

prompt_tokens_details object

入力トークンの詳細な内訳。

プロパティ

audio_tokens integer

入力音声のトークン数。

ビデオファイル内のオーディオトークンの数は、このパラメーターで返されます。

text_tokens integer

入力テキストのトークン数。

video_tokens integer

入力ビデオ (画像リストまたはビデオファイル) のトークン数。

image_tokens integer

入力画像のトークン数。

cached_tokens integer

キャッシュにヒットしたトークンの数。詳細については、「コンテキストキャッシュ」をご参照ください。

cache_creation object

明示的キャッシュの作成に関する情報。

プロパティ

ephemeral_5m_input_tokens integer

明示的キャッシュの作成に使用されるトークン数。

cache_creation_input_tokens integer

明示的キャッシュの作成に使用されるトークン数。

cache_type string

キャッシュタイプ。値は固定で ephemeral です。