すべてのプロダクト
Search
ドキュメントセンター

Alibaba Cloud Model Studio:Chatbox

最終更新日:Mar 04, 2026

Chatbox は、AI クライアントアプリケーションであり、スマートアシスタントです。コンピューティング環境を構成することなく、大規模言語モデル (LLM) とチャットできます。

前提条件

  • API キーを取得し、Alibaba Cloud Model Studio のモデルサービスが有効になっていることを確認する必要があります。

  • モデルリストから、使用したいテキスト生成モデルを選択します。RAM ユーザーの場合は、「ワークスペース管理」をご参照のうえ、モデルを呼び出す権限があることを確認してください。

    Chatbox の機能は変更される場合があります。モデルのサポートは実際のパフォーマンスに基づきます。

1. Chatbox の起動

Chatbox にアクセスします。ご利用のデバイス用のバージョンをダウンロードしてインストールするか、[ウェブ版を直接起動] することもできます。

2. モデルと API キーの設定

2.1. カスタムプロバイダーの選択

Chatbox ページ左下の [設定] をクリックします。[モデルプロバイダー] をクリックし、下部にある [追加] をクリックします。

表示されるダイアログボックスで、[名前] を「DashScope」に、[API モード][OpenAI API 互換] に設定します。その後、[追加] をクリックします。

20251125105130

2.2. モデルと API キーの設定

設定項目

説明

[API キー]

Alibaba Cloud Model Studio からリクエストした API キーを入力します。

API ホスト

呼び出したいモデルのリージョンに対応する URL を入力します:

  • シンガポールリージョンhttps://dashscope-intl.aliyuncs.com/compatible-mode/v1

  • バージニアリージョンhttps://dashscope-us.aliyuncs.com/compatible-mode/v1

  • 北京リージョンhttps://dashscope.aliyuncs.com/compatible-mode/v1

API パスは空のままにします。

[モデル]

モデルの [新規] をクリックします。[モデル ID] に、使用したい Qwen または DeepSeek モデルを入力します。この例では qwen3-235b-a22b を使用します。[推論][ツール使用] ボタンにチェックを入れます。

他のモデルを使用する場合は、その特定の機能に基づいてチェックボックスを選択します。推論をサポートするモデルについては、「ディープシンキング」および「視覚的推論」をご参照ください。ツール使用をサポートするモデルについては、「Function Calling」をご参照ください。

20251125104753

2.3. 会話設定

モデルと API キーを設定した後、設定ページの左側にある [会話設定] をクリックします。ダイアログボックスで、[コンテキストメッセージの最大数][温度] パラメーターを設定します:

  • [コンテキストメッセージの最大数]

    このパラメーターは、新しい質問ごとに LLM が考慮する過去の対話のターン数を指定します。カジュアルなチャットの場合、5 から 10 の設定が推奨されます。コンテキストメッセージの数が多いと、次のエラーが発生する可能性があります: Range of input length should be [1, xxx]

  • 温度

    このパラメーターは、LLM によって生成されるテキストの多様性をコントロールします。

    • [温度] を高くすると、より多様なテキストが生成され、コンテンツ作成やブレインストーミングなどのシナリオに適しています。

    • [温度] を低くすると、より決定論的なテキストが生成されます。これは、コード作成や数学的推論などのシナリオに適しています。

    このパラメーターは 2 未満の値に設定してください。そうしないと、エラー「'temperature' must be Float」が報告されます。
  • Top P

    温度パラメーターと同様に、このパラメーターは生成されるテキストの多様性をコントロールします。

    このパラメーターは 1 以下の値に設定してください。そうしないと、「xx is greater than the maximum of 1 - 'top_p'」というエラーが報告されます。

3. 会話の開始

ダイアログボックスに質問を入力して、会話を開始します。

現在、会話でビデオまたはオーディオファイルを使用することはできません。

通常の会話

入力ボックスに「あなたは誰ですか?」と入力して、設定をテストします:

20251125163922

Chatbox に Qwen3 モデルの思考プロセスと応答が表示されます。

画像の入力

1. モデルの選択

画像を使用した Q&A には、視覚機能を持つモデルが必要です。設定時に、Qwen-VLQVQ、または Qwen-Omni モデルを選択します。

詳細については、「2.2. モデルと API キーの設定」をご参照ください。[モデル] で、使用したい視覚モデルを追加し、[ビジョン] 機能を選択します。

20251125170032-zh

2. 対話

送信ボタン 20251125170154 の横にある視覚モデルを選択します。入力ボックスに質問を入力し、20251125170311 アイコンをクリックして、[画像を追加] を選択し、画像をアップロードします。

诗-zh

ドキュメントの入力

Chatbox は PDF、DOCX、TXT などのファイルをサポートしており、モデルがドキュメントの内容に基づいて質問に回答できます。

現在、Chatbox はドキュメント内の画像情報を解析できません。

1. モデルの選択

長文コンテキスト処理機能を持つモデルは、ドキュメント Q&A に適しています。Qwen-FlashQwen-Longqwen2.5-14b-instruct-1m、または qwen2.5-7b-instruct-1m を選択します。これらのモデルは数百万のトークンを処理でき、より低価格で提供されています。

詳細については、「2.2. モデルと API キーの設定」をご参照ください。[モデル] で、使用したいモデルを追加します。この例では qwen-flash を使用します。

flash-zh

2. 会話の開始

送信ボタン flash の横で追加したモデルを選択します。入力ボックスに質問を入力し、20251125170311 アイコンをクリックしてから、[ファイルを選択] をクリックします。

ドキュメントに基づいて複数の質問をすると、多くのトークンを消費する可能性があります。コストを節約するために、[コンテキストメッセージの最大数] を低く設定して入力トークン数を減らすことができます。また、qwen-flash モデルを使用することもできます。このモデルは コンテキストキャッシュ をサポートしており、マルチターン対話での入力トークンコストを削減できます。

openzh

よくある質問

Q:課金方法は?

A:Alibaba Cloud Model Studio は、モデルの入力および出力トークンに基づいて課金します。モデルトークンのコストについては、「モデルリスト」をご参照ください。

マルチターン対話には過去の会話履歴が含まれるため、より多くのトークンを消費します。不要なトークン消費を減らすには、新しい会話を開始するか、[コンテキストメッセージの最大数] を低く設定します。カジュアルなチャットの場合、[コンテキストメッセージの最大数] は 5 から 10 に設定することを推奨します。

Q:Chatbox で「Failed to connect to Custom Provider」というエラーが報告された場合はどうすればよいですか?

A:エラーメッセージに基づいてトラブルシューティングを行います:

  • Range of input length should be [1, xxx]

    このエラーは、入力が長すぎる場合や、マルチターン対話で蓄積されたコンテキストがモデルの最大コンテキスト長を超えた場合に発生する可能性があります。シナリオに基づいてトラブルシューティングできます:

    • 最初のターンでのエラー

      入力したテキストが長すぎるか、アップロードしたファイルのトークン数が多すぎる可能性があります。qwen-flash や qwen-long のような 1,000,000 のコンテキスト長を持つモデルを使用して、リクエストを処理できます。

    • マルチターン対話後のエラー

      マルチターン対話で蓄積されたトークンが、モデルの最大コンテキスト長を超えた可能性があります。次のいずれかの方法を試すことができます:

      1. 新しい会話を開始する

        LLM は返信する際に、過去の会話を参照しなくなります。

      2. [コンテキストメッセージの最大数] を減らす

        これにより、LLM は返信する際に限られた範囲の会話履歴のみを参照するようになり、すべての過去の会話を入力として使用することを回避します。

      3. モデルを変更する

        qwen-flash や qwen-long のような 1,000,000 のコンテキスト長を持つモデルに切り替えることで、より長いコンテキストを処理し、より多くの対話ターンを可能にすることができます。

  • 'temperature' must be Float

    モデルの温度パラメーターは2未満である必要があります。[温度]パラメーターを2未満の値に設定してください。

上記に問題が記載されていない場合は、「エラーメッセージ」をご参照のうえ、トラブルシューティングを行ってください。

Q:アップロードされた画像とドキュメントの制限は?

A:

  • 画像:アップロードされた画像の制限については、「画像と動画の理解」をご参照ください。

  • ドキュメント:Chatbox はアップロードされたドキュメントを解析します。解析されたテキストと会話コンテキストの合計トークン長は、モデルの最大コンテキスト長を超えてはなりません。