Dify は、オープンソースの大規模言語モデル(LLM)アプリケーション開発プラットフォームです。Alibaba Cloud Model Studio が提供するモデル API を使用して、LLM アプリケーションを構築できます。
前提条件
API キーを取得してください。また、Alibaba Cloud Model Studio でモデルサービスが有効化されていることを確認してください。
1. モデルの設定
1.1. モデルプロバイダーのインストール
Dify マーケットプレイスにアクセスします。モデル セクションで Qwen を検索し、最新バージョンのプラグインをインストールします。

-
Qwen プラグインは Alibaba Cloud が提供するものではありません。公式 Dify チームがメンテナンスしています。最新バージョンのインストール時にエラーが発生した場合は、以前のバージョンを試してみてください。
-
Alibaba Cloud Model Studio の DeepSeek モデルを利用するには、Qwen プラグインをご利用ください。
1.2. API キーの設定
ページ右上隅のプロフィール画像をクリックし、続いて 設定 をクリックします。[モデルプロバイダー] 内の Qwen カードを見つけ、そのカード内の 設定 をクリックします。
-
シンガポール リージョンのモデルを利用する場合、カード内の [API キー設定] セクションに API キーを入力し、[国際エンドポイントを使用] を Yes に設定します。
-
中国 (北京) リージョンのモデルを利用する場合、カード内の [API キー設定] セクションに、中国 (北京) リージョン用の API キーを入力します。[国際エンドポイントを使用] を No に設定します。
API キーの設定中に Invalid API-key provided のエラーが発生した場合は、Qwen プラグインの以前のバージョンをインストールしてみてください。

1.3. モデルの選択
カード上の Qwen をクリックし、ご利用になるモデルのスイッチをオンにします。
プラグインで最新の Qwen モデルが利用できない場合は、OpenAI-API 互換 プラグインをインストールしてください。プラグイン設定で、[API エンドポイント URL] をhttps://dashscope-intl.aliyuncs.com/compatible-mode/v1(シンガポール リージョン)またはhttps://dashscope.aliyuncs.com/compatible-mode/v1(中国 (北京) リージョン) に設定します。

2. 始め方
Dify では、複数種類の LLM アプリケーションをサポートしています。ご要件に応じたタイプを選択し、以下の手順に従ってください。
チャットアシスタントまたはエージェント
-
チャットアシスタントまたはエージェントの作成
[Studio] にアクセスし、[空白アプリの作成] をクリックします。初心者向け セクションでチャットアシスタントまたはエージェントを作成し、その後開きます。
-
モデルの選択
アプリページの右上隅で、モデルを選択します。 たとえば、[Qwen] > [qwen-plus-latest (Qwen3)] を選択します。 思考モードをオンにし、True に設定します。

-
チャットのテスト
「あなたは誰ですか?」と入力すると、モデルが思考後に応答します。

また、Qwen-VL または QVQ モデルを使用して、画像に関する質問も可能です。ビジョンモデルを選択すると、インターフェイス左側に Vision トグルが表示されます。これをオンにすると、右側のチャットボックスから画像をアップロードできます。

Chatflow またはワークフロー
-
Chatflow またはワークフローの作成
[Studio] にアクセスし、Chatflow またはワークフローを作成して開きます。
-
LLM ノードの追加
キャンバスに LLM ノードを追加し、ノードを選択して編集インターフェイスを開き、ご利用になるモデルを選択します。本例では、qwen-plus-2025-07-28(Qwen3) を選択し、「思考モード」を有効化して値を True に設定します。

Qwen-VL または QVQ モデルを利用する場合は、LLM ノード内でビジョントグルをオンにしてください:

-
LLM ノードの実行
[メッセージの追加] をクリックし、[USER] メッセージボックスに「あなたは誰ですか?」と入力し、ノード右上隅の実行ボタン
をクリックします。
LLM ノードの応答内の
textフィールドには、思考プロセスと最終的な応答の両方が含まれます。Dify のコード実行ノードと正規表現を組み合わせて、これらを個別に抽出できます。
ナレッジベース
-
ナレッジベースの作成
[ナレッジベース] を作成し、開きます。
-
データソースの選択
このステップで、ナレッジベースのファイルをアップロードします。
テキストのセグメンテーションとクリーニング
このステップでは、Alibaba Cloud Model Studio が提供する埋め込みおよび再ランクモデルを設定できます。たとえば、text-embedding-v4 および gte-rerank-v2 を使用できます。その他のパラメーターは必要に応じて設定してください。
gte-rerank-v2 モデルは、中国 (北京) リージョンのみをサポートしています。

現在、埋め込み用に multimodal-embedding-v1 モデルを選択することはできません。今後のアップデートをお待ちください。
よくある質問
Q1: Qwen プラグインで API キーを設定する際にエラーが発生するのはなぜですか?
A: 主な原因は以下のとおりです:
-
最新バージョンのプラグインが不安定である可能性があります。以前のバージョンを試してみてください。
-
サブワークスペースの API キーを使用しました。 Qwen プラグインのバージョン
0.0.41は、qwen-turboモデルの権限をチェックします。qwen-turboのモデル呼び出し権限は、こちらで追加できます。Qwen プラグインは Alibaba Cloud がメンテナンスしているものではありません。今後のバージョンでは権限チェックの仕様が変更される可能性があります。デフォルトワークスペースの API キーをご利用いただくことを推奨します。
-
エンドポイントが不適切な場合、API キーが作成されたリージョンに応じて、[国際エンドポイントを使用] を設定してください。
Q2: Qwen-Omni/Qwen-OCR モデルはどのように利用すればよいですか?
A: これらのモデルは Dify で直接サポートされていません。Chatflow またはワークフロー内の HTTP ノードを使用して接続してください。詳細については、ドキュメント内の cURL コマンドをご参照ください。
HTTP ノードのタイムアウトリスクを低減するため、ストリーミング出力を使用してください。
Q3: Wanx モデルはどのように利用すればよいですか?
A: Dify には Wanx プラグインは提供されていません。Chatflow またはワークフローのノードを使用して、テキストからイメージまたは動画を生成できます。以下の手順に従ってください:
-
ワークフローテンプレートのダウンロードとインポート
以下のテンプレートのいずれかをダウンロードしてください:、Wanx - Text-to-Image Demo.yml、、Wanx - Text-to-Video Demo.yml。[Studio] にアクセスし、[DSL ファイルのインポート] をクリックして、ダウンロードしたテンプレートを選択します。
-
環境変数の設定
ワークフローインターフェイスを開きます。
を探します。DASHSCOPE_API_KEYの値を、ご利用の API キーに変更できます。 -
画像生成のテスト
実行 ボタンをクリックして作業を生成します。たとえば、テキストから画像を生成するワークフローで「小さな猫」と入力すると、以下のような画像が得られます:

テキストから動画を生成するワークフローでは、動画の URL が返されます。
テキストから動画を生成する処理には通常 5 分以上かかります。しばらくお待ちください。
-
ツールとして公開(任意)
他の LLM アプリケーションで Wanx のテキストから画像または動画を生成する機能を利用するには、インターフェイス右上隅の 公開 をクリックし、[ツールとして公開] を選択します。
テンプレートでは、以下のモデルが使用されています:シンガポール リージョンのwan2.2-t2i-flash(テキストから画像へ)またはwan2.1-t2v-turbo(テキストから動画へ)。ステップ 1 でモデルを変更できます。また、ステップ 1 およびステップ 3 でリージョンの API を変更することも可能です。
Q4: Dify をオンプレミスでデプロイするにはどうすればよいですか?
A: [Dify クラウドサービス] には制限があります。たとえば、最大 5 つのアプリケーションを作成できます。オンプレミスでのデプロイメントについては、「Alibaba Cloud Dify デプロイメントソリューション」をご参照ください。