すべてのプロダクト
Search
ドキュメントセンター

Alibaba Cloud Model Studio:ワークフローアプリケーション

最終更新日:Nov 18, 2025

ワークフローアプリケーションは、複雑なタスクを一連のステップに分解することで、タスクを効率化します。Alibaba Cloud Model Studio では、大規模言語モデル (LLM) 、API、およびその他のノードを統合したワークフローアプリケーションを作成して、広範なコーディングの必要性を減らすことができます。このトピックでは、ワークフローアプリケーションの作成方法について説明します。

重要

アプリケーションの紹介

ワークフローアプリケーションを使用する理由

ワークフローは、現代のソフトウェア開発とビジネスマネジメントにおいて非常に重要です。複雑なタスクを管理可能なステップに単純化し、効率を向上させます。Alibaba Cloud Model Studio のワークフローアプリケーションは、タスクの実行順序を定義し、責任を割り当て、ステップ間の依存関係を確立します。これにより、自動化が可能になり、プロセスが効率化されます。

ワークフローアプリケーションは、次のようなシナリオで役立ちます:

  • 旅行計画: ワークフロープラグインを使用して目的地などのパラメーターを選択し、フライト、宿泊施設、観光スポットのおすすめを含む旅行計画を自動的に生成できます。

  • レポート分析: 複雑なデータセットに対して、データ処理、分析、可視化プラグインを組み合わせて、さまざまなビジネス要件を満たす構造化およびフォーマット化された分析レポートを生成できます。

  • カスタマーサポート: 自動化されたワークフローを使用して、問題の分類を含む顧客からの問い合わせを処理し、カスタマーサービスの応答速度と精度を向上させることができます。

  • コンテンツ作成: 記事やマーケティングコピーなどのコンテンツを生成できます。ユーザーはトピックと要件を入力するだけで、システムが要件を満たすコンテンツを自動的に生成します。

  • 教育とトレーニング: ワークフローを通じて、学習進捗の追跡や評価を含むパーソナライズされた学習計画を設計し、学生の自律的な学習を促進できます。

  • 医療相談: 患者が入力した症状に基づいて、複数の分析ツールを組み合わせて予備診断を生成したり、関連する検査を推奨したりして、医師がさらに判断を下すのを助けます。

サポートされているモデル

モデルの詳細については、「モデルリストと価格」をご参照ください。

各モデルの API 呼び出しレート制限の詳細については、「レート制限」をご参照ください。

説明

エージェントアプリケーションでサポートされているモデルのリストは確定版です。

ユースケース

このセクションでは、テキストメッセージに通信詐欺が含まれているかどうかを判断するワークフローアプリケーションを作成する例を使用します。

  1. アプリケーション管理 ページに移動し、[アプリケーションの作成] をクリックし、[ワークフローアプリケーション] を選択して、[タスクベースのワークフローを作成] をクリックしてワークフロー設定ページを開きます。

  1. 開始ノードを設定します: デフォルトの city と date パラメーターを削除します。入力ノードには、組み込みのデフォルトパラメーター query があるため、ここでは他のパラメーターは必要ありません。

  1. LLM ノードを追加して詐欺情報を特定します:

    左側のペインから [LLM] ノードをキャンバスにドラッグし、開始ノードを LLM ノードに接続して、対応するパラメーターを設定します。言及されていないパラメーターには、デフォルト設定を使用できます。

    • モデル設定: Qwen-Plus

    • システムプロンプト:

      与えられた情報が詐欺の疑いがあるかどうかを分析し、判断します。詐欺の疑いがあるかどうかについて、明確な回答を提供してください。
       処理要件: 情報の内容を注意深く確認し、緊急の送金要求、個人情報の提供、非現実的な利益の約束など、キーワードや典型的な詐欺パターンに焦点を当てます。 
      手順: 
      1. 送信者の ID、要求内容、約束されたリターン、緊急性の表現など、情報内の主要な要素を特定します。 
      2. 既知の詐欺事件の特徴と比較し、情報に類似した手口や言語パターンがないか確認します。 
      3. 要求された内容が通常の論理やプロセスに沿っているかを考慮し、情報の全体的な合理性を評価します。 
      4. 情報にリンクや添付ファイルが含まれている場合、潜在的なセキュリティリスクを避けるために直接クリックしたりダウンロードしたりせず、そのようなコンテンツの危険性をユーザーに注意喚起します。 
      出力形式: 情報が詐欺の特徴を示しているかどうかを明確に示し、判断の根拠を簡潔に説明します。詐欺の疑いがある場合は、ユーザーの安全を守るための提案や予防策をいくつか提供します。
    • ユーザープロンプト:

      「${sys.query}」が詐欺情報である疑いがあるかどうかを判断します。

p910525

  1. LLM ノードと終了ノードを接続し、終了ノードの変数を設定します。言及されていないパラメーターには、デフォルト設定を使用できます。

    • 入力: / を入力して変数を挿入します: LLM.result

p910524

  1. 右上隅の [テスト] をクリックし、「荷物が集荷ステーションに数日間保管されています。お早めにお受け取りください」と入力し、[実行] をクリック。ワークフローの実行が完了すると、出力ノードに [実行結果] が表示されます。

image

  1. 右上隅の [テスト] を再度クリックし、「100 万円当選のメッセージがあります。ご確認ください」と入力し、[実行] をクリック。ワークフローの実行が完了すると、出力ノードに [実行結果] が表示されます。

image

  1. 現在のワークフローアプリケーションが期待どおりに動作する場合、右上隅の [公開] をクリックして、後続の呼び出しのためにアプリケーションを公開します。

ノードの説明

ノードは、ワークフローアプリケーションの中核となる機能単位です。各ノードは、操作の実行、条件のトリガー、データの処理、プロセスフローの決定など、特定のタスクを担当します。ノードは柔軟なビルディングブロックであり、これらを組み立てて効率的でインテリジェントな自動化プロセスを構築できます。

開始/終了

  • 使用する状況

    • ワークフローを設計する際には、開始ノードと終了ノードで入力および出力パラメーターの構造と内容を定義する必要があります。

  • 使用方法

    • 開始ノード

      コンポーネント

      説明

      変数名

      入力パラメーターの名前。後続のノードは、その名前で変数を呼び出すことができます。

      タイプ

      入力パラメーターのデータの型。現在、String、Boolean、Number のみがサポートされています。Array または Object を渡すには、ワークフローに入る前に自分で解析する必要があります。

      説明

      入力パラメーターの説明。パラメーターの目的を説明するために使用されます。

      説明

      カスタム変数に加えて、アプリケーションにはいくつかの組み込みユーティリティ変数があります:

      • query

        ユーザーのクエリ変数。API 呼び出しからのプロンプト変数や、テストウィンドウでユーザーが送信したテキストを受け取るために使用されます。

      • historyList (対話型ワークフローでのみ利用可能)

        これは対話履歴リストです。アプリケーションはこれを使用して対話履歴レコードを自動的に維持し、複数ラウンドの対話体験を提供します。

      • imageList (対話型ワークフローでのみ利用可能)

        これは画像リストです。テストウィンドウでユーザーがアップロードした画像を保存します。現在、1 つの画像のみを保存できます。

    • 終了ノード

      コンポーネント

      説明

      出力モード

      出力パラメーターのフォーマット。テキスト出力と JSON 出力がサポートされています。

      テキストボックス (テキスト出力モード)

      出力コンテンツの段落フォーマットを調整できます。このフィールドはテキスト入力と変数参照をサポートし、非構造化コンテンツに適しています。

      変数名/変数値 (JSON モードでのみ有効)

      出力コンテンツを JSON 形式で整理する必要があります。変数名をカスタマイズできます。このフィールドはテキスト入力と変数参照をサポートし、構造化コンテンツに適しています。

      戻り結果

      このパラメーターは、アプリケーションが API を使用して呼び出された場合にのみ有効です。ノードコンテンツを出力するかどうかを決定します。このコンポーネントの目的の詳細については、「戻り結果を使用してノードコンテンツを制御する」をご参照ください。

ナレッジベース

  • 使用する理由

    このノードは、ドキュメント、FAQ、製品情報のリポジトリなど、大規模な情報ソースから最も関連性の高いコンテンツを抽出するのに役立ちます。これにより、後続の AI Q&A のためのデータが準備されます。

  • 機能と特徴、および使用方法

    • 1 つまたは複数のナレッジベースを検索して、関連するドキュメントセグメントを取得できます。これにより、AI はより多くのコンテキストにアクセスし、より専門的または正確な回答を提供できます。このノードは、LLM ノードと組み合わせて使用されることがよくあります。

    • 対話型ワークフローやインテリジェントなカスタマーサービスシステムの構築に特に役立ちます。

  • パラメーター設定

    パラメーター名

    パラメーターの説明

    入力

    content: テキストを直接入力するか、前のノードから出力された変数を参照できます。

    imageList: 画像検索をサポートします。画像リンクを直接入力するか、前のノードから出力された変数を参照できます。

    ナレッジベースの選択

    検索するナレッジベースを指定します。複数選択がサポートされています。

    出力

    このノードの結果変数に名前を付けます。例: kbResult

  • 出力構造の例:

    {
      "rewriteQuery": "...",
      "chunkList": [
        {
          "score": 0.36,
          "documentName": "ドキュメント名",
          "title": "ドキュメントのタイトル",
          "content": "関連コンテンツセグメント",
          "imagesUrl": "画像 URL"
        }
      ]
    }

    chunkList は、出力の最も一般的に使用される部分です。ドキュメントセグメントとその類似性スコアが含まれています。

説明

検索結果のスコアが高いほど、一致度が高いことを示します。後続のノードで結果をフィルター、ソート、または結合できます。

ローカルのベクトルデータベースはサポートされていません。この機能を使用するには、ファイルをナレッジベースにアップロードする必要があります。

LLM

  • 使用する理由

    これはワークフロー全体の「インテリジェントな頭脳」です。言語を理解し、テキストを生成し、画像を分析し、複数ラウンドの対話に参加できます。これを使用して、コピーを作成したり、テキストを要約したり、VL シリーズモデルを使用する場合は画像コンテンツを分析したりすることもできます。

  • 機能と特徴

    • 一度に単一の入力を処理するか、大量のデータをバッチで処理することをサポートします。

    • Qwen-Plus など、さまざまな LLM を設定できます。パフォーマンス、速度、またはその他の特徴に基づいて適切なモデルを選択できます。

  • ノードパラメーター設定

    パラメーター名

    パラメーターの説明

    モード選択

    単一処理モード: このモードは、より低い検索率を使用し、クエリの再書き込みを使用せずに高速検索を実行します。

    バッチ処理モード: バッチ処理モードでは、ノードは複数回実行されます。実行されるたびに、リストの項目がバッチ処理変数に順次割り当てられます。このプロセスは、リストのすべての項目が処理されるか、指定されたバッチ処理の最大回数に達するまで続きます。

    バッチ処理設定:

    • バッチ処理の最大回数 (範囲: 1-100、一般ユーザーのデフォルト: 100): バッチ処理実行の上限。

      説明

      実際のバッチ処理回数は、ユーザーが入力した配列の最小長です。入力変数が指定されていない場合、回数は設定のバッチ数によって決まります。

    • 並列実行数 (範囲: 1-10): バッチ処理の同時実行数制限。このパラメーターを 1 に設定すると、すべてのタスクが順次実行されます。

    モデル設定

    適切な LLM を選択し、モデルパラメーターを調整します。サポートされているモデルの詳細については、「サポートされているモデル」をご参照ください。

    VL モデルを選択する場合:

    • モデル入力パラメーター: vlImageUrl はパラメーターを参照するか、画像リンクを入力できます。

    • 画像ソース: 画像セットまたはビデオフレームを選択できます。

      • 画像セット: モデルはアップロードされた画像を独立しているとみなし、質問に基づいて対応する画像を理解のために照合します。

      • ビデオフレーム: モデルはアップロードされた画像を同じビデオからのものとみなし、画像を全体として順に理解します。少なくとも 4 つのビデオフレームが必要です。

    パラメーター設定

    温度係数: 生成されるコンテンツの多様性を調整するために使用されます。温度の値が高いほど、生成されるテキストのランダム性が増し、よりユニークな出力が生成されます。温度の値が低いほど、生成されるコンテンツはより保守的で一貫性のあるものになります。

    DeepSeek R1 はこの設定をサポートしていません。

    最大応答長: モデルによって生成されるテキストの最大長を制限します (プロンプトを除く)。この制限はモデルの種類によって異なり、具体的な最大値は異なる場合があります。

    システムプロンプト

    このパラメーターを使用して、モデルのロール、タスク、および出力形式を定義できます。例: 「あなたは数学の問題を解くことを専門とする数学の専門家です。問題解決のプロセスと結果を指定された形式で出力してください。」

    ユーザープロンプト

    プロンプトテンプレートを設定します。変数の挿入がサポートされています。LLM はプロンプト設定に基づいてコンテンツを処理し、生成します。

    出力

    このノードの処理結果の変数名。後続のノードは、この変数を使用して結果を識別し、処理します。

    DeepSeek R1 は、深い思考プロセス (reasoningContent) の出力をサポートしています。
    説明

    API を使用してアプリケーションをビジネスに統合するには、「アプリケーションの呼び出し」をご参照ください。

  • 対話型ワークフローにおける LLM ノード

    • タスクベースのワークフローの LLM ノードとは異なり、このノードは複数ラウンドの対話設定をサポートします。モデルは、選択された過去の対話情報を入力として使用できます。

      複数ラウンドの対話設定: 対話型アプリケーションは、「コンテキスト」で必要な変数を前の対話ラウンドから収集し、それらを LLM への入力パラメーターとして渡します。

      image

    • コンテキスト: LLM が必要とするコンテキスト入力を宣言します。デフォルトの ${System Variable.historyList} は、前の対話ラウンドからのアプリケーションの入力と出力を表します。他のパラメーターは、前の対話ラウンドからのアプリケーションパラメーターを参照します。

      image

  • テキストモデルノードの例

    [テスト] インターフェイスで、query パラメーターに chip engineer と入力します:

    image

    終了ノードの出力:

    image

  • 画像モデルノードの例

    LLM は、URLbase64 の両方の形式で、単一または複数の画像を入力としてサポートします。

    説明

    単一の画像は直接渡すことができます。例: https://****.com/****.jpg

    複数の画像はリストとして渡すことができます。例: ["URL","URL","URL"]

    [テスト] インターフェイスで、query パラメーターに https://****.com/****.jpg と入力します。

    image

    終了ノードの出力:

    image

API

説明
  • API ノードのデフォルトのタイムアウトは 5000 ms で、調整できません。

  • API ノードがターゲットサービスに正常にアクセスできるようにするには、Model Studio アプリケーションサービスの IP アドレス (47.93.216.17 および 39.105.109.77) をターゲットサーバーのセキュリティグループまたはファイアウォールのインバウンドルールホワイトリストに追加してください。

  • 定義

    POST、GET、PUT、PATCH、DELETE メソッドを使用してカスタム API サービスを呼び出し、API 呼び出し結果を出力できます。

    呼び出しメソッド

    目的

    POST

    サーバーにデータを送信して新しいリソースを作成するために使用されます。

    GET

    サーバー上のデータを変更せずにリソースの表現を取得するために使用されます。

    PUT

    サーバー上の指定されたリソースの表現を更新するか、サーバー上に新しいリソースを作成するために使用されます。

    PATCH

    サーバー上のリソースを部分的に更新するために使用されます。

    DELETE

    サーバーから指定されたリソースを削除するために使用されます。

  • パラメーター設定

    パラメーター名

    パラメーターの説明

    API アドレス

    呼び出す API アドレスを入力します。[POST][GET][PUT][PATCH]、または [DELETE] を選択できます。

    ヘッダー設定

    [ヘッダー] パラメーターを [キー][値] を設定して設定します。

    パラメーター設定

    [KEY][VALUE] を設定することで、[Param] パラメーターを設定します。

    本文設定

    [なし][form-data][raw]、または [JSON] を選択できます。

    出力

    このノードの処理結果の変数名。後続のノードがこのノードの結果を識別し、処理するために使用されます。

    説明

    API を使用してアプリケーションをビジネスに統合するには、「アプリケーションの呼び出し」をご参照ください。

  • ノードの例

    POST メソッドを使用して API を呼び出します。

    image

意図分類

  • 定義

    意図の説明に基づいてユーザー入力をインテリジェントに分類および照合し、実行するブランチを選択します。

  • パラメーター設定

    パラメーター名

    パラメーターの説明

    入力

    このノードで処理される変数。処理するコンテンツを識別するために使用されます。先祖ノードまたは開始ノードからの変数を参照するか、変数値を直接入力できます。

    モデル設定

    モデル選択: Qwen-Plus。

    意図の設定

    さまざまな意図を設定し、意図の説明を入力します。モデルは、意図の説明に基づいて後続のリンクを照合します。例: 「数学の問題を計算するため」、「天気関連の知識に関する Q&A のため」。

    その他の意図

    意図が一致しない場合、このリンクが一致します。

    意図モード

    • 単一選択モード: LLM は、既存の意図設定から最も適切な意図を出力として選択します。

    • 複数選択モード: LLM は、既存の意図設定からすべての一致する意図を出力として選択します。

    思考モード

    • 高速モード: このモードは、複雑な推論プロセスの出力を回避することで、処理速度を向上させることができます。単純なシナリオに適しています。

    • 効果モード: このモードは、対応する分類をより正確に照合するために、段階的に考えます。

    詳細設定

    詳細設定の内容は、追加のプロンプトとしてモデルに提供されます。ここでは、モデルの分類結果が要件により合致するように、より多くの条件を入力したり、より多くの例を提供したりできます。

    e コマースプラットフォームのカスタマーサービスシステムを開発しているとします。ユーザーは注文照会、返品・交換、支払いに関するさまざまな質問をする可能性があります。モデルが正確に分類できるように、詳細設定に関連するプロンプトと例を追加できます。

    以下の例に基づいて意図を分類してください:
    ケース 1: ユーザーが「買ったばかりのコートを返品したい」と入力した場合、「返品/交換」に分類されます。
    ケース 2: ユーザーが「注文の配送状況を確認してください」と入力した場合、「注文照会」に分類されます。
    条件: 注文に関連するクエリのみを処理し、支払いと技術的な問題は無視します。

    効果:

    ユーザー入力: 「先週あなたのウェブサイトで注文した本はいつ家に届きますか?」

    分類結果: 「注文照会」

    この例では、詳細設定は、特定の分類ケースを提供することで、「配送時間の問い合わせ」を「注文照会」の意図として分類するようにモデルをガイドし、同時に分類範囲を制限し、他の無関係な質問を除外します。

    コンテキスト

    コンテキスト機能が有効になると、システムは自動的に過去の対話情報をメッセージ形式で記録します。モデルが呼び出されると、コンテキストが渡され、モデルはコンテキストに基づいてコンテンツを生成します。

    この設定項目は、対話型ワークフローの意図分類ノードでのみ利用可能です。
    説明

    コンテキストを有効にする場合、このノードに渡す変数の型は List である必要があります。

    出力

    このノードの処理結果の変数名。後続のノードがこのノードの結果を識別し、処理するために使用されます。

    説明
    • このノードは、対話型ワークフローでコンテキストをサポートします。

    • このノードを実行するとトークンが消費され、消費量は実行時に表示されます。

テキスト変換

  • 定義

    このノードは、特定コンテンツの抽出やフォーマット変換など、テキストコンテンツの変換と処理に使用されます。テンプレートモードをサポートしています。

  • パラメーター設定

    パラメーター名

    パラメーターの説明

    出力モード

    テキスト出力JSON 出力がサポートされています。

    入力

    LLM を使用して処理方法を指定し、処理対象のコンテンツを後続のノード用の特定のフォーマットに変換します。変数設定を通じて先祖ノードの処理結果を参照できます。

    • テキスト出力: / を入力して変数を挿入します。

    • JSON 出力: 変数名 | 参照/入力 | 変数。

  • ノードの例

    以下は、テキスト変換ノードの簡単な例です。ワークフローのロジックは次のとおりです: まず、ユーザーがキーワードを入力します。次に、このキーワードがテキスト変換ノードに渡され、内部で処理されて対応する出力応答が生成されます。最後に、応答は終了ノードを通じて出力され、プロセス全体が完了します。

    [Test] インターフェイスで、[query] パラメーターに mathematics を入力します。

    image

    終了ノードの出力:

    image

スクリプト変換

  • 定義

    このノードは、スクリプトコードを使用して入力コンテンツを処理し、テンプレートまたは特定の出力形式に変換します。このプロセスには、入力データの解析、変換、フォーマットが含まれ、一貫性と可読性を確保します。

  • ノードの例

    これは Python スクリプト変換の例です: citydate 変数は先祖ノードから渡され、params キーと値のペアに保存されます。変換後、resultresult.key0、および result.key1 を含む JSON オブジェクトが出力されます。コードの戻り値の JSON スキーマは、ノードの定義された出力と一致している必要があります。

    説明

    JSON スキーマとは?

    JSON スキーマはデータ構造の仕様です。これにより、プラットフォーム内の他のノードが、このノードがどのフィールド (resultkey1 など) とデータ型を出力するかを明確に理解できます。これにより、子孫ノードでそれらを簡単に参照できるようになります。

    image

  • パラメーター設定

    パラメーター名

    パラメーターの説明

    入力

    このノードの入力データを定義します。入力は 2 つの方法で提供できます:

    • 静的な値 (入力): 左側の入力パネルに固定値を直接入力します。例: Beijing

    • 動的な変数 (参照): 先祖ノードの出力を参照します。たとえば、前のノードが node_a という名前で、その出力に city_name というフィールドがある場合、node_a.output.city_name を選択して参照できます。

    出力

    ノードのコードロジックによって生成される結果。コード内の return 文によって返される辞書が、このノードの出力になります。

    たとえば、{'result': 'Processing successful'} が返された場合、子孫ノードは this_node_name.result を使用して文字列「Processing successful」を取得できます。

    コード

    コアロジックコードを記述します。

    • 入力の取得: 組み込みの params オブジェクトを使用して入力パラメーターを取得します。

    • 出力の返却: 処理関数 main は、辞書/オブジェクトを return する必要があります。そのキーと値のペアがノードの出力を構成します。

条件判断

  • 定義

    このノードは条件分岐を設定します。変数が条件を満たすと、フローは対応する後続のブランチに進みます。AND/OR 条件設定をサポートしています。複数の条件は上から下に順次実行されます。

  • パラメーター設定

    パラメーター名

    パラメーターの説明

    条件分岐

    条件判断文を入力します。

    その他

    条件判断を必要としない出力は、ここから出力できます。

  • ノードの例

    以下は、条件判断ノードの簡単な例です。ワークフローのロジックは次のとおりです: ユーザーはまず 2 つのパラメーターを入力し、それらは条件判断ノードに渡されます。ノードはパラメーターに対して条件判断を行い、テキスト変換ノードの異なるブランチを通じて出力応答を生成します。最後に、終了ノードが生成された応答を出力します。

    [テスト] インターフェイスで、[scert] パラメーターに 12345 を入力し、[admin] パラメーターに admin を入力します:

    image

    終了ノードの出力:

    image

Function Compute

  • 定義

    このノードは、Alibaba Cloud Function Compute サービスを承認し、Function Compute でカスタムサービスを呼び出します。

  • パラメーター設定

    パラメーター名

    パラメーターの説明

    入力

    このノードで処理される変数。処理するコンテンツを識別するために使用されます。先祖ノードまたは開始ノードからの変数を参照するか、変数値を直接入力できます。

    リージョン

    リージョンを選択します: シンガポールクアラルンプールジャカルタ

    サービス設定

    サービス設定を選択します。

    出力

    このノードの処理結果の変数名。後続のノードがこのノードの結果を識別し、処理するために使用されます。

プラグイン

  • 定義

    ワークフローアプリケーションにプラグインノードを設定して、その機能を拡張し、より複雑なタスクを実行できます。Alibaba Cloud Model Studio は、Quark Search、Calculator、Python Code Interpreter など、一連の公式プラグインを提供しています。また、特定の要件に基づいてカスタムプラグインを作成することもできます。

    詳細については、「プラグインの概要」をご参照ください。

アプリケーションの公開

アプリケーションを公開すると、API を使用して呼び出したり、Web ページ上で同じ Alibaba Cloud アカウント下の RAM ユーザーと共有したりできます。エージェントアプリケーション管理ページの右上隅にある [公開] ボタンをクリックできます。

API を使用した呼び出し

ワークフローアプリケーションの [共有チャネル] タブで、[API 呼び出し] をクリックして、API を使用してエージェントアプリケーションを呼び出す方法を表示できます。

注: 呼び出しを開始するには、YOUR_API_KEY をご自身の API キーに置き換える必要があります。

image

次のセクションでは、API 呼び出しに関する一般的な質問に答えます:

  • 呼び出し方法 (HTTP/SDK) の詳細については、「アプリケーションの呼び出し」をご参照ください。

  • 呼び出しインターフェイスの詳細なパラメーターについては、「アプリケーション呼び出しパラメーター情報」をご参照ください。

  • 呼び出しパラメーターの受け渡しに関する問題については、「アプリケーションパラメーターのパススルー」をご参照ください。

  • 呼び出しエラーメッセージの詳細については、「エラーメッセージ」で解決策をご参照ください。

  • アプリケーション自体には同時実行数制限はありません。制限は主に内部で呼び出すモデルに関連しています。モデルの詳細については、「モデルリスト」をご参照ください。

  • 現在、ワークフローで Xiyan サービスを呼び出すことはできません。API ノードを使用してカスタム API サービスを呼び出すことができます。

説明

API 呼び出しのタイムアウトは 300 秒で、変更できません。

その他の呼び出し方法 (対話型ワークフローアプリケーション)

その他の共有方法の詳細については、「アプリケーションの共有」をご参照ください。

ワークフローアプリケーションのバージョンの表示

  1. ワークフロー設定ページの右上隅にある [公開] をクリックします。公開ダイアログボックスで、バージョン情報 (例: 1.0.0) を入力し、[OK] をクリックします。

image

  1. ページ上部の image アイコンをクリックします。[履歴] パネルで、[このバージョンを使用] または [現在のキャンバスに戻る] をクリックして、必要に応じて現在のワークフローアプリケーションの異なるバージョンを表示または使用できます。

    上部の [このバージョンを DSL でエクスポート] をクリックして、選択した過去のバージョンのワークフローの DSL をエクスポートすることもできます。

image

  1. オプション: ツールバーで現在のキャンバスノードを表示または検索します。

image

ワークフローアプリケーションの削除とコピー

[アプリケーション管理] で公開されたアプリケーションカードを見つけ、[その他] > [アプリケーションのコピー/アプリケーションの削除]ワークフローの削除とコピー、アプリケーション名の変更などの操作を実行できます。

image

よくある質問

ワークフローアプリケーション関連

ワークフローの実行結果をデータベースに書き込むにはどうすればよいですか?

スクリプト変換ノードを使用して、前のノードのコンテンツをデータベースに書き込むことができます。

Alibaba Cloud Model Studio でワークフローアプリケーションを構築する際にファイルをアップロードするにはどうすればよいですか?

ワークフローアプリケーションに API ノードを追加して、ファイルアップロード機能を実現できます。

画像をアップロードするにはどうすればよいですか?

VL モデルを使用し、指定されたパラメーターで画像 URL を渡すことができます。

ワークフローアプリケーションで非同期タスク API を使用できますか?

ワークフローアプリケーションのタイムアウトは 300 秒です。フロー内で非同期タスク API を使用することはお勧めしません。

Alibaba Cloud Model Studio ワークフローで、フロントエンドが API を呼び出して出力をストリーミングするにはどうすればよいですか?

現在、フロントエンドからの呼び出しはサポートされていません。

Alibaba Cloud Model Studio ワークフローにスタンドアロンの .yaml ファイルをインポートできないのはなぜですか?

スタンドアロンの .yaml ファイルのインポートはサポートされていません。md5 ファイルを含む圧縮パッケージを提供する必要があります。MD5 を再生成することをお勧めします。

Alibaba Cloud Model Studio ワークフローの変数名は中国語にできますか?

変数名は中国語にできません。

対話履歴はどのように保存されますか?

ワークフローアプリケーションはデータを 1 か月間しか保存しません。対話記録はご自身で保存する必要があります。session_id は 1 時間有効です。

ノード関連

コンテキストが有効な意図分類ノードが実行中にエラーになるのはなぜですか?

意図分類ノードでコンテキストが有効になっている場合、このノードに渡す変数は List 型である必要があります。

ストリーミング出力で API 呼び出しノードを使用するとエラーが発生するのはなぜですか?

ワークフローの API ノードはストリーミング出力をサポートしていませんが、HTTP API 自体はサポートしています。エージェントオーケストレーションアプリケーションを使用して他のエージェントアプリケーションを呼び出し、ストリーミングの戻り結果を実現することをお勧めします。

Alibaba Cloud Model Studio ワークフローの条件判断ノードの応答速度が遅い場合、どうすればよいですか?

  1. ワークフローの設定を確認します。ワークフローの各ノード、特に条件判断ノードが正しく設定されていることを確認します。応答時間を増加させる可能性のある不必要に複雑な計算やデータ処理を避けます。

  2. コードロジックを最適化します。条件判断にカスタムスクリプトを使用している場合は、スクリプトのロジックを最適化し、不要なループやデータ処理を減らして実行効率を向上させます。

  3. バッチテストを実行します。現在のワークフローの平均応答時間をテストして、特定の条件下でパフォーマンスのボトルネックがあるかどうかを判断します。

LLM ノードは思考プロセスをどのようにストリーミングできますか?

LLM ノードの後にテキスト変換ノードを追加し、reasoning_content 変数を設定し、戻り結果スイッチを有効にする必要があります。戻り条件は終了ノードで受信される必要があります。

LLM ノードの出力パラメーターをカスタマイズできないのはなぜですか?

  1. スクリプトノードを使用して出力を処理します。LLM ノードの後にスクリプトノードを追加して、その出力を処理します。これにより、出力を必要な形式に変換したり、出力パラメーターを追加したりできます。

  2. バッチノードを設定します: バッチノードで LLM ノードを使用する場合、バッチノードの設定で LLM ノードの出力を最終出力として選択できます。具体的な手順は次のとおりです:

    • バッチノードに LLM ノードを追加します。

    • バッチノードの設定で、LLM ノードの出力を最終出力 resultList として選択します。

詳細については、「アプリケーションパラメーターのパススルー」をご参照ください。

ワークフローの API 呼び出しノードに戻り結果がなく、パラメーターの受け渡しに問題があるのはなぜですか?

API キーとベース URL が正しいことを確認します。入力パラメーターが正しく設定されていることを確認し、フィールドの入力タイプを調整し、モデルの観察を使用してモデルの使用状況の詳細を表示します。

ナレッジベースから Excel データを呼び出す際に問題が発生するのはなぜですか?

ローカルファイルを直接呼び出すことはできません。MCP を使用してローカル呼び出しを実装できます。ナレッジベースノードの出力からテキストコンテンツを自分で処理する必要があります。テーブルをスクリプトに渡す前に、LLM を追加して変換することをお勧めします。