アシスタント API は、開発者がパーソナルアシスタント、スマートショッピングガイド、会議アシスタントなどのモデルアプリケーションを簡単に構築できるように設計されています。テキスト生成 APIと比較して、アシスタント API は対話管理とツール呼び出しの機能を組み込んでおり、開発の難易度とコストを削減します。
アシスタントとは
アシスタントとは、次のような特徴を持つ AI 会話型アシスタントの一種です。
複数のモデルのサポート: アシスタントは、さまざまな基盤モデルで構成でき、システム命令で強化して、モデルの個性と能力を調整できます。
ツール呼び出し: アシスタントは、Python コードインタープリターなどの Model Studio の公式ツールや、関数呼び出しによるカスタムツールなど、さまざまなツールを使用できます。
会話管理: アシスタントは、スレッドオブジェクトを使用して会話を管理できます。スレッドオブジェクトにはメッセージ履歴が保存され、モデルのコンテキスト長を超えると切り捨てられます。スレッドオブジェクトは一度作成されると、ユーザーが応答するたびにメッセージが追加されます。
アシスタントを試すには、コンソールでエージェントアプリケーションを作成するだけで、プログラミングスキルは必要ありません。または、アシスタント API を使用して開始するにアクセスして、アシスタント API を使用してアシスタントを作成し、既存のビジネスコードと統合するためのステップバイステップガイドをご覧ください。
エージェントアプリケーションとアシスタントはどちらも LLM アプリケーションです。ただし、それらの機能と管理(作成、読取、更新、削除)方法は異なります。
エージェントアプリケーション:ノーコードまたはローコードとして設計されています。コンソールでのみ管理できます。
アシスタント:ピュアコードとして設計されています。アシスタント API を介してのみ管理できます。
テキスト生成 API との違い
テキスト生成 API の主要な要素はメッセージであり、Qwen-Plus や Qwen-Max などのモデルによって生成できます。この軽量 API では、基本的なアプリケーションを構築するために、会話の状態、ツールの定義、ナレッジベースの取得、コードの実行を手動で管理する必要があります。
テキスト生成 API に加えて、アシスタント API は次のコア要素を導入しています。
メッセージオブジェクト:テキスト生成 API のメッセージと同様に、会話情報のロールとコンテンツをカプセル化します。
アシスタントオブジェクト:基盤モデル、デフォルトの命令、ツールをカプセル化します。
スレッドオブジェクト:現在の会話の状態を表します。
実行オブジェクト:テキスト応答とツール使用を含め、スレッド上でアシスタントを実行します。
次のセクションでは、これらの要素がどのように連携してアシスタントを作成するかについて詳しく説明します。
インタラクション方法
アシスタント API は、スレッドメカニズムを使用して、メッセージが順番に処理され、会話の継続性が維持されるようにします。プロセスは次のとおりです。
メッセージの作成: ユーザーは
Message.create()メソッドを使用してメッセージインスタンスを作成し、コンテキストの関連付けを維持するために特定のスレッドに割り当てます。ランタイム環境の初期化:
Run.create()関数は、アシスタントオブジェクトのランタイム環境を初期化し、メッセージ処理に必要な構成を設定します。結果の待機:
wait()関数は、アシスタントオブジェクトが処理を完了して結果を返すまで実行を一時停止し、プログラムの同期とデータシーケンスを確保します。
簡単な描画アシスタントを例に考えてみましょう。
|
モデルのサポート
アシスタント API とのモデルの互換性については、実際の実行結果を参照してください。モデルの詳細については、「モデルの一覧」をご参照ください。
ツールのサポート
アシスタント API とのプラグインの互換性については、実際の実行結果を参照してください。プラグインの詳細については、「プラグイン」をご参照ください。
ツール | 識別子 | 説明 |
Python コードインタープリター | code_interpreter | Python コードの実行を容易にし、プログラミングタスク、数学、データ分析に最適です。 |
画像生成 | text_to_image | テキストによる説明を視覚的な画像に変換し、応答形式を多様化します。 |
カスタムプラグイン | ${plugin_id} | カスタムビジネスインターフェイスとの統合を可能にし、AI 機能を拡張します。 |
関数呼び出し | function | 外部ネットワークサービスに依存せずに、オンプレミスデバイスで指定された関数を実行します。 |
開始方法
LLM をテストしたり、アシスタント API を使用して開始する場合は、次の手順に従います。
プレイグラウンド: LLM の推論機能をテストして、アシスタントに最適なものを見つけてください。
開始する: アシスタント API の基本的な使用方法と例を紹介します。
API リファレンス: パラメーターの詳細な説明を紹介します。
