サービスプラザには、AI Search Open Platform のすべてのサービスが集約されています。 サービスプラザにアクセスすると、Alibaba Cloud アカウントにログインせずに、さまざまなサービスの詳細を表示できます。
手順
サービスプラザ に移動して、AI Search Open Platform によって提供されるさまざまなサービスを表示します。
サービスカテゴリ
説明
ドキュメントコンテンツ解析
非構造化ドキュメント (テキスト、表、画像など) からタイトルや段落などの論理的な階層構造を抽出し、構造化された形式で出力する汎用ドキュメント解析サービス。
画像コンテンツ解析
画像コンテンツ理解サービス: マルチモーダル LLM を使用して画像コンテンツを解析および理解し、テキスト認識を実行します。 解析されたテキストは、画像検索や質問応答のシナリオに使用できます。
画像テキスト認識サービス: OCR 画像テキスト認識。 認識されたテキストは、画像検索や質問応答のシナリオに使用できます。
ドキュメントスライス
汎用テキストチャンクサービスを提供し、ドキュメントの段落、テキストセマンティクス、または指定されたルールに基づいて、HTML、Markdown、TXT 形式の構造化データのチャンクをサポートします。 また、リッチテキスト形式のドキュメントからコード、画像、表を抽出することもできます。
テキストベクトル化
OpenSearch テキストベクトル化サービス 001: 最大入力テキスト長 300 トークン、出力ベクトル次元 1536 の多言語 (40+) テキスト埋め込みサービスを提供します。
OpenSearch 汎用テキストベクトル化サービス 002: 最大入力テキスト長 8192 トークン、出力ベクトル次元 1024 の多言語 (100+) テキスト埋め込みサービスを提供します。
OpenSearch テキストベクトル化サービス 中国語 001: 最大入力テキスト長 1024 トークン、出力ベクトル次元 768 の中国語テキスト埋め込みサービスを提供します。
OpenSearch テキストベクトル化サービス 英語 001: 最大入力テキスト長 512 トークン、出力ベクトル次元 768 の英語テキスト埋め込みサービスを提供します。
GTE テキスト埋め込み 多言語 base: 最大入力テキスト長 8192、出力ベクトル次元 768 の多言語 (70+) テキスト埋め込みサービス。
Qwen3 テキスト埋め込み 0.6B: Qwen3 シリーズの多言語 (100+) テキスト埋め込みサービス。 最大入力長は 32k、出力ベクトル次元は 32 ~ 1024 でカスタマイズ可能、パラメーター数は 0.6B。
マルチモーダルベクトル
M2-Encoder マルチモーダルベクトルモデル: BM-6B に基づいて 60 億の画像テキストペア (中国語データ 30 億、英語データ 30 億) でトレーニングされた、中国語 英語バイリンガルのマルチモーダルサービス。 このモデルは、テキストと画像間のクロスモーダル検索 (テキストによる画像検索と画像によるテキスト検索を含む) と画像分類タスクをサポートしています。
M2-Encoder-Large マルチモーダルベクトルモデル: M2-Encoder モデルと比較してパラメーター数が 1B (10 億パラメーター) 多い、中国語 英語バイリンガルのマルチモーダルサービス。 より強力な表現力とマルチモーダルタスク処理のパフォーマンスを提供します。
テキストスパースベクトル化
テキストデータをスパースベクトル表現に変換します。 スパースベクトルは必要なストレージ容量が少なく、キーワードや単語頻度情報を表すためによく使用されます。 密ベクトルと組み合わせてハイブリッド検索に使用すると、検索効率が向上します。
OpenSearch テキストスパースベクトル化サービス: 最大入力テキスト長 8192 トークンの多言語 (100+) テキストベクトル化サービスを提供します。
クエリ分析
LLM と NLP 機能に基づいて、ユーザーのクエリに対して意図認識、類似質問の展開、NL2SQL 処理を実行し、RAG シナリオでの検索と質問応答の効率を効果的に向上させることができます。
LLM を使用してユーザー入力クエリを理解し、類似質問を展開する汎用クエリ分析サービス。
並べ替えサービス
BGE 並べ替えモデル: BGE モデルに基づくドキュメントスコアリングサービスを提供します。 クエリとドキュメントコンテンツの関連性に従って、スコアの高い順にドキュメントをランク付けし、対応するスコアリング結果を出力できます。 中国語と英語の両方をサポートし、最大入力トークン長は 512 (クエリ + ドキュメント長) です。
OpenSearch テキスト再ランク付け: 複数業界のデータセットでトレーニングされており、クエリとのセマンティックな関連性に基づいてドキュメントをランク付けできる高品質の再ランク付けサービスを提供します。 中国語と英語の両方をサポートし、最大入力トークン長は 512 (クエリ + ドキュメント長) です。
Qwen3 並べ替え 0.6B: 100 以上の言語をサポートする Qwen3 シリーズドキュメント再ランク付けサービス。 最大入力トークン長は 32k (クエリ + ドキュメント長)、パラメーター数は 0.6B。
音声認識
音声認識サービス 001: ビデオまたは音声の音声コンテンツを構造化テキストにすばやく変換できる音声テキスト変換機能を提供します。 このサービスは複数の言語をサポートしています。
ビデオスナップショット
ビデオスナップショットサービス 001: ビデオからキーフレームをキャプチャできるビデオコンテンツ抽出機能を提供します。 マルチモーダル埋め込みサービスまたは画像解析機能と組み合わせることで、クロスモーダル検索が可能になります。
大規模モデル
Qwen3-235B-A22B: 新世代の Qwen LLM。 広範なトレーニングに基づいて、Qwen3 は推論、命令のフォロー、エージェント機能、多言語サポートにおいて飛躍的な進歩を遂げました。 100 以上の言語と方言をサポートし、強力な多言語理解、推論、生成機能を備えています。
OpenSearch-Qwen-Turbo: qwen-turbo をベースモデルとして使用し、教師ありモデルの微調整、検索拡張の強化、有害性の低減を実現しています。
Qwen-Turbo: Qwen シリーズの中で最速かつ最も費用対効果の高いモデル。 簡単なタスクに適しています。 詳細については、「Qwen-Turbo」をご参照ください。
Qwen-Plus: 機能のバランスが取れており、Qwen-Max と Qwen-Turbo の間の推論効率、コスト、速度。 中程度の複雑さのタスクに適しています。 詳細については、「Qwen-Plus」をご参照ください。
Qwen-Max: Qwen シリーズの中で最もパフォーマンスの高いモデル。 複雑な複数ステップのタスクに適しています。 詳細については、「Qwen-Max」をご参照ください。
QwQ 深層思考モデル: Qwen2.5-32B モデルに基づいてトレーニングされた QwQ 推論モデル。 強化学習によってモデルの推論能力が大幅に向上しています。
DeepSeek-R1: 複雑な推論タスクに特化した大規模言語モデル。 複雑な命令の理解と結果の精度において優れたパフォーマンスを発揮します。
DeepSeek-V3: 長文、コード、数学、百科事典、中国語の機能において優れたパフォーマンスを発揮する MoE モデル。
DeepSeek-R1-distill-qwen-7b: DeepSeek-R1 によって生成されたトレーニングサンプルを使用して知識蒸留技術に基づいて Qwen-7B で微調整されたモデル。
DeepSeek-R1-distill-qwen-14b: DeepSeek-R1 によって生成されたトレーニングサンプルを使用して知識蒸留技術に基づいて Qwen-14B で微調整されたモデル。
インターネット検索
検索プロセス中に、非公開ナレッジベースが対応する回答を提供できない場合は、インターネット検索に展開して詳細情報を取得し、非公開ナレッジベースを補足し、大規模言語モデルと組み合わせてより豊富な回答を提供できます。
サービスカードの左下隅にある [詳細の表示] をクリックして、[サービス名]、[サービス ID]、[サービス紹介]、[課金方法] を表示します。
サービスカードの右下隅にある [体験] をクリックして [エクスペリエンスセンター] に移動すると、サービスをテストしてその効果をプレビューできます。 詳細については、「エクスペリエンスセンター」をご参照ください。