すべてのプロダクト
Search
ドキュメントセンター

OpenSearch:体験センター

最終更新日:Nov 28, 2025

体験センターでは、ドキュメント解析、画像コンテンツ抽出、ドキュメントチャンキングなどのサービスを視覚的にテストできます。これにより、サービスがビジネス要件を満たしているかどうかを迅速に評価できます。

特徴

体験センターでは、以下のサービスを提供しています:

サービスカテゴリ

サービスの説明

ドキュメントコンテンツ解析

テキスト、テーブル、画像を含む非構造化ドキュメントからタイトルや段落などの論理構造を抽出する汎用ドキュメント解析サービスです。抽出されたコンテンツは構造化フォーマットで出力されます。

画像コンテンツ解析

画像コンテンツ認識サービス:マルチモーダル大規模言語モデルを使用して、画像内のテキストを解析、理解、認識します。解析されたテキストは、画像検索や Q&A (質疑応答) シナリオで使用できます。

画像テキスト認識サービス:画像に対して光学文字認識 (OCR) を実行してテキストを認識します。認識されたテキストは、画像検索や Q&A シナリオで使用できます。

ドキュメントスライス

HTML、Markdown、TXT 形式の構造化データを、段落、テキストセマンティクス、または指定されたルールに基づいて分割する汎用テキストチャンキングサービスです。また、ドキュメントからコード、画像、テーブルをリッチテキストとして抽出することもサポートしています。

テキスト埋め込み

  • OpenSearch text vectorization service-001:40 以上の言語に対応したテキスト埋め込みサービスです。最大入力テキスト長は 300 トークンで、出力ベクトルは 1,536 次元です。

  • OpenSearch universal text vectorization service-002:100 以上の言語に対応したテキスト埋め込みサービスです。最大入力テキスト長は 8,192 トークンで、出力ベクトルは 1,024 次元です。

  • OpenSearch text vectorization service-Chinese-001:中国語向けのテキスト埋め込みサービスです。最大入力テキスト長は 1,024 トークンで、出力ベクトルは 768 次元です。

  • OpenSearch text vectorization service-English-001:英語向けのテキスト埋め込みサービスです。最大入力テキスト長は 512 トークンで、出力ベクトルは 768 次元です。

  • GTE text embedding-multilingual-Base:70 以上の言語に対応したテキスト埋め込みサービスです。最大入力テキスト長は 8,192 で、出力ベクトルは 768 次元です。

  • Qwen3 text embedding-0.6B:100 以上の言語に対応した Qwen3 シリーズのテキスト埋め込みサービスです。最大入力長は 32k トークン、出力ベクトルは 1,024 次元、モデルのパラメーター数は 6 億です。

マルチモーダルベクトル

  • M2-Encoder-multimodal vector model:BM-6B をベースに、60 億の画像とテキストのペア (中国語 30 億、英語 30 億) でトレーニングされたバイリンガル (中国語と英語) のマルチモーダルサービスです。このモデルは、テキストから画像へ、画像からテキストへの検索を含む、画像とテキストのクロスモーダル検索、および画像分類タスクをサポートしています。

  • M2-Encoder-Large-multimodal vector model:バイリンガル (中国語と英語) のマルチモーダルサービスです。M2-Encoder モデルと比較して、モデルサイズが 10 億 (1B) パラメーターと大きく、より強力な表現能力とマルチモーダルタスクでの優れたパフォーマンスを提供します。

スパーステキスト埋め込み

このサービスは、テキストデータを疎ベクトルに変換します。疎ベクトルは必要なストレージ容量が少なく、キーワードや用語頻度を表すためによく使用されます。密ベクトルと組み合わせてハイブリッド検索を行うことで、検索結果を向上させることができます。

OpenSearch sparse text vectorization service:100 以上の言語に対応したテキスト埋め込みサービスです。最大入力テキスト長は 8,192 トークンです。

次元削減

embedding-dim-reduction:ベクトルモデルのファインチューニングサービスです。ベクトル次元削減などのタスク用にカスタムモデルをトレーニングできます。これにより、高次元ベクトルの次元を削減し、検索パフォーマンスを大幅に損なうことなくコスト効率を向上させることができます。

クエリ分析

クエリコンテンツ分析サービスです。大規模言語モデル (LLM) と自然言語処理 (NLP) 機能に基づき、ユーザーのクエリに対して意図認識、代替クエリ拡張、自然言語から SQL へ (NL2SQL) の処理を実行します。これにより、検索拡張生成 (RAG) シナリオにおける検索および Q&A のパフォーマンスを効果的に向上させます。

ユーザーが入力したクエリに対して、LLM を使用して意図認識と代替クエリ拡張を行う汎用クエリ分析サービスです。

ソートサービス

  • BGE rearrangement model:BGE モデルに基づくドキュメントスコアリングサービスです。クエリとドキュメントコンテンツ間の関連度スコアに基づいてドキュメント (DOC) を降順にソートし、対応するスコアを出力します。このサービスは中国語と英語の両方をサポートし、最大入力長は 512 トークン (クエリ + ドキュメント長) です。

  • OpenSearch self-developed rearrange model:複数の業界のデータセットでトレーニングされたこのモデルは、高度な並べ替えサービスを提供します。クエリとドキュメント間のセマンティック関連性に基づいて、ドキュメントを高いものから低いものへとソートします。このサービスは中国語と英語の両方をサポートし、最大入力長は 512 トークン (クエリ + ドキュメント長) です。

  • Qwen3 sorting-0.6B:Qwen3 シリーズのドキュメント並べ替えサービスです。100 以上の言語をサポートし、最大入力長は 32k トークン (クエリ + ドキュメント長)、モデルサイズは 6 億パラメーターです。

音声認識

Speech recognition service 001:音声テキスト変換機能を提供します。ビデオまたはオーディオファイルの音声を迅速に構造化テキストに変換できます。このサービスは複数の言語をサポートしています。

ビデオスナップショット

Video snapshot service 001:ビデオコンテンツ抽出機能を提供します。ビデオからキーフレームをキャプチャできます。マルチモーダル埋め込みまたは画像解析サービスと組み合わせることで、クロスモーダル検索が可能になります。

大規模モデル

  • Qwen3-235B-A22B:Qwen シリーズの新世代大規模言語モデルです。広範なトレーニングに基づき、Qwen3 は推論、命令追従、エージェント機能、多言語対応においてブレークスルーを遂げました。100 以上の言語と方言をサポートし、強力な多言語理解、推論、生成能力を備えています。

  • OpenSearch-Qwen-Turbo:Qwen-Turbo 大規模言語モデルをベースに構築され、教師あり学習でファインチューニングされており、検索を強化し、有害なコンテンツを削減します。

  • Qwen-Turbo:Qwen シリーズの中で最も高速でコスト効率の高いモデルです。単純なジョブに適しています。詳細については、「モデルリスト」をご参照ください。

  • Qwen-Plus:能力の面でバランスの取れたモデルです。推論性能、コスト、速度は Qwen-Max と Qwen-Turbo の中間に位置します。中程度に複雑なジョブに適しています。詳細については、「モデルリスト」をご参照ください。

  • Qwen-Max:Qwen シリーズで最も性能の高いモデルです。複雑で多段階のジョブに適しています。詳細については、「モデルリスト」をご参照ください。

  • QwQ deep thinking model:Qwen2.5-32B モデルでトレーニングされた QwQ 推論モデルです。強化学習により推論能力が大幅に向上しています。

  • DeepSeek-R1:複雑な推論タスクに特化した大規模言語モデルです。複雑な命令の理解と結果の正確性の確保に優れています。

  • DeepSeek-V3:専門家混合 (MoE) モデルで、長文、コード、数学、百科事典的知識、中国語能力に優れています。

  • DeepSeek-R1-distill-qwen-7b:知識蒸留を用いて Qwen-7B でファインチューニングされたモデルです。トレーニングサンプルは DeepSeek-R1 によって生成されます。

  • DeepSeek-R1-distill-qwen-14b:知識蒸留を用いて Qwen-14B でファインチューニングされたモデルです。トレーニングサンプルは DeepSeek-R1 によって生成されます。

インターネット検索

検索中にプライベートナレッジベースで回答が得られない場合、インターネット検索を使用してインターネットからより多くの情報にアクセスできます。これにより、プライベートナレッジベースを補完し、大規模言語モデルがより包括的な応答を提供できるようになります。

機能の試用

ドキュメント解析

  1. Open Platform for AI Search コンソールにログインします。

  2. 左側のナビゲーションウィンドウで、体験センター を選択します。

  3. サービスカテゴリドキュメント分析 / 画像分析 (document-analyze) を選択し、次に特定の サービス を選択します。

  4. 機能をテストするには、システムが提供する サンプルデータ を使用するか、データの管理 を使用して独自のデータをアップロードできます。サポートされているファイル形式は Txt、PDF、HTML、Doc、Docx、PPT、PPTX で、ファイルサイズは 20 MB を超えることはできません。

    • File:ローカルファイルをアップロードします。これらのファイルは 7 日後に自動的にパージされます。プラットフォームはデータを長期間保存しません。

    • URL:ファイルの URL と対応するファイルタイプを指定します。複数の URL をアップロードでき、各 URL は改行して入力します。

      説明

      間違ったデータ形式を選択すると、ドキュメント解析が失敗します。ファイルのデータに基づいて正しいファイルタイプを選択してください。

      image

      重要

      Web リンクのインポート機能は、適用される法令を遵守して使用してください。ターゲットプラットフォームの管理仕様に従い、権利者の法的権利を保護する必要があります。ご自身の操作については、お客様が単独で責任を負うものとします。ツールプロバイダーとして、Open Platform for AI Search はお客様の解析またはダウンロードの動作に対して責任を負いません。

  5. 独自のデータを使用する場合は、ドロップダウンリストから事前にアップロードしたファイルまたは URL を選択します。

    image

  6. 結果の取得 をクリックします。システムがサービスを呼び出してドキュメントを解析します。

    • 結果:解析の進捗と結果を表示します。

    • 結果のソースコード[Response Result Code] を表示します。コードのコピー または ファイルのダウンロード を使用して、コードをローカルマシンにダウンロードできます。

    • サンプルコード:テキストコンテンツ解析サービスを呼び出すための サンプルコード を表示およびダウンロードします。

      image

ドキュメントスライス

  1. Open Platform for AI Search コンソールにログインします。

  2. 左側のナビゲーションウィンドウで、体験センター を選択します。

  3. サービスカテゴリドキュメント分割 (document-split) を選択し、サービス から特定のサービスを選択します。

  4. テストデータには、システムが提供する サンプルデータ を使用するか、マイデータ を選択して独自のデータを入力し、正しいデータ形式 (TXT、HTML、または Markdown) を選択します。

    説明

    間違ったデータ形式を選択すると、ドキュメント解析が失敗します。アップロードしたデータに基づいて正しい形式を選択してください。

  5. セグメントの最大長さ を設定します。デフォルト値は 300、最大値は 1,024 で、単位はトークンです。

  6. 必要に応じて 文セグメントを返す を設定し、結果の取得 をクリックします。システムがサービスを呼び出してドキュメントをセグメント化します。

    • 結果:スライスの進捗と結果を表示します。

    • 結果のソースコード[Response Result Code] を表示します。コードのコピー または ファイルのダウンロード をクリックして、コードをローカルマシンにダウンロードできます。

    • サンプルコード:ドキュメントスライスサービスを呼び出すための サンプルコード を表示およびダウンロードします。

テキスト/スパース埋め込み

  1. Open Platform for AI Search コンソールにログインします。

  2. 左側のナビゲーションウィンドウで、体験センター を選択します。

  3. サービスカテゴリテキストのベクトル化 (text-embedding) を選択し、特定の サービス を選択します。

  4. ベクトル化の コンテンツタイプ は、ドキュメントとクエリをサポートしています。

  5. テキストを追加 または JSON 形式で入力 を使用して、ベクトル化するテキストを追加できます。

    image

  6. 結果の取得 をクリックして、テキストのベクトル化結果を取得します。

    • 結果:ベクトル化の結果を表示します。

      image

    • 結果のソースコード:応答結果コードを表示します。[Copy Code] または [Download File] をクリックして、コードをローカルマシンにダウンロードできます。

    • サンプルコード:テキスト埋め込みサービスを呼び出すための サンプルコード を表示およびダウンロードします。

マルチモーダル埋め込み

  1. Open Platform for AI Search コンソールにログインします。

  2. 左側のナビゲーションウィンドウで、体験センター を選択します。

  3. サービスカテゴリマルチモーダルベクトル (multi-modal-embedding) を選択します。次に、特定の サービス を選択し、テキスト画像、または テキスト + 画像 を選択します。

    image

    説明

    埋め込み用にローカル画像をアップロードすると、画像は 7 日後に自動的にパージされます。プラットフォームはデータを長期間保存しません。

  4. 結果の取得 をクリックして、マルチモーダル埋め込みの結果を取得します。

    • 結果:ベクトル化の結果を表示します。

      image

    • 結果のソースコード:応答コードを表示します。コードのコピー または ファイルのダウンロード を使用して、コードをローカルマシンにダウンロードできます。

    • サンプルコード:テキスト埋め込みサービスを呼び出すための サンプルコード を表示およびダウンロードします。

ソートサービス

  1. Open Platform for AI Search コンソールにログインします。

  2. 左側のナビゲーションウィンドウで、体験センター を選択します。

  3. サービスカテゴリソート (ranker) を選択し、特定の サービス を選択します。

  4. システムが提供する サンプルデータ を使用するか、独自のデータを入力できます。

  5. Query フィールドにテキストを入力します。

    image

  6. 結果の取得 をクリックします。システムがソートサービスを呼び出して、クエリとドキュメントコンテンツの関連性に基づいてドキュメントをソートし、スコアリング結果を出力します。

    • 結果:ソートとスコアリングの結果を表示します。

      image

    • 結果のソースコード:応答結果コードを表示します。コードのコピー または ファイルのダウンロード を使用して、コードをローカルマシンにダウンロードできます。

    • サンプルコード:ソートサービスを呼び出すための サンプルコード を表示およびダウンロードします。

ビデオスナップショット

  1. Open Platform for AI Search コンソールにログインします。

  2. 左側のナビゲーションウィンドウで、体験センター を選択します。

  3. サービスカテゴリで、ビデオスナップショット (video-snapshot) を選択します。

  4. システムが提供する サンプルデータ を使用するか、独自のビデオデータをアップロードできます。

  5. 結果の取得 をクリックします。システムがビデオスナップショットサービスを呼び出して、ターゲットビデオからキーフレームをキャプチャします。

音声認識

  1. Open Platform for AI Search コンソールにログインします。

  2. 左側のナビゲーションウィンドウで、体験センター を選択します。

  3. サービスカテゴリで、音声認識 (audio-asr) を選択します。

  4. 試用には、システムが提供する サンプルデータ を使用するか、独自のオーディオデータをアップロードできます。

  5. 結果の取得 をクリックします。システムが音声認識サービスを呼び出し、ターゲットデータのオーディオコンテンツを構造化テキストに変換します。

大規模言語モデル (LLM) サービス

  1. Open Platform for AI Search コンソールにログインします。

  2. 左側のナビゲーションウィンドウで、体験センター を選択します。

  3. サービスカテゴリ大規模モデル (text-generation) を選択し、次に特定の サービス を選択します。image をクリックして オンライン検索 サービスを有効にできます。システムはユーザーのクエリに基づいてインターネット検索を実行するかどうかを判断します。

  4. 質問を入力して送信します。大規模言語モデルが質問を理解し、回答を提供します。

    重要

    生成されたすべてのコンテンツは、人工知能モデルによって生成されます。生成されたコンテンツの正確性や完全性を保証するものではありません。コンテンツは、当社の態度や意見を代表するものではありません。

    大規模言語モデルの応答ページには、現在の Q&A セッションの入力および出力トークン数が表示されます。また、現在の会話を削除したり、全文をコピーしたりすることもできます。

画像コンテンツ解析

  1. Open Platform for AI Search コンソールにログインします。

  2. 左側のナビゲーションウィンドウで、体験センター を選択します。

  3. サービスカテゴリ画像分析 (image-analyze) を選択します。サービス で、画像内容理解 001 または 画像文字認識 001 を選択します。

  4. 提供されているサンプル画像を使用するか、独自の画像をアップロードできます。

    image

  5. 結果の取得 をクリックします。システムが画像コンテンツ解析サービスを呼び出して、画像コンテンツを理解して出力するか、画像からキー情報を認識して出力します。

    • 結果:検出結果を表示します。

      image

    • 結果のソースコード:応答コードを表示します。コードのコピー または ファイルのダウンロード をクリックして、コードをローカルマシンにダウンロードできます。

    • サンプルコード:画像コンテンツ解析サービスを呼び出すための サンプルコード を表示およびダウンロードします。

クエリ分析

  1. Open Platform for AI Search コンソールにログインします。

  2. 左側のナビゲーションウィンドウで、体験センター を選択します。

  3. サービスカテゴリクエリ分析 (query-analyze) を選択します。

  4. Query を直接入力してクエリの意図を認識させるか、会話履歴 エリアでマルチターン対話を構築し、Query を入力します。この場合、モデルはマルチターン対話と Query を組み合わせて認識を実行します。

    NL2SQL の表示 サービスをオンにし、作成した サービス設定 を選択して、自然言語クエリを SQL 文に変換します。

  5. 結果の取得 をクリックして、モデルのパフォーマンスを確認します。

    • 結果:検出結果を表示します。

      nl2SQL.png

    • 結果のソースコード:応答結果コードを表示します。コードのコピー または ファイルのダウンロード を使用して、コードをローカルマシンにダウンロードできます。

    • サンプルコード:クエリ分析サービスを呼び出すための Sample Code を表示およびダウンロードします。

ベクトルファインチューニング

  1. Open Platform for AI Search コンソールにログインします。

  2. 左側のナビゲーションウィンドウで、体験センター を選択します。

  3. サービスカテゴリベクトルの次元削減 (embedding-dim-reduction) を選択します。

  4. モデル名 (ビジネスデータでファインチューニングしたモデル) を選択し、出力ベクトル次元 を指定します。これはモデルトレーニング時に選択したベクトルフィールドの次元以下である必要があります。次に、元のベクトルを入力してください を入力します。

  5. 結果の取得 をクリックして、モデルのパフォーマンスを確認します。

    次元削減モデルのトレーニング方法の詳細については、「サービスカスタマイズ」をご参照ください。

インターネット検索

インターネット検索は、以下の 2 つの方法で使用できます:

  • インターネット検索サービスを直接呼び出す。

  • LLM を使用する際にインターネット検索を有効にする。

  1. Open Platform for AI Search コンソールにログインします。

  2. ターゲットリージョンを選択し、AI 検索オープンプラットフォーム に切り替えます。

  3. 左側のナビゲーションウィンドウで、体験センター を選択します。

  4. サービスカテゴリネットワーク検索サービス (web-search) を選択します。

  5. Query フィールドに「杭州で何をすべきか」などのクエリを入力すると、結果が返されます。