体験センターでは、ドキュメント解析、画像コンテンツ抽出、ドキュメントチャンキングなどのサービスを視覚的にテストできます。これにより、サービスがビジネス要件を満たしているかどうかを迅速に評価できます。
特徴
体験センターでは、以下のサービスを提供しています:
サービスカテゴリ | サービスの説明 |
ドキュメントコンテンツ解析 | テキスト、テーブル、画像を含む非構造化ドキュメントからタイトルや段落などの論理構造を抽出する汎用ドキュメント解析サービスです。抽出されたコンテンツは構造化フォーマットで出力されます。 |
画像コンテンツ解析 | 画像コンテンツ認識サービス:マルチモーダル大規模言語モデルを使用して、画像内のテキストを解析、理解、認識します。解析されたテキストは、画像検索や Q&A (質疑応答) シナリオで使用できます。 |
画像テキスト認識サービス:画像に対して光学文字認識 (OCR) を実行してテキストを認識します。認識されたテキストは、画像検索や Q&A シナリオで使用できます。 | |
ドキュメントスライス | HTML、Markdown、TXT 形式の構造化データを、段落、テキストセマンティクス、または指定されたルールに基づいて分割する汎用テキストチャンキングサービスです。また、ドキュメントからコード、画像、テーブルをリッチテキストとして抽出することもサポートしています。 |
テキスト埋め込み |
|
マルチモーダルベクトル |
|
スパーステキスト埋め込み このサービスは、テキストデータを疎ベクトルに変換します。疎ベクトルは必要なストレージ容量が少なく、キーワードや用語頻度を表すためによく使用されます。密ベクトルと組み合わせてハイブリッド検索を行うことで、検索結果を向上させることができます。 | OpenSearch sparse text vectorization service:100 以上の言語に対応したテキスト埋め込みサービスです。最大入力テキスト長は 8,192 トークンです。 |
次元削減 | embedding-dim-reduction:ベクトルモデルのファインチューニングサービスです。ベクトル次元削減などのタスク用にカスタムモデルをトレーニングできます。これにより、高次元ベクトルの次元を削減し、検索パフォーマンスを大幅に損なうことなくコスト効率を向上させることができます。 |
クエリ分析 クエリコンテンツ分析サービスです。大規模言語モデル (LLM) と自然言語処理 (NLP) 機能に基づき、ユーザーのクエリに対して意図認識、代替クエリ拡張、自然言語から SQL へ (NL2SQL) の処理を実行します。これにより、検索拡張生成 (RAG) シナリオにおける検索および Q&A のパフォーマンスを効果的に向上させます。 | ユーザーが入力したクエリに対して、LLM を使用して意図認識と代替クエリ拡張を行う汎用クエリ分析サービスです。 |
ソートサービス |
|
音声認識 | Speech recognition service 001:音声テキスト変換機能を提供します。ビデオまたはオーディオファイルの音声を迅速に構造化テキストに変換できます。このサービスは複数の言語をサポートしています。 |
ビデオスナップショット | Video snapshot service 001:ビデオコンテンツ抽出機能を提供します。ビデオからキーフレームをキャプチャできます。マルチモーダル埋め込みまたは画像解析サービスと組み合わせることで、クロスモーダル検索が可能になります。 |
大規模モデル |
|
インターネット検索 | 検索中にプライベートナレッジベースで回答が得られない場合、インターネット検索を使用してインターネットからより多くの情報にアクセスできます。これにより、プライベートナレッジベースを補完し、大規模言語モデルがより包括的な応答を提供できるようになります。 |
機能の試用
ドキュメント解析
Open Platform for AI Search コンソールにログインします。
左側のナビゲーションウィンドウで、体験センター を選択します。
サービスカテゴリ で ドキュメント分析 / 画像分析 (document-analyze) を選択し、次に特定の サービス を選択します。
機能をテストするには、システムが提供する サンプルデータ を使用するか、データの管理 を使用して独自のデータをアップロードできます。サポートされているファイル形式は Txt、PDF、HTML、Doc、Docx、PPT、PPTX で、ファイルサイズは 20 MB を超えることはできません。
File:ローカルファイルをアップロードします。これらのファイルは 7 日後に自動的にパージされます。プラットフォームはデータを長期間保存しません。
URL:ファイルの URL と対応するファイルタイプを指定します。複数の URL をアップロードでき、各 URL は改行して入力します。
説明間違ったデータ形式を選択すると、ドキュメント解析が失敗します。ファイルのデータに基づいて正しいファイルタイプを選択してください。
重要Web リンクのインポート機能は、適用される法令を遵守して使用してください。ターゲットプラットフォームの管理仕様に従い、権利者の法的権利を保護する必要があります。ご自身の操作については、お客様が単独で責任を負うものとします。ツールプロバイダーとして、Open Platform for AI Search はお客様の解析またはダウンロードの動作に対して責任を負いません。
独自のデータを使用する場合は、ドロップダウンリストから事前にアップロードしたファイルまたは URL を選択します。

結果の取得 をクリックします。システムがサービスを呼び出してドキュメントを解析します。
結果:解析の進捗と結果を表示します。
結果のソースコード:[Response Result Code] を表示します。コードのコピー または ファイルのダウンロード を使用して、コードをローカルマシンにダウンロードできます。
サンプルコード:テキストコンテンツ解析サービスを呼び出すための サンプルコード を表示およびダウンロードします。

ドキュメントスライス
Open Platform for AI Search コンソールにログインします。
左側のナビゲーションウィンドウで、体験センター を選択します。
サービスカテゴリ で ドキュメント分割 (document-split) を選択し、サービス から特定のサービスを選択します。
テストデータには、システムが提供する サンプルデータ を使用するか、マイデータ を選択して独自のデータを入力し、正しいデータ形式 (TXT、HTML、または Markdown) を選択します。
説明間違ったデータ形式を選択すると、ドキュメント解析が失敗します。アップロードしたデータに基づいて正しい形式を選択してください。
セグメントの最大長さ を設定します。デフォルト値は 300、最大値は 1,024 で、単位はトークンです。
必要に応じて 文セグメントを返す を設定し、結果の取得 をクリックします。システムがサービスを呼び出してドキュメントをセグメント化します。
結果:スライスの進捗と結果を表示します。
結果のソースコード:[Response Result Code] を表示します。コードのコピー または ファイルのダウンロード をクリックして、コードをローカルマシンにダウンロードできます。
サンプルコード:ドキュメントスライスサービスを呼び出すための サンプルコード を表示およびダウンロードします。
テキスト/スパース埋め込み
Open Platform for AI Search コンソールにログインします。
左側のナビゲーションウィンドウで、体験センター を選択します。
サービスカテゴリ で テキストのベクトル化 (text-embedding) を選択し、特定の サービス を選択します。
ベクトル化の コンテンツタイプ は、ドキュメントとクエリをサポートしています。
テキストを追加 または JSON 形式で入力 を使用して、ベクトル化するテキストを追加できます。

結果の取得 をクリックして、テキストのベクトル化結果を取得します。
結果:ベクトル化の結果を表示します。

結果のソースコード:応答結果コードを表示します。[Copy Code] または [Download File] をクリックして、コードをローカルマシンにダウンロードできます。
サンプルコード:テキスト埋め込みサービスを呼び出すための サンプルコード を表示およびダウンロードします。
マルチモーダル埋め込み
Open Platform for AI Search コンソールにログインします。
左側のナビゲーションウィンドウで、体験センター を選択します。
サービスカテゴリ で マルチモーダルベクトル (multi-modal-embedding) を選択します。次に、特定の サービス を選択し、テキスト、画像、または テキスト + 画像 を選択します。
説明埋め込み用にローカル画像をアップロードすると、画像は 7 日後に自動的にパージされます。プラットフォームはデータを長期間保存しません。
結果の取得 をクリックして、マルチモーダル埋め込みの結果を取得します。
結果:ベクトル化の結果を表示します。

結果のソースコード:応答コードを表示します。コードのコピー または ファイルのダウンロード を使用して、コードをローカルマシンにダウンロードできます。
サンプルコード:テキスト埋め込みサービスを呼び出すための サンプルコード を表示およびダウンロードします。
ソートサービス
Open Platform for AI Search コンソールにログインします。
左側のナビゲーションウィンドウで、体験センター を選択します。
サービスカテゴリ で ソート (ranker) を選択し、特定の サービス を選択します。
システムが提供する サンプルデータ を使用するか、独自のデータを入力できます。
Query フィールドにテキストを入力します。

結果の取得 をクリックします。システムがソートサービスを呼び出して、クエリとドキュメントコンテンツの関連性に基づいてドキュメントをソートし、スコアリング結果を出力します。
結果:ソートとスコアリングの結果を表示します。

結果のソースコード:応答結果コードを表示します。コードのコピー または ファイルのダウンロード を使用して、コードをローカルマシンにダウンロードできます。
サンプルコード:ソートサービスを呼び出すための サンプルコード を表示およびダウンロードします。
ビデオスナップショット
Open Platform for AI Search コンソールにログインします。
左側のナビゲーションウィンドウで、体験センター を選択します。
サービスカテゴリで、ビデオスナップショット (video-snapshot) を選択します。
システムが提供する サンプルデータ を使用するか、独自のビデオデータをアップロードできます。
結果の取得 をクリックします。システムがビデオスナップショットサービスを呼び出して、ターゲットビデオからキーフレームをキャプチャします。
音声認識
Open Platform for AI Search コンソールにログインします。
左側のナビゲーションウィンドウで、体験センター を選択します。
サービスカテゴリで、音声認識 (audio-asr) を選択します。
試用には、システムが提供する サンプルデータ を使用するか、独自のオーディオデータをアップロードできます。
結果の取得 をクリックします。システムが音声認識サービスを呼び出し、ターゲットデータのオーディオコンテンツを構造化テキストに変換します。
大規模言語モデル (LLM) サービス
Open Platform for AI Search コンソールにログインします。
左側のナビゲーションウィンドウで、体験センター を選択します。
サービスカテゴリ で 大規模モデル (text-generation) を選択し、次に特定の サービス を選択します。
をクリックして オンライン検索 サービスを有効にできます。システムはユーザーのクエリに基づいてインターネット検索を実行するかどうかを判断します。質問を入力して送信します。大規模言語モデルが質問を理解し、回答を提供します。
重要生成されたすべてのコンテンツは、人工知能モデルによって生成されます。生成されたコンテンツの正確性や完全性を保証するものではありません。コンテンツは、当社の態度や意見を代表するものではありません。
大規模言語モデルの応答ページには、現在の Q&A セッションの入力および出力トークン数が表示されます。また、現在の会話を削除したり、全文をコピーしたりすることもできます。
画像コンテンツ解析
Open Platform for AI Search コンソールにログインします。
左側のナビゲーションウィンドウで、体験センター を選択します。
サービスカテゴリ で 画像分析 (image-analyze) を選択します。サービス で、画像内容理解 001 または 画像文字認識 001 を選択します。
提供されているサンプル画像を使用するか、独自の画像をアップロードできます。

結果の取得 をクリックします。システムが画像コンテンツ解析サービスを呼び出して、画像コンテンツを理解して出力するか、画像からキー情報を認識して出力します。
結果:検出結果を表示します。

結果のソースコード:応答コードを表示します。コードのコピー または ファイルのダウンロード をクリックして、コードをローカルマシンにダウンロードできます。
サンプルコード:画像コンテンツ解析サービスを呼び出すための サンプルコード を表示およびダウンロードします。
クエリ分析
Open Platform for AI Search コンソールにログインします。
左側のナビゲーションウィンドウで、体験センター を選択します。
サービスカテゴリ で クエリ分析 (query-analyze) を選択します。
Query を直接入力してクエリの意図を認識させるか、会話履歴 エリアでマルチターン対話を構築し、Query を入力します。この場合、モデルはマルチターン対話と Query を組み合わせて認識を実行します。
NL2SQL の表示 サービスをオンにし、作成した サービス設定 を選択して、自然言語クエリを SQL 文に変換します。
結果の取得 をクリックして、モデルのパフォーマンスを確認します。
結果:検出結果を表示します。

結果のソースコード:応答結果コードを表示します。コードのコピー または ファイルのダウンロード を使用して、コードをローカルマシンにダウンロードできます。
サンプルコード:クエリ分析サービスを呼び出すための Sample Code を表示およびダウンロードします。
ベクトルファインチューニング
Open Platform for AI Search コンソールにログインします。
左側のナビゲーションウィンドウで、体験センター を選択します。
サービスカテゴリ で ベクトルの次元削減 (embedding-dim-reduction) を選択します。
モデル名 (ビジネスデータでファインチューニングしたモデル) を選択し、出力ベクトル次元 を指定します。これはモデルトレーニング時に選択したベクトルフィールドの次元以下である必要があります。次に、元のベクトルを入力してください を入力します。
結果の取得 をクリックして、モデルのパフォーマンスを確認します。
次元削減モデルのトレーニング方法の詳細については、「サービスカスタマイズ」をご参照ください。
インターネット検索
インターネット検索は、以下の 2 つの方法で使用できます:
インターネット検索サービスを直接呼び出す。
LLM を使用する際にインターネット検索を有効にする。
Open Platform for AI Search コンソールにログインします。
ターゲットリージョンを選択し、AI 検索オープンプラットフォーム に切り替えます。
左側のナビゲーションウィンドウで、体験センター を選択します。
サービスカテゴリ で ネットワーク検索サービス (web-search) を選択します。
Query フィールドに「杭州で何をすべきか」などのクエリを入力すると、結果が返されます。