すべてのプロダクト
Search
ドキュメントセンター

Hologres:AI モデルとデプロイメントガイド

最終更新日:Oct 15, 2025

Hologres は、多様な AI アプリケーション向けにさまざまな組み込み AI モデルを提供しています。ビジネスニーズに基づいて、Hologres コンソールからこれらのモデルをデプロイできます。このドキュメントでは、利用可能な AI モデルとそれらをデプロイする方法について説明します。

サポートされているモデル

これらの組み込みモデルには、Hologres V3.2 以降のバージョンが必要です。

モデル名

カテゴリ

単一レプリカデプロイメントに推奨される最小 vCPU 数

単一レプリカデプロイメントに推奨される最小メモリ (GB)

単一レプリカデプロイメントに推奨される最小 GPU 数

単一レプリカデプロイメントに推奨される最小 GPU メモリ (GB)

必要なインスタンスバージョン

ds4sd/docling-models

PDF 変換モデル

20

100

1 以上

48

V4.0 以降

なし

Qwen/Qwen2.5-VL-3B-Instruct

マルチモーダルモデル

7

24

1 以上

24

V4.0 以降

なし

Qwen/Qwen2.5-VL-7B-Instruct

マルチモーダルモデル

7

30

1 以上

48

V4.0 以降

なし

Qwen/Qwen2.5-VL-32B-Instruct

マルチモーダルモデル

7

30

1 以上

96

V4.0 以降

なし

clip-ViT-B-32

画像埋め込みモデル

7

24

1

24

V4.0 以降

  • イメージパッチサイズ: 32×32

  • パラメーター: 88 M

  • 出力ベクターディメンション: 512

clip-ViT-B-32-multilingual-v1

画像用の多言語埋め込みモデル

7

24

1

24

V4.0 以降

  • イメージパッチサイズ: 32×32

  • パラメーター: 88 M

  • 出力ベクターディメンション: 512

clip-ViT-B-16

画像埋め込みモデル

7

24

1

24

V4.0 以降

  • イメージパッチサイズ: 16×16

  • パラメーター: 88 M

  • 出力ベクターディメンション: 512

clip-ViT-L-14

画像埋め込みモデル

7

24

1

24

V4.0 以降

  • イメージパッチサイズ: 14×14

  • パラメーター: 304 M

  • 出力ベクターディメンション: 768

Qwen/Qwen3-1.7B

LLM

7

30

1 以上

8

V3.2 以降

なし

Qwen/Qwen3-4B

LLM

7

30

1 以上

16

V3.2 以降

なし

Qwen/Qwen3-8B

LLM

7

30

1 以上

32

V3.2 以降

なし

Qwen/Qwen3-14B

LLM

7

30

1 以上

48

V3.2 以降

なし

Qwen/Qwen3-32B

LLM

7

30

1 以上

96

V3.2 以降

なし

iic/nlp_structbert_sentiment-classification_chinese-base

感情分類

7

30

1

4

V3.2 以降

なし

iic/nlp_gte_sentence-embedding_chinese-base

テキスト埋め込みモデル

7

30

1

12

V3.2 以降

出力ベクターディメンション: 768

iic/nlp_gte_sentence-embedding_chinese-large

テキスト埋め込みモデル

7

30

1

16

V3.2 以降

出力ベクターディメンション: 1024

iic/nlp_gte_sentence-embedding_chinese-small

テキスト埋め込みモデル

7

30

1

8

V3.2 以降

出力ベクターディメンション: 512

Qwen/Qwen3-Embedding-0.6B

テキスト埋め込みモデル

7

30

1

8

V3.2 以降

なし

Qwen/Qwen3-Embedding-4B

テキスト埋め込みモデル

7

30

1

32

V3.2 以降

なし

Qwen/Qwen3-Embedding-8B

テキスト埋め込みモデル

7

30

1

48

V3.2 以降

なし

recursive-character-text-splitter

テキストチャンキング

15

30

0

0

V3.2 以降

必要に応じて CPU 仕様を選択します。GPU 数の設定は不要です。

BAAI/bge-base-en-v1.5

長文テキスト埋め込み

7

30

1

12

V3.2 以降

出力ベクターディメンション: 768

BAAI/bge-base-zh-v1.5

長文テキスト埋め込み

7

30

1

12

V3.2 以降

出力ベクターディメンション: 768

BAAI/bge-large-en-v1.5

長文テキスト埋め込み

7

30

1

16

V3.2 以降

出力ベクターディメンション: 1024

BAAI/bge-large-zh-v1.5

長文テキスト埋め込み

7

30

1

16

V3.2 以降

出力ベクターディメンション: 1024

BAAI/bge-small-en-v1.5

長文テキスト埋め込み

7

30

1

8

V3.2 以降

出力ベクターディメンション: 384

BAAI/bge-small-zh-v1.5

長文テキスト埋め込み

7

30

1

8

V3.2 以降

出力ベクターディメンション: 512

前提条件

AI リソースを購入済みです。

  • 上記のリストからモデルを選択してデプロイします。各モデルには、指定された最小 AI リソースが必要です。

  • 購入したクォータを超えない限り、1 つのインスタンスに複数のモデルをデプロイできます。リソースが不足している場合は、スケールアップしてください。

  • プライマリ/セカンダリインスタンスの場合: モデルのデプロイメントと管理 (リソースの変更、削除) はプライマリインスタンス専用です。セカンダリインスタンスは、プライマリインスタンスのモデルを表示し、AI 関数を介して呼び出すことができます。

モデルのデプロイ

  1. Hologres コンソールにログオンし、リージョンを選択します。

  2. 左側のナビゲーションメニューで、[インスタンス] をクリックします。次に、ターゲットインスタンス ID をクリックします。

  3. [インスタンス詳細] ページで、[AI ノード] をクリックします。

  4. [モデル] セクションで、[モデルのデプロイ] をクリックします。

  5. [モデルのデプロイ] ダイアログボックスで、[モデル名][モデルタイプ] を設定します。

    [リソース構成] のパラメーターは、選択した [モデルタイプ] に基づいて自動的に入力されます。

  6. 構成が完了したら、[OK] をクリックしてモデルをデプロイします。

    [モデル] セクションで、デプロイメントステータスを表示し、次の操作を実行します:

    • モデル構成の調整: ターゲットモデルの [アクション] 列で、[構成の調整] をクリックします。

    • モデルの削除: ターゲットモデルの [アクション] 列で、[削除] をクリックします。

      説明

      Hologres は、モデルを削除する際に依存サービスをチェックしません。サービスのダウンタイムを防ぐために、細心の注意を払ってください。

次のステップ

モデルをデプロイした後、AI 関数を介して呼び出すことができます。詳細については、「AI 関数」をご参照ください。