すべてのプロダクト
Search
ドキュメントセンター

Realtime Compute for Apache Flink:モデル設定

最終更新日:Nov 06, 2025

このトピックでは、AI モデルの登録、表示、変更、および削除を行うためのデータ定義言語(DDL)文について説明します。

使用上の注意

  • このシステムは、Alibaba Cloud Model StudioPlatform for AI、および OpenAI 互換インターフェイスを持つその他の大規模モデルサービスをサポートしています。

  • Platform for AI にデプロイされた大規模モデルサービスは、リアルタイムコンピューティング Flink サービスと同じリージョンにある必要があります。

  • Ververica Runtime (VVR) 11.1 以降のみがサポートされています。

CREATE MODEL

モデルを登録する

スクリプトを作成し、SQL エディターで CREATE TABLE コマンドを入力します。構文:

CREATE [TEMPORARY] MODEL [catalog_name.][db_name.]model_name
INPUT ( { <physical_column_definition> [, ...n] )
OUTPUT ( { <physical_column_definition> [, ...n] )
WITH (key1=val1, key2=val2, ...)

<physical_column_definition>:
  column_name column_type [COMMENT column_comment]

説明

主なパラメーター

スキーマ要件

INPUT

入力データのフィールド、フィールド タイプ、およびフィールドの順序を定義します。

  • column_name

  • column_type

  • COMMENT

STRING フィールドが 1 つだけ必要です。

INPUT (`input_text` STRING COMMENT 'ユーザー コメント')

OUTPUT

出力データのフィールド、フィールド タイプ、およびフィールドの順序を定義します。

  • column_name

  • column_type

  • COMMENT

さまざまなタスク タイプの制約:

  • chat/completions: STRING フィールドが 1 つだけ必要です。

  • embeddings: ARRAY<FLOAT> フィールドが 1 つだけ必要です。

OUTPUT (`sentiment_label` STRING COMMENT 'センチメント ラベル')

WITH

詳細については、「パラメーター」をご参照ください。

  • provider

  • endpoint

  • apiKey

  • model

なし。

WITH ('provider'='bailian', 'endpoint'='${ENDPOINT}', 'model'='qwen-turbo', 'apiKey'='${KEY}')

Alibaba Cloud Model Studio

CREATE MODEL model_bailian
INPUT (`input` STRING)
OUTPUT (`content` STRING)
WITH (
  'provider'='bailian',
  'endpoint'='<Endpoint>',
  'api-key'='<bailian-key>',
  'model'='qwen3-235b-a22b'
);

Alibaba Cloud Model Studio のエンドポイントフォーマット: <base-url>/compatible-mode/v1/<task>。例: https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions

PAI

CREATE MODEL model_pai
INPUT (`input` STRING)
OUTPUT (`embedding` ARRAY<FLOAT>) 
WITH (
  'provider'='bailian',
  'endpoint'='<vpc_endpoint>',
  'api-key'='<Token>',
  'model'='qwen3-235b-a22b'
);

VPC エンドポイントと API キーを取得するには、「DeepSeek-V3 および DeepSeek-R1 モデルのワンクリックデプロイメント」をご参照ください。

  1. PAI コンソールにログインします。

  2. 左側のナビゲーションウィンドウで、[モデルギャラリー] > [ジョブ管理] > [デプロイメントジョブ] を選択し、対応するタスク名をクリックします。

  3. [呼び出し情報の表示] をクリックします。

    重要
    • VPC 呼び出しアドレスは http を使用しているため、https に変更する必要があります。アドレスの末尾に /v1/<task> を追加する必要があります。task: モデルのタスクタイプ。次の値がサポートされています:

      例: https://************.vpc.cn-hangzhou.pai-eas.aliyuncs.com/api/predict/quickstart_deploy_20250722_7b22/v1/chat/completions

    • Tokenapi-key パラメーターの値です。

パラメーター

一般

パラメーター

説明

データ型

必須

デフォルト値

注意

provider

モデルサービスプロバイダー。

文字列

はい

デフォルト値なし

常に bailian に設定します。

endpoint

Alibaba Cloud Model Studio、またはチャット、補完、埋め込み用の OpenAI API 互換性を提供するその他のサービスの API エンドポイント。

文字列

はい

デフォルト値なし

  • Alibaba Cloud Model Studio および PAI のエンドポイントについては、「」をご参照ください。

  • その他のサービスについては、サービスの API ドキュメントをご参照ください。

api-key

Alibaba Cloud Model Studio API へのアクセスに使用する API キー。

文字列

はい

デフォルト値なし

詳細については、「API キーの取得」をご参照ください。

VVR 11.1 では、パラメーターは apiKey です。

max-context-size

1 つのリクエストにおける最大コンテキスト長。

整数

いいえ

デフォルト値なし

  • このパラメーターは VVR 11.2 以降でサポートされています。

  • この制限を超えるコンテキストウィンドウは、context-overflow-action で定義された動作をトリガーします。

context-overflow-action

コンテキストがコンテキスト長の制限を超えた場合の処理方法を指定します。

文字列

いいえ

truncated-tail

このパラメーターは VVR 11.2 以降のバージョンでサポートされています。

有効な値:

  • truncated-tail: max-context-size に収まるようにコンテキストを末尾から切り捨てます。切り捨てはログに記録されません。

  • truncated-tail-log: max-context-size に収まるようにコンテキストを末尾から切り捨て、切り捨てをログに記録します。

  • truncated-head: max-context-size に収まるようにコンテキストを先頭から切り捨てます。切り捨てはログに記録されません。

  • truncated-head-log: max-context-size に収まるようにコンテキストを先頭から切り捨て、切り捨てをログに記録します。

  • skipped: ログに記録せずにデータを中止します。

  • skipped-log: データを中止し、ログに記録します。

chat/completions

chat/completions モデルタスクは、次のパラメーターに依存します:

パラメーター

説明

データ型

必須

デフォルト値

注意

model

呼び出すモデル。

文字列

はい

デフォルト値なし

テキスト生成モデルをサポートします。

説明

選択した LLM と入力および出力トークンの数に基づいて課金されます。

system-prompt

応答をリクエストする際のシステム プロンプト。

文字列

はい

"You are a helpful assistant."

VVR 11.1 でのパラメーター名: systemPrompt

temperature

モデル出力のランダム性を制御します。

浮動

いいえ

デフォルト値なし

有効値の範囲: [0, 2)。: 値 0 は意味がないため、推奨されません。

温度が高いほど、確率の低いトークンが選択される可能性が高くなります。温度が低いほど、モデルが確率の高いトークンを選択する可能性が高くなります。

top-p

サンプリング対象となるトークンの累積確率を指定します。

浮動

いいえ

デフォルト値なし

値が大きいほど、生成されるコンテンツのランダム性が高くなります。

VVR 11.1 でのパラメーター名: topP

stop

停止シーケンス。

文字列

いいえ

デフォルト値なし

指定された文字列が表示された後、モデルはテキストの生成を停止します。

max-tokens

生成されるテキストの最大長を指定します。

整数

いいえ

デフォルト値なし

VVR 11.1 でのパラメーター名: maxTokens

embeddings

Embeddings モデルタスクは、次のパラメーターに依存します:

パラメーター

説明

データ型

必須

デフォルト値

注意

model

呼び出すモデル。

文字列

はい

デフォルト値なし

テキスト埋め込みモデルをサポートします。

説明

選択した LLM と入力および出力トークンの数に基づいて課金されます。

dimension

出力ベクターの次元を制御します。

整数

いいえ

1024

有効な値: 1024、768、512。他の値を使用するとエラーになります。

モデルの表示

スクリプトを作成し、SQL エディターでクエリを入力します。

  • 登録済みモデルの名前を表示します。

    SHOW MODELS [ ( FROM | IN ) [catalog_name.]database_name ];
  • モデルの登録に使用された文を表示します。

    SHOW CREATE MODEL [catalog_name.][db_name.]model_name;
  • モデルの入力および出力スキーマを表示します。

    DESCRIBE MODEL [catalog_name.][db_name.]model_name;

SHOW MODELS;

-- 結果
--+------------+
--| model name |
--+------------+
--|          m |
--+------------+

DESCRIBE MODEL m;

-- 結果
-- +---------+--------+------+----------+
-- |    name |   type | null | is input |
-- +---------+--------+------+----------+
-- | content | STRING | TRUE |     TRUE |
-- |   label | BIGINT | TRUE |    FALSE |
-- +---------+--------+------+----------+

モデルの変更

スクリプトを作成し、SQL エディターでクエリを入力します。

ALTER MODEL [IF EXISTS] [catalog_name.][db_name.]model_name {
  RENAME TO new_table_name
  SET (key1=val1, ...)
  RESET (key1, ...)
}

  • 登録されたモデルの名前を変更します。

    ALTER MODEL m RENAME TO m1; -- m1 に名前を変更します。
  • モデルのパラメーターを変更します。

    ALTER MODEL m SET ('endpoint' = '<Your_Endpoint>'); -- エンドポイントパスを調整します。
  • モデルのパラメーターをデフォルト値にリセットします。

    ALTER MODEL m RESET ('endpoint'); -- エンドポイント パスをリセットします。

モデルの削除

スクリプトを作成し、SQL エディターでクエリを入力します。

DROP [TEMPORARY] MODEL [IF EXISTS] [catalog_name.][db_name.]model_name

DROP MODEL m;