すべてのプロダクト
Search
ドキュメントセンター

Realtime Compute for Apache Flink:Realtime Compute (Blink) のサービスに関するお知らせ (廃止)

最終更新日:Mar 21, 2025

このトピックでは、バージョンアップデート、機能アップデート、製品アクティビティなど、Apache Flink 向け Realtime Compute のお知らせについて説明します。

Alibaba Cloud Realtime Compute (Blink) は製品統合期間に入りました。詳細については、PDF ファイルをダウンロードしてください。

Alibaba Cloud Realtime Compute (Blink) は製品統合期間に入りました。Alibaba Cloud Realtime Compute (Blink) の詳細については、サービスタイプをご参照ください。Alibaba Cloud Realtime Compute (Blink) の詳細については、Blink Exclusive Mode (Phased-Out for Alibaba Cloud) ファイルをダウンロードして詳細をご覧ください。

2022年11月15日: Blink 専用クラスターが EOM2 ステージに移行

Apache Flink 向け Realtime Compute の Blink 専用クラスターは、2022年11月15日から EOM2 ステージに移行します。EOM は販売終了の略です。EOM2 ステージでは、新規購入と既存の Blink 専用クラスターのスケーリングの注文は受け付けられず、更新注文で指定された更新期間は 4 か月を超えることはできません。これは、より包括的なサービスシステムを提供し、顧客の要件への対応に焦点を当て、Apache Flink 向け Realtime Compute の使用におけるより明確で簡素化されたエクスペリエンスを提供することを目的としています。Blink 専用クラスターに対する Alibaba Cloud サービスサポートは維持されます。ライフサイクルポリシーと Blink 専用クラスターのサービス終了 (EOS) 時点の詳細については、ライフサイクルポリシーサービスタイプをご参照ください。

Apache Flink 向け Realtime Compute は、フルマネージド Flink サービスを開始します。このサービスは、より優れた包括的なリアルタイムデータ処理機能を提供します。フルマネージド Flink を使用すると、SQL ステートメントのみを使用する代わりに、ユーザー定義関数 (UDF) や JAR などの複数の開発方法を使用できます。開発コストは増加しません。

Apache Flink 向け Realtime Compute へのサポートに感謝いたします。

2022年8月15日: Blink 共有クラスターが EOM2 ステージに移行

Apache Flink 向け Realtime Compute の Blink 共有クラスターは、2022年8月15日から EOM2 ステージに移行します。EOM2 ステージでは、新規購入と既存の Blink 共有クラスターのスケーリングの注文は受け付けられず、更新注文で指定された更新期間は 4 か月を超えることはできません。これは、より包括的なサービスシステムを提供し、顧客の要件への対応に焦点を当て、Apache Flink 向け Realtime Compute の使用におけるより明確で簡素化されたエクスペリエンスを提供することを目的としています。Blink 共有クラスターに対する Alibaba Cloud サービスサポートは維持されます。ライフサイクルポリシーと Blink 共有クラスターの EOS 時点の詳細については、ライフサイクルポリシーサービスタイプをご参照ください。

Apache Flink 向け Realtime Compute は、フルマネージド Flink サービスを開始します。このサービスは、より優れた包括的なリアルタイムデータ処理機能を提供します。フルマネージド Flink を使用すると、SQL ステートメントのみを使用する代わりに、UDF や JAR などの複数の開発方法を使用できます。開発コストは増加しません。

Apache Flink 向け Realtime Compute へのサポートに感謝いたします。

2021年4月28日: 専用モードの Apache Flink 向け Realtime Compute は利用できなくなりました

2021年4月28日から、排他モードのRealtime Compute for Apache Flinkは利用できなくなりました。排他モードのRealtime Compute for Apache Flinkの既存プロジェクトは、スケールアウト、スケールイン、または更新のみ可能です。フルマネージド Flink をご購入いただくことをお勧めします。

Apache RocketMQ 向け Message Queue のエンドポイント変更による Apache Flink ジョブ向け Realtime Compute のバージョンアップデートに関するお知らせ

  • アップデートのお知らせ

    リージョンベースのエンドポイントは、Message Queue for Apache RocketMQへのアクセスに使用されます。詳細については、「プライベートTCPエンドポイントの設定に関するお知らせ」をご参照ください。Blink 3.7.10より前のバージョンのRealtime Compute for Apache FlinkでMessage Queue for Apache RocketMQコネクタを使用している場合は、Realtime Compute for Apache FlinkジョブのバージョンをBlink 3.7.10以降に更新し、ジョブで指定したエンドポイントをMessage Queue for Apache RocketMQの新しいエンドポイントに変更する必要があります。エンドポイントの詳細については、以下のトピックをご参照ください。

  • 使用上の注意

    • Apache RocketMQ 向け Message Queue の古いエンドポイントは、2021年11月から使用できなくなります。引き続き古いエンドポイントを使用すると、ジョブの安定性に影響を与える可能性があります。この問題を防ぐために、2021年11月より前に Apache Flink ジョブ向け Realtime Compute のバージョンをアップデートすることをお勧めします。

    • Apache RocketMQ 向け Message Queue の製品チームは、2021年11月より前に Apache RocketMQ 向け Message Queue の古いエンドポイントが有効なままであることを保証します。ただし、古いエンドポイントを使用するジョブの安定性に影響を与える可能性があります。

    • このアップデートにより、ジョブの状態が変更される可能性があります。アップデートがビジネスに与える影響を最小限に抑えるために、ビジネス要件に基づいて適切な時期にジョブのバージョンをアップデートすることをお勧めします。

    • 2021年11月1日以降、Apache Flink 向け Realtime Compute の製品チームは、Apache RocketMQ 向け Message Queue の古いエンドポイントを使用するジョブの保守とサポートを停止します。

2020年8月10日21:00から2020年8月11日02:00まで: Apache Flink 向け Realtime Compute がアップデートされます

中国 (杭州) リージョンの専用モードの Apache Flink 向け Realtime Compute がアップデートされます。アップデート中はサービスは中断されませんが、クラスターの作成、クラスターのスケールインまたはスケールアウトはできません。

2020年4月28日21:00から2020年4月29日02:00まで: Apache Flink 向け Realtime Compute がアップデートされます

中国 (上海) リージョンの専用モードの Apache Flink 向け Realtime Compute がアップデートされます。アップデート中はサービスは中断されませんが、クラスターのスケールインまたはスケールアウトはできません。

2020年4月20日から2020年4月22日まで: ストレージサービスがアップデートされます

中国 (上海) および中国 (深圳) リージョンの共有モードの Apache Flink 向け Realtime Compute のストレージサービスがアップデートされます。このアップデートにより、Apache Flink 向け Realtime Compute の安定性が向上します。ほとんどの場合、このアップデートはサービスに影響を与えません。特別な状況では、アップデート中に Blink 3.2 および Blink 3.3 のジョブが失敗し、その後正常に復元されます。

2019年8月27日: [構成] タブが追加されました

Realtime Compute for Apache Flink コンソールの [開発] ページの右側に [構成] タブが追加されました。リソース構成へのリンクは [基本プロパティ] タブから削除されました。

2019年5月30日: V3.0.0 以降の Apache Flink バージョン向け Realtime Compute の新機能がリリースされました

  • 概要

    頂点情報を照会できます。詳細については、「概要」をご参照ください。

  • メトリクス

    自動スケーリングメトリックを表示する曲線チャートが追加されました。詳細については、「メトリック」をご参照ください。

  • タイムライン

    [タイムライン] タブが [管理] ページに追加されました。詳細については、「タイムライン」をご参照ください。

  • プロパティとパラメーター

    自動スケーリングの反復に関する詳細をクエリできます。詳細については、「プロパティとパラメーター」をご参照ください。

2019年1月24日: Blink 2.2.7 がリリースされました

すべての Blink 2.X バージョンの中で、Blink 2.2.7 は最新の安定バージョンです。Blink 1.X バージョンと比較して、Blink 2.2.7 には大幅な改善が加えられています。すべての Blink 1.X バージョンの中で、Blink 1.6.4 は最新の安定バージョンです。Blink 2.2.7 は、新世代の Niagara をステートバックエンドプラットフォームのデータストレージシステムとして使用しています。Blink 2.2.7 は SQL パフォーマンスも最適化し、幅広い新機能を導入しています。

  • 機能

    • SQL

      • ウィンドウの EMIT ステートメントをサポートしています。EMIT ステートメントは、出力ポリシーを定義するために使用されます。たとえば、1 時間のウィンドウで毎分最新のストリーム処理結果を表示できます。

      • 2 つのストリームを結合するための miniBatch をサポートしています。Blink 2.2.7 は、リトラクションメカニズムとステートデータストレージ構造を最適化してパフォーマンスを向上させています。

      • 集計でのデータフィルタリングをサポートしています。指定されたフィルター条件を満たす行を集計できます。

      • ローカルグローバル集計を最適化しています。

      • 最適化ステージで SQL コードを再構築します。これにより、コードのコンパイル時間が短縮されます。

      • SortedMapView のキーで、BOOLEAN、BYTE、SHORT、INT、LONG、FLOAT、DOUBLE、BIGDECIMAL、BIGINT、BYTE[]、STRING などの複数のデータ型をサポートできるようにします。

      • MIN、MAX、FIRST、または LAST 関数にリトラクションが関係するシナリオでのパフォーマンスを最適化しています。

      • タイムゾーンに関連する TO_TIMESTAMP_TZ、DATE_FORMAT_TZ、CONVERT_TZ などの複数のスカラー関数を追加します。

      • SQL とコネクターのエラーメッセージを異なるタイプに分類し、各タイプのエラーメッセージにエラーコードを提供します。

    • コネクター

      • カスタム TableFactory を使用して、ソーステーブルと結果テーブルのコネクターを登録できます。

      • ユーザー定義のテーブル値関数 (UDTF) を使用して、データソースタイプを解析できます。

      • Kafka からデータを読み書きできます。

      • Elasticsearch にデータを書き込むことができます。

    • ランタイム

      • Blink セッションを使用して、ジョブの送信やジョブ実行結果の取得などの動作を合理化します。

      • プラグインスケジューリングメカニズムをサポートしています。このメカニズムに基づいて、コンピューティングモデルはビジネス要件に合わせてスケジューリングロジックをカスタマイズできます。

      • フェイルオーバーによってトリガーされる再起動ポリシーを最適化しています。スロットリングのシナリオでは、失敗したジョブのすべてのタスクを再起動する代わりに、復旧に必要なタスクのみを再起動できます。この最適化により、JobManager とタスクフェイルオーバー処理の効率が向上します。

    • StateBackend

      • RocksDBStateBackend を NiagaraStateBackend に置き換えて、読み取り/書き込みパフォーマンスを向上させます。

      • (実験的) NiagaraStateBackend は、コンピューティングとストレージを分離します。このステートバックエンドは、フェイルオーバーが発生した場合に、数秒でステートデータを復元するのに役立ちます。

  • Blink 1.6.4 と互換性のない項目

    機能

    影響

    解決策

    TableFunction インターフェースの変更

    この変更は、UDTF を使用するユーザーに影響します。

    getResultType インターフェースを実装するようにコードをアップデートします。

    ScalarFunction インターフェースの変更

    この変更は、ユーザー定義スカラー関数を使用するユーザーに影響します。

    getResultType インターフェースを実装します。

    AggregateFunction インターフェースの変更

    この変更は、ユーザー定義集計関数 (UDAF) を使用するユーザーに影響します。

    getAccumulatorType インターフェースと getResultType インターフェースを実装します。たとえば、アキュムレーターが Row(STRING, LONG) タイプで、Agg 結果が STRING タイプの場合は、次のコードを使用します。

    public DataType getAccumulatorType\(\) { return
                  DataTypes.createRowType\(DataTypes.String, DataTypes.LONG\); } public DataType
                  getResultType\(\) { return DataTypes.String; }

    MapView コンストラクターの変更

    データ型を示すパラメーターが TypeInformation から DataType に変更されました。この変更は、UDAF で MapView を宣言するジョブに影響します。

    コードをアップデートし、DataType パラメーターを使用して MapView を作成します。たとえば、変更前はコードは MapView map = new MapView<>(Types.STRING, Types.INT); です。変更後はコードは MapView map = new MapView<>(DataTypes.STRING, DataTypes.INT); です。

    入力パラメーターが LONG または INT タイプの場合、AVG 関数と除算関数が返す値のタイプが DOUBLE に変更されます

    変更前は、AVG 関数と除算関数は入力パラメーターと同じタイプのデータを返していました。変更後は、戻りデータのデータ型は DOUBLE です。これにより、型の不一致エラーが発生する可能性があります。たとえば、AVG 関数または除算関数が返したデータが結果テーブルに書き込まれると、エラーが発生する可能性があります。これは、結果テーブルのデータのタイプがクエリフィールドのデータ型と異なるためです。

    CAST 関数を追加して、AVG 関数と除算関数が返したデータに対して明示的な変換を実行します。

    BIGDECIMAL タイプのデータと DECIMAL タイプのデータを比較する際に精度が考慮されます

    DECIMAL データ型を使用するジョブでは、型の不一致エラーが発生する可能性があります。これは、実際のデータのデータ型が BIGDECIMAL であるためです。

    ジョブコードで DECIMAL データ型を宣言する際に精度を指定します: Decimal(38, 18)

    null 値と文字列を比較するために使用されるセマンティクス

    Blink 1.X バージョンでは、文字列が null の場合、SQL ステートメントは true を返します。Blink 2.X バージョンでは、SQL 構文とセマンティクスに準拠するために、SQL ステートメントは false を返します。

    この変更は、null 値と文字列の比較が関係するシナリオでの処理に影響します。たとえば、SPLIT_INDEX(shop_list, ':', 1) in the WHERE SPLIT_INDEX(shop_list, ':', 1) <> shop_id 句が null を返す場合、WHERE 句は Blink 1.X バージョンでは true を返し、Blink 2.X バージョンでは false を返します。これにより、データフィルタリングが容易になります。

  • Blink 2.X へのアップデート

    ジョブの Blink 1.X バージョンを Blink 2.X バージョンにアップデートするには、ジョブを再起動する際に開始オフセットをリセットして、ビジネス要件を満たす必要があります。

    1. ジョブを終了します。ジョブが終了すると、ステートデータはクリアされます。

    2. [開発] ページの右下隅にある [Flink バージョン] ドロップダウンリストから Blink 2.2.7 を選択します。次に、ジョブを公開します。Flinkバージョン

    3. [管理] ページでジョブを開始し、開始オフセットを指定します。

      手順 3 が失敗した場合は、次の手順を実行してトラブルシューティングを行います。

      • SQL コードを確認して修正し、手順 1 から 3 を繰り返します。

      • SQL コードを修正できない場合は、Blink バージョンを元のバージョンにロールバックします。

      • JSON プランを生成できない場合は、次のパラメーターを指定します。

        • blink.job.option.jmMemMB=4096

        • blink.job.submit.timeoutInSeconds=600

    Blink 2.0.1 のユーザー定義拡張機能 (UDX) 用 JAR パッケージについては、[概要] をご参照ください。UDX JAR パッケージのバージョンが必要なバージョンより古い場合、またはパッケージの競合が発生した場合、次のエラーが発生する可能性があります。

    code:[30016], brief info:[get app plan failed], context info:[detail:[java.lang.NoClassDefFoundError: org/apache/flink/table/functions/aggfunctions/DoubleSumWithRetractAggFunction
    at java.lang.ClassLoader.defineClass1(Native Method)
    at java.lang.ClassLoader.defineClass(ClassLoader.java:788)
    at java.security.SecureClassLoader.defineClass(SecureClassLoader.java:142)
    at java.net.URLClassLoader.defineClass(URLClassLoader.java:467)
    at java.net.URLClassLoader.access$100(URLClassLoader.java:73)