このトピックでは、Realtime Compute for Apache Flink のリリースノートについて説明し、関連リファレンスへのリンクを提供します。リリースノートでは、2024 年 1 月 4 日にリリースされたバージョンの Realtime Compute for Apache Flink の主な更新とバグ修正について説明します。
カナリアリリースは、アップグレードのためにネットワーク全体で段階的に完了します。アップグレード計画については、Realtime Compute for Apache Flink コンソールのホームページの右側にある最新のお知らせをご覧ください。フルマネージド Flink で新機能を使用できない場合は、新しいバージョンがまだアカウントで利用できません。できるだけ早くアップグレードを実行する場合は、[チケットの送信] を適用してアップグレードを申請してください。
概要
Realtime Compute for Apache Flink の Ververica Runtime (VVR) の新しいエンジンバージョン 8.0.5 が 2024 年 1 月 4 日に正式にリリースされました。このバージョンには、コネクタの更新、パフォーマンスの最適化、および不具合の修正が含まれています。
このバージョンは、Apache Flink 1.17.2 に基づくエンタープライズレベルの Flink エンジンです。このバージョンでは、次の機能が更新または追加されています。指定されたオフセットまたはタイムスタンプで MySQL Change Data Capture (CDC) ソーステーブルからデータを読み取る速度が向上しました。MongoDB コネクタをソーステーブルに使用する場合、MongoDB コネクタはテーブルスキーマの変更の同期をサポートします。MongoDB コネクタは、ディメンションテーブルに使用できます。Java Database Connectivity (JDBC) コネクタは、JSONB および UUID 拡張型のデータをサポートします。StarRocks 結果テーブルは、JSON 型のデータをサポートします。Hologres コネクタが JDBC モードを使用する場合、バッチデータ処理中に重複排除を無効にすることができます。これにより、スループットが最適化されるときにデータの整合性が確保されます。PolarDB for Oracle 1.0 コネクタを使用して、PolarDB for PostgreSQL (Oracle 互換) にデータを書き込むことができます。Apache Flink 1.17.2 に存在する複数の不具合 (Apache Flink コミュニティの修正済みの不具合を含む) が修正されました。システムの安定性と信頼性を向上させるために、エンジン関連の問題も解決されています。
カナリアリリースは、ネットワーク全体で段階的に完了します。カナリアリリースが完了したら、デプロイで使用されているエンジンを新しいバージョンにアップグレードできます。詳細については、「デプロイのエンジンバージョンをアップグレードする」をご参照ください。皆様からのフィードバックをお待ちしております。
機能
機能 | 説明 | リファレンス |
指定された開始オフセットまたはタイムスタンプで MySQL CDC ソーステーブルからデータを読み取る速度の向上 | 開始オフセットまたはタイムスタンプを指定して、MySQL CDC ソーステーブルからデータを読み取ることができます。このようにして、データの読み取りを開始する位置をすばやく特定できます。これにより、データの読み取り速度が向上します。 | |
ソーステーブルに使用される MongoDB コネクタでサポートされるテーブルスキーマの変更の同期と列の自動追加 | MongoDB コネクタをソーステーブルに使用する場合、CREATE TABLE AS または CREATE DATABASE AS ステートメントを実行して、ソーステーブルから結果テーブルへのスキーマの変更を同期し、結果テーブルに列を自動的に追加できます。 | |
ディメンションテーブルに使用される MongoDB コネクタ | MongoDB コネクタをディメンションテーブルに使用して、結合クエリを実行できます。 | |
MongoDB カタログのサポート | MongoDB カタログを使用してメタデータを登録した後、コレクションのスキーマを推測できます。このようにして、SQL コードを記述するときに DDL ステートメントを使用して MongoDB ソーステーブルを作成する必要はありません。 | |
JDBC コネクタでサポートされるデータ型の増加 | JSONB および UUID 拡張型のデータは、JDBC コネクタでサポートされています。 | |
Hologres コネクタでサポートされる SSL 暗号化伝送、バルクロードモードでのデータ書き込み、およびバッチデータ処理中の重複排除 |
| |
jdbcBinlogSlotName パラメーターの構成の削除 | Hologres V2.1 以降では、jdbcBinlogSlotName パラメーターを構成する必要はありません。このパラメーターは、JDBC モードでのバイナリログソーステーブルのスロット名を指定します。 | |
PolarDB for Oracle 1.0 コネクタの追加 | PolarDB for Oracle 1.0 コネクタを使用して、PolarDB for PostgreSQL (Oracle 互換) にデータを書き込むことができます。 | |
StarRocks コネクタでサポートされるデータ型の増加 | JSON 型のデータは、StarRocks 結果テーブルでサポートされています。 | なし |
ApsaraMQ for RocketMQ 結果テーブルでサポートされる partitionField パラメーター | ApsaraMQ for RocketMQ 結果テーブルの partitionField パラメーターを構成して、パーティションキー列として使用されるフィールド名を指定できます。結果テーブルにデータが書き込まれると、列の値に基づいてハッシュ値が計算されます。同じハッシュ値を持つデータは、テーブルの同じパーティションに書き込まれます。 | |
Elasticsearch コネクタでサポートされる Elasticsearch V8.X および TEXT データ型のフィールドの .keyword サフィックスの無視 |
| |
MySQL コネクタで無視される NULL 値 | データ更新中に MySQL 結果テーブルに書き込まれるデータの NULL 値は無視できます。 |