本文介绍2026年04月09日发布的实时计算Flink版的重大功能变更和主要缺陷修复。
概述
2026年4月9日正式对外发布实时计算 Flink 版新引擎版本 VVR 11.6.0。本次升级重点增强了 AI Function 多模态处理能力,支持图片、PDF 等非结构化数据的实时推理与清洗;同时引入 Variant 类型及相关函数,大幅提升半结构化数据的处理效率。数据摄入(CDC YAML)能力全面升级,支持多列合并入湖、分区追加写入、主键清除等复杂场景,并正式结束公测。连接器方面,新增 Elasticsearch 8.x 源表与维表支持、PolarDB-X CDC Source、OceanBase 旁路导入优化等多项特性,并对 MySQL CDC、Kafka、Hologres 等核心连接器进行了稳定性与易用性改进。此外,本版本包含了 Apache Flink 1.20.2/3 社区相关缺陷修复。
引擎侧
持续增强 AI 推理、数据类型与可观测性能力,为实时数据处理和智能分析提供更完善的基础支撑。
AI Function 多模态能力
SQL 增强
Variant 类型支持:新增 Variant 类型及字段访问语法(
variant.field、variant['key']),支持与基础类型相互转换,并在 Paimon Sink 中支持写入 Variant 数据。新增内置函数:数据摄入 Transform 中支持 MD5 等哈希函数;CDC YAML 新增
parse_json函数,可将 JSON 字符串转换为 Variant 类型。
数据摄入(CDC YAML)
数据摄入功能整体结束公测,正式对外开放。
Paimon、StarRocks、Hologres、MySQL、Kafka YAML Connector 结束公测;
Doris、OceanBase、MaxCompute、SLS、MongoDB、Postgres、Fluss YAML Connector 进入公测。
多列合并入湖:支持将上游 JSON 中因大小写或命名差异产生的多个字段合并为目标列,提供正则匹配、大小写归一、自定义映射等规则。
分区追加写入:Paimon Sink 支持写入无主键分区表(Append-Only 场景),不再强制将分区键加入主键。
Transform 增强:
支持完全清除 PrimaryKey 或 PartitionKey(传入空值即可)。
支持通过正则表达式设定复杂表名路由逻辑。
Variant 全链路:CDC YAML 支持 Variant 类型字段访问、类型转换,并写入 Paimon。
Source 能力扩展:
新增
polardbx-cdcSource,支持多并发订阅 Binlog 及按表维度订阅。SLS Source 支持强制指定字段解析类型。
Kafka Source 支持将一条消息按字段拆分为多条记录写入不同目标表(字段路由),并支持自定义 Partitioner。
Sink 能力扩展:
Paimon Sink 支持单独配置 commit 节点的并发度。
MaxCompute Sink 支持 DATETIME 类型映射,并优化 Commit 逻辑降低 QPS 消耗。
Iceberg Sink 支持内置 Catalog 引用与连接信息自动获取(如 URL、账号密码),实现配置复用。
连接器
Kafka:
Sink 端支持 Debezium JSON 格式写入三段式 Table ID(Database.Schema.Table)。
修复更换 Topic 后有状态重启同时消费新旧两个 Topic 的问题,现会抛出状态不兼容异常。
MySQL CDC:
优化 GTID 过期报错信息,明确提示根因。
日志中增加消费者 Server ID 展示,便于问题排查。
PolarDB-X:正式支持作为 CDC YAML Source(公测)。
OceanBase:重构 JDBC Sink 写入逻辑,支持手动事务回滚、连接池复用,修复
wait_timeout导致的断连问题。Elasticsearch:源表、维表正式支持 8.x 版本(兼容 ES7 客户端)。
Doris:优化端口配置错误时的报错信息。
湖仓集成
Iceberg:
Sink 端新增
numRecordsOutOfSinkPerSecond(OUT RPS)指标上报。支持配置 Hadoop 相关参数,提升连接灵活性。
数据摄入作业支持写入 DLF Iceberg。
Hologres:
Binlog 源表支持从
LATESToffset 消费。Connector Catalog 支持二级索引、Prefix Scan Key 等索引信息。
支持读取
varchar[]数组类型。优化探测参数缓存,避免表数量多时初始化超时。
支持
sink.reshuffle-by-holo-distribution-key.enabled配置下并发度大于 Shard 数。
MaxCompute:
Catalog 支持分页查询,解决元数据中心卡顿问题。
YAML Sink 优化 Commit 逻辑,减少 QPS 超限导致的 OOM。
Hive:Catalog 建表时支持指定存储格式(如 Parquet)。
Paimon:支持 Lance 文件格式。
可观测性
新增本地磁盘用量指标(
geminiDB.disk_space_*)。新增 Gemini Native 内存指标(
geminiDB.native_memory_usage/limit)。新增 Auto-pilot 算子并发限制 Metric(如
sourceParallelismUpperBound)。屏蔽非必要的 WARN 日志(如 Format 不支持快照时的提示),降低干扰。
缺陷修复
稳定性修复:
合入 Flink 1.20.2/1.20.3 社区相关重要修复。
修复了 Kafka 连接器在开启事务后,读 Kafka 写 OSS 丢数据的问题。
修复了 PolarDB-X 连接断开导致延迟骤增并报错
EOFException的问题。修复了 OceanBase JDBC Sink 因
wait_timeout导致的频繁断连。
正确性修复:
修复了 CDC YAML 中 Canal Protobuf 数据格式不一致(timestamp 格式、tinyint 类型)的问题。
修复了 MySQL CDC Source 复用开启时调试功能少展示一张表的问题。
修复了 YAML ODPS Sink 因频繁 Commit 导致 Metaspace OOM 的问题。
体验优化:
优化了 Temporal Join 语法报错不清晰的提示。
隐藏了内部 WARN 日志(如
Cannot snapshot the table),改为 DEBUG 级别。修复了 Hologres Binlog 消费时部分字段为 null 的异常。