全部产品
Search
文档中心

Realtime Compute for Apache Flink:4 Maret 2022

更新时间:Jul 06, 2025

Dokumen ini menjelaskan catatan rilis untuk Realtime Compute for Apache Flink dan menyediakan tautan ke referensi terkait. Catatan rilis mencakup pembaruan utama dan perbaikan bug pada versi yang dirilis pada 4 Maret 2022.

Ikhtisar

Ververica Runtime (VVR) 4.0.12 resmi dirilis pada 4 Maret 2022, berbasis Apache Flink 1.13. Dalam versi ini, Realtime Compute for Apache Flink mendukung sinkronisasi perubahan skema JSON dari Message Queue for Apache Kafka ke Hologres. Produk ini juga menyediakan konektor tingkat perusahaan Hudi untuk bekerja dengan Data Lake Formation (DLF). Untuk meningkatkan efisiensi pengembangan, lebih dari 20 template pekerjaan Flink SQL umum disediakan. Selain itu, fitur diagnostik pekerjaan yang kuat dan penyesuaian level log dinamis tanpa menghentikan pekerjaan telah ditambahkan. Versi ini juga mendukung berbagai kemampuan pemrosesan data seperti fitur tingkat perusahaan ClickHouse, konektor baru, dan sintaks baru untuk memasukkan data ke gudang data dan danau data. Beberapa masalah yang diperbaiki dalam komunitas Apache Flink juga diselesaikan dalam versi ini.

Fitur baru

Fitur

Deskripsi

Referensi

Sinkronisasi Perubahan Skema JSON ke Hologres

JSON adalah salah satu format acara paling umum dalam pemrosesan aliran. Perubahan skema harus transparan untuk pekerjaan streaming real-time dan tabel di mesin penyimpanan backend.

Versi ini menyediakan peningkatan berikut:

  • Sebelum mengonsumsi data JSON, Anda dapat mengonfigurasi skema tabel berdasarkan skema JSON.

  • Jika skema JSON berubah selama konsumsi data, skema tabel Hologres backend juga akan diperbarui.

Peningkatan Kemampuan Pembuatan Danau Data untuk Iceberg dan Hudi

  • Katalog DLF Alibaba Cloud dapat dikonfigurasi.

    Anda dapat mengonfigurasi katalog DLF untuk mengakses Hudi, Iceberg, atau mesin lain yang didukung oleh DLF, membantu membangun danau data real-time secara efisien.

  • Berkas kecil tabel Iceberg dapat ditulis ulang menjadi berkas besar.

    Anda dapat mengeksekusi pernyataan AUTO OPTIMIZE untuk memulai tugas optimasi streaming guna menulis ulang berkas kecil tabel Iceberg menjadi berkas besar.

  • Konektor tingkat perusahaan Hudi bawaan didukung oleh Realtime Compute for Apache Flink untuk mengurangi kompleksitas O&M.

    • Anda dapat menggunakan Flink Change Data Capture (CDC) untuk memasukkan data dari database ke danau data dan secara otomatis menyinkronkan perubahan dalam skema tabel.

    • Realtime Compute for Apache Flink dapat diintegrasikan dengan layanan Alibaba Cloud seperti Object Storage Service (OSS) dan DLF untuk meningkatkan konektivitas data antara mesin komputasi.

Peningkatan Kemudahan Penggunaan untuk Melihat dan Mengonfigurasi Log

  • Log dapat ditampilkan per halaman.

    Jika pekerjaan berjalan lama, tab Logs mungkin tidak ditampilkan karena jumlah log yang besar. Untuk mencegah masalah ini, Realtime Compute for Apache Flink memungkinkan Anda melihat log pekerjaan per halaman pada tab Logs.

  • Level log dapat diubah.

    Anda dapat mengubah level log TaskManager yang sedang berjalan pada tab Logs tanpa me-restart pekerjaan, membantu mengidentifikasi penyebab masalah.

  • Log TaskManagers yang gagal dapat dilihat.

    Pada tab Logs, Anda dapat melihat log TaskManagers yang gagal sementara JobManager tetap berjalan, memungkinkan identifikasi penyebab kegagalan TaskManager.

Beberapa Fitur Tingkat Perusahaan ClickHouse Didukung oleh Realtime Compute for Apache Flink

  • Semantik exactly-once didukung.

    Layanan ClickHouse yang disediakan oleh E-MapReduce (EMR), bukan ApsaraDB for ClickHouse, mendukung semantik exactly-once.

  • Tipe data NESTED ClickHouse didukung.

    Tipe data NESTED ClickHouse dipetakan ke tipe data ARRAY Flink.

  • Data dapat ditulis ke tabel lokal yang sesuai dengan tabel distribusi ClickHouse.

    Anda dapat langsung menulis data ke tabel lokal yang sesuai dengan tabel distribusi ClickHouse, meningkatkan throughput penulisan data secara signifikan.

Buat Tabel Hasil ClickHouse

Optimasi Aturan Diagnostik Pekerjaan dan Panel Diagnosis

  • Lebih dari 20 aturan diagnostik ditambahkan untuk membantu menganalisis status pekerjaan secara komprehensif.

    Tingkat risiko dapat diidentifikasi sebagai tinggi, sedang, atau rendah berdasarkan status pekerjaan.

  • Panel Diagnosis dioptimalkan untuk membantu Anda lebih baik melihat status pekerjaan.

Lakukan Diagnostik Deployment Cerdas

Penambahan Kolom Terhitung Selama Sinkronisasi Data

Saat pernyataan CREATE TABLE AS digunakan untuk menyinkronkan data, kolom terhitung dapat ditambahkan ke tabel sumber dan digunakan sebagai kolom kunci utama tabel tujuan.

Saat memasukkan data ke gudang data atau danau data, Anda dapat mengeksekusi pernyataan CREATE TABLE AS untuk menentukan posisi kolom terhitung yang ingin ditambahkan dan menggunakan kolom tersebut sebagai kolom fisik di tabel tujuan. Hasil dari kolom terhitung dapat disinkronkan ke tabel tujuan secara real-time. Anda juga dapat mengeksekusi pernyataan CREATE TABLE AS untuk mengubah kunci utama tabel tujuan dan menggunakan kolom baru sebagai kunci utama baru tabel tujuan.

CREATE TABLE AS (CTAS)

Pembuatan Data Uji

Konektor Faker didukung.

Anda dapat menggunakan konektor Faker untuk menghasilkan data uji yang sesuai dengan kebutuhan bisnis Anda, memverifikasi logika bisnis selama pengembangan dan pengujian.

Pusat Template Disediakan untuk Mempercepat Pengembangan Pekerjaan

  • Lebih dari 20 template kode disediakan.

    Template ini mencakup skenario umum Flink SQL dan membantu Anda dengan cepat memahami cara menggunakan Flink SQL untuk membangun kode pekerjaan.

  • Template untuk menyinkronkan data dari MySQL ke Hologres disediakan.

    Anda dapat menggunakan template ini untuk membuat pekerjaan Flink CDC dengan cepat dan memasukkan data ke gudang data atau danau data.

Tampilan Pemanfaatan Sumber Daya

Pemanfaatan CPU dan penggunaan memori proyek saat ini ditampilkan di pojok kiri bawah konsol pengembangan Realtime Compute for Apache Flink. Anda dapat mengelola sumber daya proyek berdasarkan informasi tersebut.

N/A

Pencarian Cepat Log Pekerjaan yang Membuat Checkpoint dengan Kecepatan Rendah

Status snapshot node dalam sejarah snapshot dapat diurutkan. Selain itu, Anda dapat dinavigasi dari tab Flink Checkpoints History ke tab Logs dari tab Running Task Managers untuk melihat penyebab kecepatan rendah pembuatan checkpoint untuk pekerjaan tersebut.

Temukan Checkpoint yang Dibuat dengan Kecepatan Rendah dan Lihat Log TaskManagers untuk Checkpoint Tersebut

Pembuatan Tabel Hasil AnalyticDB for PostgreSQL dan Tabel Dimensi AnalyticDB for PostgreSQL

  • Data dapat ditulis oleh Realtime Compute for Apache Flink ke tabel hasil AnalyticDB for PostgreSQL.

  • Realtime Compute for Apache Flink dapat dikaitkan dengan AnalyticDB for PostgreSQL untuk melakukan kueri terkait.

Peningkatan Kemudahan Penggunaan Penyimpanan Backend Status Tingkat Perusahaan

  • Pengaturan parameter real-time didukung, mengurangi kompleksitas dan biaya penyesuaian parameter manual hingga lebih dari 95%.

  • Throughput inti tunggal meningkat 10% hingga 40%, membantu Anda menangani puncak dan lembah lalu lintas dengan mudah.

Peningkatan performa

Penyimpanan backend status tingkat perusahaan mengalami peningkatan signifikan dalam versi ini. Performa pekerjaan JOIN dua aliran atau multi-aliran juga ditingkatkan secara signifikan. Pemanfaatan rata-rata sumber daya komputasi dapat ditingkatkan hingga 50%. Dalam skenario tipikal, pemanfaatan rata-rata sumber daya komputasi dapat meningkat hingga 100% hingga 200%, membantu Anda menjalankan aplikasi pemrosesan aliran stateful lebih lancar.

Masalah yang diperbaiki

  • Layanan katalog dioptimalkan untuk memperbaiki masalah di mana data tidak muncul setelah diperbarui jika database atau tabel berisi sejumlah besar data.

  • Masalah di mana versi Flink tidak ditampilkan untuk kluster sesi telah diperbaiki.

  • Masalah di mana kurva watermarkLag tidak ditampilkan seperti yang diharapkan pada tab Metrics telah diperbaiki.

  • Efek menampilkan grafik kurva per halaman pada tab Metrics telah dioptimalkan.

  • Masalah Flink CDC, seperti masalah metrik currentFetchEventTimeLag dan konflik kelas, telah diperbaiki.

  • Masalah di mana pernyataan CREATE TABLE AS tidak dapat digunakan untuk memodifikasi kolom yang ada telah diperbaiki.