全部产品
Search
文档中心

Elasticsearch:Sinkronisasi data dari MaxCompute ke Alibaba Cloud ES

更新时间:Nov 10, 2025

Anda dapat menggunakan Alibaba Cloud Elasticsearch (ES) untuk mengambil informasi, menjalankan kueri multidimensi, dan melakukan analisis statistik pada volume data besar di MaxCompute (ODPS). Topik ini menjelaskan cara menggunakan layanan Integrasi Data dari DataWorks untuk menyinkronkan data dalam jumlah besar dari proyek MaxCompute ke instans Alibaba Cloud ES secara offline. Proses ini biasanya hanya memerlukan beberapa menit.

Informasi latar belakang

DataWorks adalah platform komprehensif untuk pengembangan dan tata kelola data besar yang mengintegrasikan fitur-fitur seperti pengembangan data, penjadwalan tugas, dan manajemen data. Anda dapat menggunakan tugas sinkronisasi di DataWorks untuk memindahkan data dengan cepat dari berbagai sumber data ke Alibaba Cloud ES.

Prasyarat

Catatan
  • Sinkronisasi data hanya didukung untuk instans Alibaba Cloud ES. Kluster Elasticsearch yang dikelola sendiri tidak didukung.

  • Proyek MaxCompute, instans ES, dan ruang kerja DataWorks harus berada di wilayah yang sama.

  • Instans ES, proyek MaxCompute, dan ruang kerja DataWorks harus berada di zona waktu yang sama. Jika tidak, perbedaan zona waktu mungkin terjadi antara data sumber dan tujuan setelah data terkait waktu disinkronkan.

Penagihan

Prosedur

Langkah 1: Siapkan data sumber

Buat tabel di MaxCompute dan impor data ke dalam tabel tersebut. Untuk informasi selengkapnya, lihat Buat tabel dan Impor data ke tabel.

Skema tabel dan data berikut digunakan dalam topik ini:

  • Skema tabel表结构

  • Sebagian data tabel表数据

Langkah 2: Beli dan konfigurasi grup sumber daya eksklusif

Beli grup sumber daya eksklusif untuk Integrasi Data. Kemudian, sambungkan virtual private cloud (VPC) dan ruang kerja ke grup sumber daya tersebut. Grup sumber daya eksklusif memastikan transmisi data yang cepat dan stabil.

  1. Masuk ke Konsol DataWorks.

  2. Di bilah navigasi atas, pilih wilayah. Di panel navigasi sebelah kiri, klik Resource Group.

  3. Di tab Exclusive Resource Groups, klik Create Legacy Resource Group > Data Integration Resource Group.

  4. Di halaman pembelian DataWorks Exclusive Resource (Subscription), atur Exclusive Resource Type menjadi Exclusive Resource For Data Integration, masukkan nama untuk grup sumber daya, lalu klik Buy Now untuk membeli grup sumber daya eksklusif tersebut.

    Untuk informasi selengkapnya, lihat Langkah 1: Buat grup sumber daya eksklusif untuk Integrasi Data.

  5. Temukan grup sumber daya eksklusif yang telah dibuat dan di kolom Actions, klik Network Settings untuk menyambungkan virtual private cloud (VPC). Untuk informasi selengkapnya, lihat Sambungkan VPC.

    Catatan

    Dalam contoh ini, grup sumber daya eksklusif untuk Integrasi Data digunakan untuk menyinkronkan data melalui VPC. Untuk informasi tentang cara menggunakan grup sumber daya eksklusif untuk Integrasi Data guna menyinkronkan data melalui Internet, lihat Konfigurasi daftar putih alamat IP.

    Grup sumber daya eksklusif harus terhubung ke VPC tempat kluster Elasticsearch berada. Hal ini memungkinkan data disinkronkan menggunakan grup sumber daya eksklusif. Oleh karena itu, Anda harus mengaitkan grup sumber daya eksklusif dengan VPC, Zone, dan vSwitch kluster Elasticsearch. Untuk melihat VPC, zona, dan vSwitch kluster Elasticsearch, lihat Lihat informasi dasar kluster.

    Penting

    Setelah Anda mengaitkan VPC, Anda harus menambahkan vSwitch CIDR Block dari VPC ke daftar putih akses internal-VPC instans Elasticsearch. Untuk informasi selengkapnya, lihat Konfigurasi daftar putih akses publik atau internal-facing untuk instans Elasticsearch.

  6. Di pojok kiri atas halaman, klik ikon kembali untuk kembali ke halaman Resource Group List.

  7. Di kolom Operation grup sumber daya eksklusif yang telah dibuat, klik Attach Workspace untuk menyambungkan ruang kerja target ke grup sumber daya tersebut.

    Untuk informasi selengkapnya, lihat Langkah 2: Kaitkan grup sumber daya eksklusif untuk Integrasi Data dengan ruang kerja.

Langkah 3: Tambahkan sumber data

Tambahkan MaxCompute dan Elasticsearch sebagai sumber data ke layanan Integrasi Data DataWorks.

  1. Buka halaman Data Integration di DataWorks.

    1. Masuk ke Konsol DataWorks.

    2. Di panel navigasi sebelah kiri, klik Workspaces.

    3. Di kolom Operation ruang kerja target, pilih Quick Access > Data Integration.

  2. Di panel navigasi sebelah kiri, klik Data Source.

  3. Tambahkan sumber data MaxCompute.

    1. Di halaman Data Source List, klik Add Data Source.

    2. Di halaman Add Data Source, cari dan pilih MaxCompute.

    3. Di kotak dialog Add MaxCompute Data Source, konfigurasikan parameter sumber data di bagian Basic Information.

      Untuk informasi selengkapnya, lihat Tambahkan sumber data MaxCompute.

    4. Di bagian Connection Configuration, klik Test Connectivity. Jika status konektivitas adalah Connected, koneksi berhasil.

    5. Klik Complete.

  4. Tambahkan sumber data Elasticsearch dengan cara yang sama. Untuk informasi selengkapnya, lihat Tambahkan sumber data Elasticsearch.

Langkah 4: Konfigurasi dan jalankan tugas sinkronisasi data

Tugas sinkronisasi data dijalankan menggunakan grup sumber daya eksklusif. Grup sumber daya mengambil data dari sumber data di Integrasi Data dan menulis data tersebut ke Elasticsearch.

Catatan
  1. Buka halaman Data Development di DataWorks.

    1. Masuk ke Konsol DataWorks.

    2. Di panel navigasi sebelah kiri, klik Workspaces.

    3. Di kolom Operation ruang kerja target, pilih Quick Access > Data Development.

  2. Buat tugas sinkronisasi offline.

    1. Di tab Data Development (image icon) di panel navigasi sebelah kiri, pilih Create > Create Workflow dan ikuti petunjuk di layar untuk membuat alur kerja.

    2. Klik kanan alur kerja yang telah Anda buat dan pilih Create Node > Data Integration > Offline Synchronization.

    3. Di kotak dialog Create Node, masukkan nama node dan klik Confirm.

  3. Konfigurasi jaringan dan grup sumber daya.

    1. Di bagian Data Source, atur Source menjadi MaxCompute (ODPS) dan Data Source Name menjadi nama sumber data sumber.

    2. Di bagian My Resource Group, pilih grup sumber daya eksklusif.

    3. Di bagian Data Destination, atur Destination menjadi Elasticsearch dan Data Source Name menjadi nama sumber data tujuan.

  4. Klik Next.

  5. Konfigurasi tugas.

    1. Di bagian Data Source, pilih tabel sumber.

    2. Di bagian Data Destination, konfigurasikan parameter.

    3. Di bagian Field Mapping, atur pemetaan antara Source Field dan Destination Field.

    4. Di bagian Channel Control, konfigurasikan parameter saluran.

    Untuk informasi selengkapnya, lihat Konfigurasi tugas sinkronisasi batch menggunakan antarmuka tanpa kode.

  6. Jalankan tugas.

    1. (Opsional) Konfigurasi properti penjadwalan untuk tugas tersebut. Di panel navigasi sebelah kanan, klik Properties. Di tab Properties, konfigurasikan parameter sesuai kebutuhan. Untuk informasi selengkapnya tentang parameter tersebut, lihat Konfigurasi penjadwalan.

    2. Di pojok kanan atas tab konfigurasi node, klik ikon Simpan untuk menyimpan tugas.

    3. Di pojok kanan atas tab konfigurasi node, klik ikon Kirim untuk mengirimkan tugas.

      Jika Anda mengonfigurasi properti penjadwalan, tugas akan berjalan secara otomatis sesuai jadwal. Anda juga dapat mengklik ikon Jalankan di pojok kanan atas tab konfigurasi node untuk menjalankan tugas segera.

      Jika log berisi Shell run successfully!, tugas berhasil dijalankan. Kode berikut menunjukkan contoh log:

      2023-10-31 16:52:35 INFO Exit code of the Shell command 0
      2023-10-31 16:52:35 INFO --- Invocation of Shell command completed ---
      2023-10-31 16:52:35 INFO Shell run successfully!
      2023-10-31 16:52:35 INFO Current task status: FINISH
      2023-10-31 16:52:35 INFO Cost time is: 33.106s

Langkah 5: Verifikasi hasil sinkronisasi data

Di konsol Kibana, Anda dapat melihat data yang telah disinkronkan dan mengkueri data berdasarkan kondisi tertentu.

  1. Masuk ke konsol Kibana dari instans Alibaba Cloud ES target.

    Untuk informasi selengkapnya, lihat Masuk ke konsol Kibana.

  2. Di pojok kiri atas halaman Kibana, klik ikon 菜单.png dan pilih Dev Tools.

  3. Di Console, jalankan perintah berikut untuk melihat data yang telah disinkronkan.

    POST /odps_index/_search?pretty
    {
    "query": { "match_all": {}}
    }
    Catatan

    odps_index adalah nilai dari bidang index yang Anda atur dalam skrip sinkronisasi data.

    Jika data telah disinkronkan, hasil yang mirip dengan berikut akan dikembalikan.查看同步的数据

  4. Jalankan perintah berikut untuk mencari bidang category dan brand dalam dokumen.

    POST /odps_index/_search?pretty
    {
    "query": { "match_all": {} },
    "_source": ["category", "brand"]
    }
  5. Jalankan perintah berikut untuk mencari dokumen di mana category adalah fresh produce.

    POST /odps_index/_search?pretty
    {
    "query": { "match": {"category":"fresh produce"} }
    }
  6. Jalankan perintah berikut untuk mengurutkan dokumen berdasarkan bidang trans_num.

    POST /odps_index/_search?pretty
    {
    "query": { "match_all": {} },
    "sort": { "trans_num": { "order": "desc" } }
    }

    Untuk informasi selengkapnya tentang perintah dan metode akses, lihat Elastic.co Help Center.