Dokumen ini berisi pertanyaan yang sering diajukan (FAQ) mengenai Elasticsearch (ES) Alibaba Cloud, mencakup topik seperti pembelian dan pembatalan langganan instans, konfigurasi, akses, kueri, penulisan data, plug-in, tokenizer, log, restart, anomali beban atau status, pencadangan dan pemulihan, serta pemantauan dan peringatan.
Ikhtisar FAQ
Permasalahan pembelian atau pembatalan langganan
Apa yang harus saya lakukan jika memilih konfigurasi yang salah saat membeli instans ES?
Versi spesifik apa saja yang sesuai dengan versi pada halaman pembelian ES?
Apa yang harus saya lakukan jika tidak tersedia VPC saat membeli instans ES?
Bagaimana cara melepas atau membatalkan langganan instans ES?
Apa yang harus saya lakukan jika sumber daya habis saat membeli instans?
Mengapa saya harus segera meningkatkan instans 1-core 2 GiB yang sudah ada?
Apa yang harus saya lakukan jika instans ES selalu berada dalam status Creating setelah pembelian?
Setelah kluster ES dibuat, apakah saya perlu membeli node Kibana secara terpisah?
Mengapa saya tidak dapat menemukan instans yang telah saya buat?
Dalam skenario apa saya perlu membeli dedicated master node dan client node saat membeli instans ES?
Apa akun default untuk kata sandi yang saya masukkan saat membeli instans ES?
Pertanyaan mengenai fitur produk
Dapatkah saya melakukan upgrade atau downgrade versi instans ES Alibaba Cloud?
Dapatkah saya login ke kluster melalui SSH untuk mengubah konfigurasinya?
Kapan saya dapat menggunakan fitur force restart untuk ES? Apa dampak dari penggunaan fitur ini?
Bagaimana cara memastikan bahwa kerentanan Log4j2 di ES telah diperbaiki?
Bagaimana cara mengaktifkan interkoneksi layanan antara instans ES di wilayah berbeda?
Apakah saya perlu membeli client node untuk mengaktifkan protokol HTTPS?
Berapa jumlah maksimum shard yang didukung oleh satu node ES?
Bagaimana indeks yang diawali dengan .monitoring-es dihasilkan dan untuk apa fungsinya?
Algoritma enkripsi apa yang digunakan untuk enkripsi disk pada disk data ES?
Permasalahan migrasi dan sinkronisasi data
Permasalahan restart instans
Berapa lama waktu yang dibutuhkan untuk merestart instans atau node ES?
Apakah mengaktifkan atau menonaktifkan akses jaringan publik untuk instans ES memicu restart?
Apakah mengubah kata sandi akses kluster memicu restart kluster?
Apakah ketiadaan replica shard dalam suatu indeks memengaruhi restart kluster?
Bagaimana cara merestart role node (seperti node Kibana) atau satu node?
Dapatkah saya mengatur restart terjadwal untuk node dalam instans ES?
Permasalahan beban atau status kluster abnormal
Apa yang harus saya lakukan jika status kluster ES berwarna kuning?
Apa yang harus saya lakukan jika status kluster ES berubah menjadi merah karena beban tinggi?
Apa yang harus saya lakukan jika penggunaan disk ES terlalu tinggi?
Bagaimana cara menyesuaikan distribusi shard yang tidak merata?
Bagaimana cara menanyakan jumlah memori aktual yang dialokasikan oleh konfigurasi JVM?
Permasalahan kueri dan penulisan kluster
Bagaimana cara mengubah index.max_result_window (jumlah maksimum dokumen untuk kueri terpaginasi)?
Bagaimana cara menanyakan konten detail dokumen dalam suatu indeks?
Bagaimana cara menanyakan atau mengekspor data dari periode waktu tertentu?
Ada selisih waktu antara hasil kueri Elasticsearch dan waktu aktual. Apa yang harus saya lakukan?
Permasalahan konfigurasi dan perubahan kluster
Setelah mengubah jumlah node, apakah kluster secara otomatis menyeimbangkan ulang shard?
Apakah ES mendukung mengubah tipe node lain menjadi cold data node?
Berapa lama waktu yang dibutuhkan untuk meng-upgrade versi ES?
Error atau timeout terjadi saat meng-upgrade kluster. Apa yang harus saya lakukan?
Konfigurasi kluster tidak dapat diubah. Apa yang harus saya lakukan?
Apakah mengubah tipe disk instans ES menyebabkan kehilangan data yang ada?
Dapatkah ES langsung meng-upgrade CPU untuk menghindari migrasi data?
Mengapa cold data node tidak dapat diturunkan spesifikasinya?
Permasalahan plug-in, tokenizer, dan sinonim
Saat menggunakan tokenizer IK, bagaimana cara menyesuaikan dan memperluas konten kamus?
Saat menggunakan plug-in analisis IK, muncul error "ik startOffset". Apa yang harus saya lakukan?
Jika file kamus lokal IK hilang, dapatkah dipulihkan dari halaman manajemen kluster?
Apakah kamus plug-in analisis IK ES Alibaba Cloud dan plug-in IK open source sama?
Dapatkah plug-in kustom mengakses jaringan eksternal, misalnya untuk membaca file kamus dari GitHub?
Bagaimana konfigurasi tokenizer analysis-aliws, dan format filenya seperti apa?
Apa perbedaan antara sinonim ES, tokenisasi IK, dan tokenisasi AliNLP?
Tokenizer bahasa Mandarin bawaan apa saja yang didukung oleh ES Alibaba Cloud?
Apakah tokenizer IK yang digunakan oleh ES Alibaba Cloud mendukung kamus jarak jauh?
Bagaimana cara menginstal plug-in pencarian vektor (aliyun-knn) pada instans ES 7.10 Alibaba Cloud?
Apakah merestart setelah menginstal plug-in memengaruhi layanan kluster?
Permasalahan log
Apakah ES mendukung pengaturan periode retensi untuk log .security?
Saya tidak dapat melihat log kueri dan pembaruan untuk ES. Apa yang harus saya lakukan?
Bagaimana cara mengonfigurasi dan melihat slow log untuk instans ES?
Bagaimana cara menarik slow log dari instans ES secara berkala melalui pemrograman?
Bagaimana cara mengetahui klien mana saja yang menggunakan instans ES?
Permasalahan pencadangan dan pemulihan data
Permasalahan pemantauan dan peringatan kluster
Permasalahan akses kluster
Permasalahan terkait indeks
Permasalahan pembelian atau pembatalan langganan
Apa yang harus saya lakukan jika memilih konfigurasi yang salah saat membeli instans ES?
Jika Anda menemukan bahwa konfigurasi yang dipilih tidak sesuai harapan setelah membeli instans ES, rujuk tabel berikut untuk menemukan solusi berdasarkan konfigurasi Anda.
Sebelum membatalkan langganan atau melepas kluster Anda, cadangkan data Anda terlebih dahulu. Untuk informasi lebih lanjut, lihat Pencadangan dan pemulihan manual. Setelah pembatalan langganan atau pelepasan, data yang disimpan di kluster akan dihapus dan tidak dapat dipulihkan.
Konfigurasi | Solusi |
Metode penagihan | Jika Anda membeli instans pay-as-you-go, Anda dapat mengubah metode penagihannya menjadi langganan. Untuk informasi lebih lanjut, lihat Ubah metode penagihan instans dari pay-as-you-go menjadi langganan. |
Versi | Instans harus memenuhi salah satu kondisi berikut agar mendukung perubahan versi:
Untuk informasi tentang cara meng-upgrade versi instans, lihat Upgrade versi instans. Jika upgrade versi Anda tidak memenuhi kondisi di atas, kami sarankan Anda membatalkan langganan atau melepas instans tersebut dan membeli instans baru dengan versi yang diinginkan. |
Wilayah | Ini tidak dapat diubah. Kami sarankan Anda membatalkan langganan dan membeli instans baru. |
Zona | Anda dapat melakukan migrasi zona. Untuk informasi lebih lanjut, lihat Migrasi dan upgrade zona. Catatan Saat melakukan migrasi zona, pastikan instans ES telah berhasil dibuat, artinya status instans adalah Normal. |
Jumlah zona | Ini tidak dapat diubah. Kami sarankan Anda membatalkan langganan dan membeli instans baru. |
Tipe instans | Anda dapat mengubah pengaturan ini. Untuk informasi lebih lanjut, lihat Upgrade kluster. |
Kelas penyimpanan | Anda dapat mengubah konfigurasi ini. Untuk informasi lebih lanjut, lihat Upgrade kluster. |
Enkripsi disk | Ini tidak dapat diubah. Kami sarankan Anda membatalkan langganan dan membeli instans baru. |
Ruang penyimpanan per node | Anda dapat memodifikasi item konfigurasi ini. Untuk informasi lebih lanjut, lihat Upgrade kluster. |
Jumlah data node | Anda dapat mengubah pengaturan ini. Untuk informasi lebih lanjut, lihat Upgrade kluster. |
Tipe jaringan, virtual private cloud, virtual switch | Ini tidak dapat diubah. Kami sarankan Anda membatalkan langganan dan membeli instans baru. Catatan Hanya virtual private cloud yang didukung. |
Username | Username default adalah elastic. Anda tidak dapat memodifikasi item konfigurasi ini. Anda dapat membuat pengguna di konsol Kibana dan memberikan izin yang diperlukan kepada pengguna tersebut. Untuk informasi lebih lanjut, lihat Gunakan mekanisme RBAC yang disediakan oleh Elasticsearch X-Pack untuk menerapkan kontrol akses. |
Kata sandi login | Ini dapat diubah. Untuk detailnya, lihat Atur ulang kata sandi akses instans. |
Untuk konfigurasi yang tidak disebutkan dalam tabel di atas, periksa halaman upgrade atau downgrade kluster. Untuk informasi lebih lanjut, lihat Upgrade kluster dan Downgrade kluster.
Versi spesifik apa saja yang sesuai dengan versi pada halaman pembelian ES?
Versi pada halaman pembelian | Versi spesifik |
8.15 | 8.15.1 |
8.13 | 8.13.4 |
8.9 | 8.9.1 |
8.5 | 8.5.1 |
7.16 | 7.16.2 |
7.10 | 7.10.0 |
7.7 | 7.7.1 |
6.8 | 6.8.6 |
6.7 | 6.7.0 |
6.3 | 6.3.2 |
5.6 | 5.6.16 |
5.5 | 5.5.3 |
Saat membeli instans, jika Anda sudah memiliki kluster self-managed, kami sarankan memilih versi dengan minor version yang mirip. Jika Anda belum memiliki kluster self-managed, pilih versi terbaru.
Apa yang harus saya lakukan jika tidak tersedia VPC saat membeli instans ES?
Masalah ini terjadi jika Pengguna RAM tidak memiliki izin untuk melihat daftar VPC. Periksa apakah Pengguna RAM telah diberikan izin tersebut. Untuk informasi lebih lanjut, lihat Lihat informasi Pengguna RAM. Jika izin belum diberikan, berikan izin tersebut kepada Pengguna RAM. Untuk informasi lebih lanjut, lihat Buat kebijakan kustom.
Saat membeli instans ES, saya memiliki VPC, tetapi tidak tersedia virtual switch atau daftar vSwitch kosong, dan muncul error "vSwitch: may not be empty". Bagaimana cara memperbaikinya?
Masalah ini terjadi karena tidak tersedia vSwitch di zona yang Anda pilih. Untuk mengatasinya, buka halaman vSwitch di konsol VPC dan periksa apakah tersedia vSwitch di zona tersebut. Jika tidak tersedia, buat vSwitch baru. Untuk informasi lebih lanjut, lihat Buat VPC dengan blok CIDR IPv4.
Jika saya membatalkan langganan instans dan membeli instans baru, apakah endpoint instans baru berubah?
Setelah membeli instans baru, kami sarankan memodifikasi kode klien sebelum melepas instans lama untuk mencegah gangguan bisnis.
Bagaimana cara melepas atau membatalkan langganan instans ES?
Untuk informasi tentang cara melepas instans pay-as-you-go atau instans langganan yang telah kedaluwarsa, lihat Lepaskan instans.
Untuk instans langganan yang belum kedaluwarsa:
Masuk ke Konsol Manajemen Alibaba Cloud. Pada bilah navigasi atas, pilih . Di panel navigasi sisi kiri Expenses and Costs console, klik Unsubscribe. Pada halaman Unsubscribe, hentikan langganan kluster atau batalkan pesanan. Untuk informasi selengkapnya, lihat Metode untuk berhenti berlangganan sumber daya.
Dapatkah saya membeli instans ES single-node?
Tidak. Anda harus memilih minimal dua data node saat membeli instans. Untuk informasi lebih lanjut, lihat Parameter halaman pembelian.
Apa yang harus saya lakukan jika sumber daya habis saat membeli instans?
Jika sumber daya habis saat Anda mencoba membuat instans, kami sarankan langkah-langkah berikut:
Ubah wilayah
Ubah zona
Ubah konfigurasi sumber daya
Jika sumber daya masih tidak tersedia setelah menyesuaikan kebutuhan, tunggu sebentar sebelum mencoba membeli instans lagi. Sumber daya instans bersifat dinamis. Jika sumber daya tidak mencukupi, Alibaba Cloud akan segera menambahkannya, tetapi proses ini membutuhkan waktu.
Mengapa pengguna instans yang ada dengan spesifikasi 1-core 2 GiB harus segera meng-upgrade instans mereka?
Data node dengan 1 vCPU dan 2 GiB memori dapat memengaruhi kinerja kluster Elasticsearch. Alibaba Cloud Elasticsearch tidak lagi menyediakan data node dengan spesifikasi ini sejak Mei 2021. Data node dengan spesifikasi ini yang sudah ada masih dapat digunakan. Namun, data node dengan 1 vCPU dan 2 GiB memori hanya cocok untuk pembelajaran online dan tidak cocok untuk lingkungan produksi. Perjanjian Tingkat Layanan (SLA) tidak berlaku untuk kluster yang berisi data node ini. Oleh karena itu, kami sarankan segera meng-upgrade data node Anda dengan 1 vCPU dan 2 GiB memori. Untuk informasi lebih lanjut, lihat Upgrade kluster.
Apa yang harus saya lakukan jika instans ES selalu berada dalam status Creating setelah pembelian?
Setelah instans dibuat, dibutuhkan waktu hingga menjadi aktif. Waktu yang dibutuhkan tergantung pada spesifikasi kluster, struktur data, dan ukuran data, dan biasanya memakan waktu beberapa jam.
Setelah kluster ES dibuat, apakah saya perlu membeli node Kibana secara terpisah?
Tidak. Saat membeli kluster ES, node Kibana diaktifkan secara default. Pengaturan ini tidak dapat diubah. Anda dapat dan memilih spesifikasi untuk node Kibana sesuai kebutuhan Anda. Untuk informasi lebih lanjut, lihat Buat instans Elasticsearch Alibaba Cloud.
Untuk kinerja dan stabilitas, kami sarankan membeli node Kibana dengan spesifikasi minimal 2 core CPU dan 4 GiB memori. Node Kibana dengan 1 core CPU dan 2 GiB memori gratis tetapi hanya direkomendasikan untuk pengujian.
Mengapa saya tidak dapat menemukan instans yang telah saya buat?
Periksa apakah wilayah yang dipilih benar. Kami sarankan memeriksa wilayah yang dipilih di bagian atas konsol ES. Jika wilayahnya benar tetapi instans ES masih tidak ditemukan, bersihkan cache browser atau coba jaringan lokal yang berbeda.
Dalam skenario apa saya perlu membeli dedicated master node dan client node saat membeli instans ES?
Dedicated master node menangani operasi tingkat kluster, seperti membuat atau menghapus indeks, melacak anggota kluster, dan mengalokasikan shard ke node. Stabilitas dedicated master node sangat penting bagi kesehatan kluster. Kami sarankan membeli dedicated master node independen dalam skenario berikut:
Data node yang bertindak sebagai node primer berada di bawah tekanan tinggi.
Skenario intensif menulis.
Hal ini ideal untuk skenario yang membutuhkan stabilitas kluster tinggi.
Coordinating node menangani permintaan kueri dan tulis dengan meneruskannya ke data node serta menggabungkan hasil kueri. Kami sarankan membeli coordinating node khusus, terutama untuk skenario agregasi. Sebagai praktik terbaik, tambahkan satu coordinating node untuk setiap lima data node (minimal dua), dan pastikan spesifikasinya sesuai dengan data node. Untuk informasi lebih lanjut tentang evaluasi spesifikasi dan kapasitas, lihat Evaluasi spesifikasi dan kapasitas.
Apa akun default untuk kata sandi yang saya masukkan saat membeli instans ES?
Username default adalah elastic. Anda juga dapat membuat pengguna kustom. Untuk informasi lebih lanjut, lihat Gunakan mekanisme RBAC yang disediakan oleh Elasticsearch X-Pack untuk menerapkan kontrol akses.
Pertanyaan mengenai fitur produk
Dapatkah saya melakukan upgrade atau downgrade versi instans ES Alibaba Cloud?
Hanya beberapa versi yang mendukung upgrade langsung, yaitu dari 5.5 ke 5.6, 5.6 ke 6.3, dan 6.3 ke 6.7.
Untuk upgrade atau downgrade antar versi lainnya, Anda harus membeli instans ES dengan versi target, migrasikan data dari instans asli ke instans target, lalu batalkan langganan atau lepaskan instans asli.
Instans uji coba gratis ES Alibaba Cloud hanya mendukung versi 8.5 dan 8.9, dan tidak dapat dimodifikasi setelah pembuatan.
Untuk upgrade versi langsung, lihat Upgrade versi.
Untuk informasi tentang cara membuat kluster Elasticsearch, lihat Buat instans Elasticsearch Alibaba Cloud.
Untuk informasi tentang cara migrasi data antar kluster Elasticsearch, lihat Migrasi data antar kluster Elasticsearch Alibaba Cloud.
Untuk membatalkan langganan instans langganan yang belum kedaluwarsa, lihat Kebijakan pengembalian dana. Untuk melepas instans pay-as-you-go, lihat Lepaskan instans.
Dapatkah saya login ke kluster melalui SSH untuk mengubah konfigurasinya?
Tidak. Untuk alasan keamanan, Anda tidak diizinkan login ke kluster ES melalui SSH. Untuk memodifikasi konfigurasi kluster, gunakan fitur konfigurasi kluster ES. Untuk informasi lebih lanjut, lihat Konfigurasi Kluster.
Apakah Logstash 6.7 kompatibel dengan ES 6.3?
Ya, kompatibel. Untuk informasi lebih lanjut, lihat Matriks kompatibilitas.
Apakah Quick BI mendukung sumber data ES?
Anda dapat menggunakan Quick BI untuk menghubungkan ke ES melalui jaringan publik, tetapi Anda harus menambahkan alamat IP Quick BI ke daftar putih akses publik ES.
Apakah ES mendukung plug-in scoring?
ES mendukung pembuatan tokenizer dari indeks untuk mencari data dan mengurutkan hasil berdasarkan skor. Untuk informasi lebih lanjut, lihat Edisi Dasar: Dari Pembuatan Instans hingga Pengambilan Data.
Apakah ES mendukung LDAP?
Ya, Elasticsearch mendukung Lightweight Directory Access Protocol (LDAP). Jika ingin menggunakan LDAP untuk mengotentikasi permintaan ke kluster Elasticsearch, Anda harus menguji otentikasi pada kluster Elasticsearch on-premises dengan versi yang sama. Jika pengujian berhasil, konfigurasikan templat yang sesuai di konsol ES. Untuk informasi lebih lanjut, lihat Praktik terbaik untuk mengintegrasikan otentikasi LDAP dengan X-Pack.
Apakah ES memiliki Java SDK?
Ya. Setiap versi ES memerlukan SDK yang sesuai. Untuk informasi lebih lanjut, lihat API Java.
Di mana saya dapat melihat versi kernel instans ES?
Secara default, kluster ES menggunakan kernel versi terbaru. Untuk informasi lebih lanjut tentang versi kernel, lihat Catatan Rilis Versi Kernel. Jika kluster Anda tidak menggunakan kernel versi terbaru, pesan A New Kernel Patch Is Available muncul di halaman Informasi Dasar kluster Anda. Klik pesan ini untuk melihat versi kernel saat ini dari kluster Anda.
Kapan saya dapat menggunakan fitur force restart untuk ES? Apa dampak dari penggunaan fitur ini?
Jika status instans tidak Normal (kuning atau merah), operasi restart tidak didukung. Dalam kasus ini, Anda perlu melakukan force restart instans. Penggunaan fitur ini dapat menyebabkan ketidakstabilan layanan, kehilangan data, atau kegagalan baca/tulis selama fase restart. Lakukan dengan hati-hati.
Bagaimana cara memastikan bahwa kerentanan Log4j2 di ES telah diperbaiki?
Kerentanan diperbaiki setelah kluster berhasil direstart. Untuk informasi lebih lanjut, lihat [Peringatan kerentanan] Kerentanan eksekusi kode arbitrer Apache Log4j2.
Apakah saya perlu meng-upgrade versi ES untuk memperbaiki kerentanan Log4j2?
Tidak. Anda hanya perlu mengikuti petunjuk dalam prosedur perbaikan untuk memperbaiki kerentanan.
Bagaimana cara mengaktifkan interkoneksi layanan antara instans ES di wilayah berbeda?
Anda dapat mengaktifkan interkoneksi layanan antara instans ES di wilayah berbeda dengan dua cara berikut:
Gunakan koneksi peering VPC. Untuk informasi lebih lanjut, lihat Gunakan koneksi peering VPC untuk mengaktifkan konektivitas privat antar VPC.
Gunakan instance Cloud Enterprise Network (CEN). Untuk informasi lebih lanjut, lihat Hubungkan instance jaringan lintas wilayah menggunakan Cloud Enterprise Network.
Bagaimana cara migrasi data antar kluster Elasticsearch?
Anda dapat migrasi data ke kluster Elasticsearch Alibaba Cloud dari kluster Elasticsearch Alibaba Cloud lainnya, kluster Elasticsearch self-managed, atau sumber Elasticsearch pihak ketiga. Solusi dan alat migrasi data bervariasi berdasarkan skenario migrasi data. Untuk informasi lebih lanjut, lihat Pilih solusi migrasi data.
Apakah saya perlu membeli client node untuk mengaktifkan protokol HTTPS?
Versi ES berikut tidak mengharuskan Anda membeli client node untuk mengaktifkan HTTPS. Client node yang sudah ada dapat dinonaktifkan.
Versi 7.16 dan versi yang lebih baru.
Untuk versi ES selain yang disebutkan di atas, Anda harus mengaktifkan client node untuk mengaktifkan HTTPS. Client node tidak dapat dibatalkan langgannya atau dinonaktifkan setelah pembelian.
Untuk alasan keamanan, setelah Anda mengaktifkan HTTPS untuk kluster Elasticsearch, sistem secara rutin memelihara dan memperbarui sertifikat yang digunakan oleh kluster. Anda tidak dapat melakukan rolling update untuk sertifikat yang diinstal pada data node di kluster Elasticsearch versi V7.10 atau lebih lama. Untuk mengurangi dampak restart node pada layanan online selama pembaruan sertifikat, sistem menerapkan sertifikat pada client node, yang digunakan untuk meneruskan permintaan. Saat Anda mengaktifkan HTTPS untuk kluster Elasticsearch yang tidak berisi client node, sistem menampilkan pesan untuk meminta Anda membeli client node untuk kluster tersebut. Anda harus membeli client node untuk kluster tersebut sebelum Anda dapat mengaktifkan HTTPS untuk kluster tersebut. Untuk informasi lebih lanjut, lihat Aktifkan HTTPS.
Berapa jumlah maksimum shard yang didukung oleh satu node ES?
Alibaba Cloud Elasticsearch memungkinkan Anda mengalokasikan maksimal 1.000 shard untuk indeks pada satu data node di kluster Elasticsearch V7.x. Jumlah shard yang dapat dialokasikan untuk indeks pada satu data node tidak dibatasi untuk kluster Elasticsearch versi lainnya. Anda harus mengonfigurasi shard untuk indeks pada satu data node berdasarkan spesifikasi kluster Elasticsearch. Untuk informasi lebih lanjut, lihat Evaluasi spesifikasi dan kapasitas penyimpanan dan Ukuran shard Anda.
Anda dapat menggunakan perintah berikut untuk sementara memodifikasi jumlah maksimum shard untuk kluster menggunakan parameter max_shards_per_node:
PUT /_cluster/settings
{
"transient": {
"cluster": {
"max_shards_per_node":10000
}
}
}Sebagai solusi jangka panjang, jangan mengatur parameter ini ke nilai yang terlalu besar. Tambahkan jumlah node atau kurangi jumlah shard di kluster. Rencanakan shard Anda dengan baik untuk mencegah ketidakstabilan kluster akibat tekanan berlebihan.
Bagaimana indeks yang diawali dengan .monitoring-es dihasilkan dan untuk apa fungsinya?
Secara default, klien pemantauan X-Pack mengumpulkan data pemantauan dari kluster setiap 10 detik dan menyimpan data tersebut dalam indeks yang diawali dengan .monitoring-* di instans Alibaba Cloud Elasticsearch yang sesuai. Misalnya, instans v6.x memiliki dua jenis utama indeks, .monitoring-es-6-* dan .monitoring-kibana-6-*, yang digulir setiap hari. Data yang dikumpulkan disimpan dalam indeks yang diawali dengan .monitoring-es-6- dan diakhiri dengan tanggal saat ini.
Indeks .monitoring-es-6-* mengonsumsi banyak ruang disk. Indeks ini terutama menyimpan informasi seperti status kluster, statistik kluster, statistik node, dan statistik indeks. Untuk informasi lebih lanjut, lihat Konfigurasi indeks pemantauan.
Algoritma enkripsi apa yang digunakan untuk enkripsi disk pada disk data ES?
ES menggunakan algoritma enkripsi AES-256 standar industri dan Key Management Service (KMS) untuk mengenkripsi disk. Untuk informasi lebih lanjut, lihat Ikhtisar enkripsi disk.
Apakah layanan ES Alibaba Cloud mendukung port 9300?
Hanya versi ES Alibaba Cloud 5.x yang mendukung port 9300 (untuk TCP) dan port 9200 (untuk HTTP atau HTTPS). Versi lain hanya mendukung port 9200.
Instans ES Alibaba Cloud versi 6.0 dan lebih baru tidak mendukung akses menggunakan Transport Client di port 9300. Untuk mengakses port 9300, Anda harus membeli instans versi 5.x.
Permasalahan migrasi dan sinkronisasi data
Bagaimana cara menyinkronkan data dari MongoDB ke ES Alibaba Cloud?
Anda dapat menggunakan Monstache untuk menyinkronkan data MongoDB ke Elasticsearch Alibaba Cloud secara real-time. Untuk informasi lebih lanjut, lihat Gunakan Monstache untuk menyinkronkan data MongoDB ke Elasticsearch secara real-time.
Permasalahan restart instans
Berapa lama waktu yang dibutuhkan untuk merestart instans atau node ES?
Saat Anda merestart kluster atau node Elasticsearch, sistem menampilkan perkiraan waktu. Waktu tersebut diperkirakan berdasarkan spesifikasi, struktur data, dan volume data kluster atau node tersebut. Dalam kebanyakan kasus, dibutuhkan beberapa jam untuk merestart kluster. Untuk informasi lebih lanjut, lihat Restart instans atau node.
Apakah mengaktifkan atau menonaktifkan akses jaringan publik untuk instans ES memicu restart?
Tidak. Namun, status instans akan berubah sebentar agar pengaturan berlaku. Hal ini tidak memengaruhi penggunaan normal.
Apakah mengubah kata sandi akses kluster memicu restart kluster?
Tidak. Mengubah kata sandi hanya memicu reload kluster, bukan restart. Untuk informasi lebih lanjut, lihat Atur ulang kata sandi akses instans.
Apakah ketiadaan replica shard dalam suatu indeks memengaruhi restart kluster?
Ya. Hal ini dapat mencegah kluster memberikan layanan berkelanjutan selama restart. Jika beban keseluruhan kluster tidak tinggi dan indeks memiliki replica shard, layanan umumnya dapat diberikan secara berkelanjutan selama restart. Namun, dalam beberapa skenario, timeout akses dapat terjadi selama restart. Misalnya, jika konkurensi restart paksa tinggi, beban kluster sangat tinggi dan kluster sudah tidak dapat diakses, tidak ada replica shard, atau terdapat banyak operasi tulis dan kueri selama restart atau restart paksa. Kami sarankan merancang mekanisme retry di sisi klien dan melakukan operasi tersebut selama jam sepi.
Bagaimana cara merestart role node (seperti node Kibana) atau satu node?
Mulai ulang node peran
Di halaman Basic Information instans, klik Restart. Pilih Role Node Restart untuk Operation Type dan pilih role node yang sesuai. Untuk informasi lebih lanjut, lihat Restart instans atau node.
Restart satu node
Anda dapat merestart satu node dengan salah satu dari dua cara berikut:
Di halaman Basic Information instans, klik Restart, atur Operation Type ke Node Restart, dan pilih node yang ingin Anda restart. Untuk informasi lebih lanjut, lihat Restart instans atau node.
Di bagian Node Visualization halaman Basic Information instans, arahkan pointer ke node yang ingin Anda restart. Di popover yang muncul, klik Restart. Untuk informasi lebih lanjut, lihat Lihat status kluster dan informasi node.
Apa yang harus saya lakukan jika restart instans macet?
Kami sarankan terlebih dahulu melihat detail tugas perubahan instans di daftar tugas. Untuk versi selain 7.16, restart instans membutuhkan waktu beberapa jam. Untuk informasi lebih lanjut, lihat Lihat progres tugas instans. Jika progres perubahan tetap tidak berubah untuk waktu yang lama, Anda dapat merujuk petunjuk berikut untuk troubleshooting masalah tersebut.
Kemungkinan penyebab | Solusi |
Masalah plug-in mencegah node untuk memulai. | Hapus plug-in yang bersangkutan. |
Shard tidak dapat dialokasikan karena penggunaan disk tinggi. Catatan Anda dapat melihat penggunaan disk kluster di pemantauan kluster. Untuk informasi lebih lanjut, lihat Lihat metrik dan tangani pengecualian. | Hapus indeks atau sementara atur jumlah replika untuk indeks menjadi 0. |
Shard tidak dapat dialokasikan karena masalah pengaturan parameter kluster. | Jalankan perintah |
Jumlah replika lebih besar dari jumlah node. | Atur ulang jumlah replika. |
Spesifikasi kluster terlalu kecil, menyebabkan error kehabisan memori (OOM). |
Dapatkah saya mengatur restart terjadwal untuk node dalam instans ES?
Tidak. Restart node secara berkala tidak didukung. Jika Anda memiliki kebutuhan ini, Anda dapat memanggil operasi API RestartInstance. Namun, Anda harus menulis tugas terjadwal dan mengonfigurasi informasi node yang sesuai.
Permasalahan beban atau status kluster abnormal
Saat menggunakan ES, CPU dan beban beberapa node normal, sedangkan node lainnya idle. Apa yang harus saya lakukan?
Masalah ini disebabkan oleh beban kluster yang tidak seimbang. Beban yang tidak seimbang dapat disebabkan oleh beberapa alasan, termasuk pengaturan shard yang tidak tepat, ukuran segmen yang tidak merata, data panas dan dingin yang tidak dipisahkan, dan koneksi persisten yang digunakan untuk instance Server Load Balancer (SLB) dan arsitektur multi-zona. Atasi masalah berdasarkan skenario aktual. Untuk informasi lebih lanjut, lihat Beban kluster yang tidak seimbang.
Sebelum melakukan troubleshooting, periksa spesifikasi kluster Anda. Jika kluster Anda memiliki 1 core CPU dan 2 GiB memori (spesifikasi pembelajaran), upgrade ke 2 core CPU dan 4 GiB memori atau lebih tinggi. Untuk informasi lebih lanjut, lihat Upgrade kluster.
Spesifikasi 1-core 2 GiB hanya cocok untuk skenario pembelajaran dan tidak untuk lingkungan produksi. Spesifikasi ini tidak dicakup oleh Perjanjian Tingkat Layanan (SLA) produk. Karena stabilitasnya yang lemah, spesifikasi ini tidak lagi tersedia untuk pembelian. Kami sarankan segera meng-upgrade instans 1-core 2 GiB Anda ke spesifikasi yang lebih tinggi.
Spesifikasi 2-core 4 GiB direkomendasikan untuk digunakan di lingkungan pengujian. Untuk lingkungan produksi, kami sarankan menggunakan spesifikasi yang lebih tinggi.
Apa yang harus saya lakukan jika status kluster ES berwarna kuning?
Penyebab
Saat jumlah replika yang Anda atur untuk suatu indeks lebih besar dari jumlah node saat ini dikurangi 1, status kluster menjadi kuning.
Solusi
Jalankan perintah
GET _cat/indices?vuntuk melihat distribusi shard indeks, temukan indeks dengan status kuning, dan atur jumlah shard replikanya menjadi 0. Setelah kluster kembali normal, atur kembali jumlah shard replika untuk indeks yang sesuai ke nilai semula.PeringatanSetelah Anda mengatur jumlah shard replika menjadi 0, data dapat hilang jika node offline. Lakukan dengan hati-hati. Setelah kluster kembali normal (sekitar 1 menit), segera kembalikan jumlah shard replika ke nilai semula.
PUT test/_settings { "index" : { "number_of_replicas":"0" } }
Apa yang harus saya lakukan jika status kluster ES berubah menjadi merah karena beban tinggi?
Anomali pada node tempat primary shard berada menyebabkan kluster menjadi merah. Anda dapat menjalankan perintah GET /_cat/indices?v untuk melihat distribusi shard indeks, temukan indeks merah, dan troubleshooting berdasarkan penyebab dan solusi umum berikut.
Penyebab umum | Solusi |
Sumber daya kluster tidak mencukupi karena beban tidak seimbang. | Ubah jumlah total primary dan replica shard menjadi kelipatan bulat dari jumlah data node di kluster untuk menyeimbangkan beban pada node. Untuk informasi lebih lanjut, lihat Bagaimana cara menyesuaikan distribusi shard yang tidak merata?. |
Kluster berisi data indeks yang tidak berguna. | Bersihkan indeks yang tidak perlu secara berkala, seperti indeks pemantauan yang namanya diawali dengan .monitor. Untuk informasi lebih lanjut, lihat Konfigurasi indeks pemantauan. |
Shard tidak ditugaskan. | Jalankan perintah |
Cache menyebabkan konsumsi sumber daya. | Kami sarankan menggunakan perintah |
Operasi perubahan kluster sedang berlangsung, seperti upgrade. | Kami sarankan menghentikan perubahan saat ini dan memilih Force Change di halaman upgrade. Untuk informasi lebih lanjut, lihat Upgrade kluster. |
Spesifikasi instans rendah dan sumber daya tidak mencukupi, seperti spesifikasi 1-core 2 GiB atau 2-core 4 GiB. | Upgrade kluster. Untuk informasi lebih lanjut, lihat Upgrade kluster. Catatan
|
Penggunaan disk melebihi 85% | Kami sarankan menghapus data historis yang tidak lagi Anda perlukan atau memperluas kapasitas disk. Untuk informasi lebih lanjut, lihat Penggunaan disk tinggi dan indeks read-only. |
Saya melihat dari pemantauan atau menerima peringatan bahwa utilisasi CPU kluster terlalu tinggi. Apa yang harus saya lakukan?
Penyebab umum dan solusi yang sesuai adalah sebagai berikut.
Penyebab Umum | Solusi |
peningkatan QPS tulis atau kueri menyebabkan peningkatan penggunaan CPU. | Anda dapat mengurangi volume tulis konkuren, menurunkan QPS tulis dan kueri, atau melakukan scale-out kluster. Kami sarankan melakukan uji stres di lingkungan produksi Anda untuk memilih spesifikasi yang sesuai. |
Cache indeks mengonsumsi sumber daya berlebihan. | Kami sarankan menjalankan perintah |
Kluster memiliki sumber daya yang tidak mencukupi. | Upgrade kluster. Untuk informasi lebih lanjut, lihat Upgrade kluster. |
Penggunaan CPU tinggi dan beban tidak seimbang pada satu node. | Anda dapat mengubah jumlah total primary dan replica shard menjadi kelipatan bulat dari jumlah data node di kluster untuk menyeimbangkan beban di seluruh node. Untuk informasi lebih lanjut, lihat Apa yang harus saya lakukan jika shard tidak merata didistribusikan pada node dalam kluster Elasticsearch?. |
Apa yang harus saya lakukan jika penggunaan disk ES terlalu tinggi?
Kami sarankan menjalankan perintah DELETE /index_name untuk menghapus indeks yang tidak perlu. Setelah penggunaan disk turun di bawah 75%, Anda dapat meningkatkan kapasitas disk dan spesifikasi kluster di konsol. Untuk informasi lebih lanjut, lihat Upgrade kluster. Jika penggunaan disk pada satu node terlalu tinggi, Anda juga perlu mengoptimalkan shard. Untuk informasi lebih lanjut, lihat Apa yang harus saya lakukan jika shard tidak merata didistribusikan pada node dalam kluster Elasticsearch?.
Untuk mencegah penggunaan disk tinggi memengaruhi layanan Elasticsearch, kami sarankan mengaktifkan pemantauan dan peringatan penggunaan disk. Periksa pemberitahuan peringatan segera dan ambil tindakan pencegahan. Untuk informasi lebih lanjut, lihat Lihat metrik dan tangani pengecualian. Saat penggunaan disk node melebihi ambang batas tertentu, kluster terpengaruh sebagai berikut:
Melebihi 85%: Shard baru tidak dapat dialokasikan.
Melebihi 90%: ES mencoba memigrasikan shard dari node yang bersangkutan ke data node lain dengan penggunaan disk lebih rendah.
Jika penggunaan disk melebihi 95%, sistem secara paksa mengatur atribut read_only_allow_delete pada semua indeks di kluster Elasticsearch. Akibatnya, data tidak dapat ditulis ke indeks. Anda hanya dapat membaca atau menghapus indeks.
Saya melihat dari pemantauan atau menerima peringatan bahwa penggunaan memori ES terlalu tinggi. Apa yang harus saya lakukan?
Penyebab umum dan solusi yang sesuai adalah sebagai berikut.
Penyebab umum | Solusi |
Cache kluster mengonsumsi memori. | Dalam jangka pendek, Anda dapat menjalankan perintah |
Aktivitas tulis berlebihan. | Hentikan operasi baca dan tulis, instal plug-in pembatas laju, dan aktifkan pembatas laju kluster. Untuk petunjuk detail, lihat Gunakan plug-in pembatas laju kluster (aliyun-qos). |
Indeks yang tidak perlu mengonsumsi memori. | Hapus indeks yang tidak perlu untuk melepaskan sumber daya. Anda dapat mengatur periode retensi untuk indeks pemantauan, terutama yang memiliki awalan .monitoring-*. Untuk informasi lebih lanjut, lihat Konfigurasi log Pemantauan. |
Satu node memiliki penggunaan memori tinggi dan distribusi shard tidak merata. | Optimalkan beban shard. Atur jumlah total primary dan replica shard menjadi kelipatan bulat dari jumlah data node di kluster. Untuk informasi lebih lanjut, lihat Apa yang harus saya lakukan jika distribusi shard tidak merata?. |
Kueri abnormal, seperti kueri yang berisi rangkaian panjang karakter khusus dari aplikasi klien. | Untuk mendapatkan informasi tentang tugas kueri yang memakan waktu, Anda dapat menjalankan perintah |
Bagaimana cara menyesuaikan distribusi shard yang tidak merata?
Kami sarankan menugaskan ulang dan merencanakan shard Anda dengan baik. Pastikan jumlah total primary dan replica shard merupakan kelipatan bulat dari jumlah data node di kluster. Praktik ini mendistribusikan data secara merata di setiap data node dan mencegah beban tinggi pada satu node akibat distribusi yang tidak merata. Berikut adalah contoh alokasi primary dan replica shard:
Jika kluster memiliki 3 data node, Anda dapat mengatur jumlah primary shard menjadi 3 dan jumlah replica shard menjadi 1. Konfigurasi ini menghasilkan total 6 shard.
Jika kluster memiliki 8 data node, Anda dapat mengatur jumlah primary shard menjadi 4 dan jumlah replica shard menjadi 1, untuk total 8 shard. Atau, Anda dapat mengatur jumlah primary shard menjadi 8 dan jumlah replica shard menjadi 1, untuk total 16 shard.
Setelah Anda menyesuaikan jumlah shard, Anda harus melakukan reindex indeks Anda selama jam sepi untuk menerapkan perubahan pada data yang sudah ada. Meskipun peningkatan jumlah replica shard meningkatkan ketersediaan dan kinerja kueri kluster Elasticsearch, hal ini juga meningkatkan penggunaan memori kluster.
Jumlah shard dan ukuran setiap shard berkontribusi pada stabilitas dan kinerja kluster Elasticsearch. Anda harus merencanakan shard dengan baik untuk semua indeks di kluster Elasticsearch. Hal ini mencegah jumlah shard yang berlebihan menurunkan kinerja kluster, yang dapat menjadi masalah dalam skenario bisnis kompleks. Untuk informasi lebih lanjut tentang perencanaan shard, lihat Evaluasi shard.
Distribusi shard yang tidak merata dapat menyebabkan beban kluster yang tidak seimbang. Anda dapat memeriksa distribusi shard yang tidak merata dengan cara berikut:
Rujuk Deskripsi metrik dan saran troubleshooting. Jika CPU, memori, atau beban disk pada node tinggi, ini menunjukkan bahwa shard tidak merata didistribusikan.
Jalankan perintah
GET _cat/shards?vuntuk melihat informasi shard indeks. Jika banyak shard suatu indeks berada di node dengan beban tinggi, ini menunjukkan distribusi shard yang tidak merata.
Beban kluster tinggi, dan log utama melaporkan error "java.lang.StackOverflowError for the entire cluster". Apa yang harus saya lakukan?
Error stack overflow ini terjadi karena jumlah data yang ditulis ke stack oleh Lucene melebihi batas. Masalah ini disebabkan oleh kueri berbasis ekspresi reguler dan pencocokan kabur. Masalah ini diperbaiki di Elasticsearch V6.0 dan versi yang lebih baru. Kami sarankan Anda meng-upgrade versi kluster Anda atau mengoptimalkan kueri Anda sesegera mungkin. Untuk informasi lebih lanjut, lihat java.lang.StackOverflowError for the entire cluster.
Bagaimana cara menanyakan jumlah memori aktual yang dialokasikan oleh konfigurasi JVM?
Anda dapat menjalankan perintah GET _nodes/stats/jvm?pretty untuk melihat nilai ini. Secara default, nilai ini adalah setengah dari memori kluster dan tidak dapat dimodifikasi.
Permasalahan kueri dan penulisan kluster
Bagaimana cara menyesuaikan ukuran antrian?
Anda dapat menyesuaikan ukuran antrian dengan mengatur parameter thread_pool.write.queue_size dalam konfigurasi YML. Untuk informasi lebih lanjut, lihat Konfigurasi parameter YML. Sebelum menyesuaikan parameter ini, Anda dapat menjalankan perintah GET /_cat/thread_pool?v untuk memeriksa penggunaan antrian saat ini.
Untuk kluster Elasticsearch yang versinya lebih lama dari 6.0, Anda harus menggunakan parameter thread_pool.index.queue_size.
Bagaimana cara menanyakan atau mengekspor data dari periode waktu tertentu?
Untuk menanyakan data dari periode waktu tertentu di Elasticsearch, Anda dapat menggunakan kueri rentang. Untuk informasi lebih lanjut, lihat Kueri rentang.
Untuk mengekspor data dari periode waktu tertentu, Anda dapat menggunakan Logstash untuk memfilter data. Untuk informasi lebih lanjut, lihat File konfigurasi Logstash.
Apakah ada batasan kuantitas untuk operasi bulk insert ES?
Secara default, volume data pengiriman bulk tidak boleh melebihi 100 MB (untuk informasi lebih lanjut, lihat Pengaturan HTTP). Jika Anda melebihi batas ini, Anda dapat menyesuaikan jumlah data yang Anda tulis dalam setiap permintaan. Volume data setiap permintaan tulis adalah jumlah dokumen dikalikan dengan ukuran satu dokumen. Namun, jumlah dokumen saja bukan cara yang akurat untuk memperkirakan volume data karena volume juga tergantung pada ukuran dan kompleksitas setiap dokumen. Jika dokumen individual Anda besar, Anda dapat mengurangi jumlah dokumen dalam setiap permintaan. Kami sarankan mulai menguji dengan volume data 5 MB hingga 15 MB per permintaan tulis. Untuk metode tuning spesifik, lihat Dokumentasi Menggunakan dan Mengukur Permintaan Bulk.
Ada selisih waktu antara hasil kueri Elasticsearch dan waktu aktual. Apa yang harus saya lakukan?
Secara default, Elasticsearch menggunakan Coordinated Universal Time (UTC), yang mungkin berbeda dari zona waktu lokal Anda. Karena Elasticsearch tidak mendukung penyesuaian zona waktu, Anda harus menangani konversi waktu secara manual. Anda dapat menggunakan salah satu metode berikut untuk menyelesaikan selisih waktu:
Saat menanyakan data bertipe tanggal, Anda dapat menentukan zona waktu atau menggunakan timestamp. Untuk informasi lebih lanjut, lihat Parameter untuk <field>.
Saat menulis data waktu, Anda dapat menentukan zona waktu. Misalnya,
"time" : "2022-07-15T12:58:17.136+0800"(UTC+8).Anda dapat menggunakan Kibana untuk menampilkan data. Saat Kibana mengambil bidang bertipe tanggal dari Elasticsearch, Kibana menggunakan JavaScript untuk menentukan zona waktu lokal browser. Kemudian, Kibana mengonversi nilai waktu di bidang tersebut dari UTC ke zona waktu browser dan menampilkan hasilnya. Untuk informasi lebih lanjut, lihat Bagaimana cara mengubah zona waktu untuk visualisasi data di konsol Kibana?.
Jika Anda menyinkronkan data dengan Logstash dan terdapat selisih waktu 8 jam, Anda harus menambahkan offset waktu yang sesuai ke konfigurasi pipeline secara manual. Misalnya:
filter{ ruby{ code => "event.set('update_time', event.get('update_time').time.localtime + 8*60*60)" } }.
Kueri kluster ES mengembalikan hasil setelah waktu lama, atau sama sekali tidak mengembalikan hasil. Apa yang harus saya lakukan?
Kueri yang membutuhkan waktu lama untuk mengembalikan hasil atau gagal mengembalikan hasil apa pun dianggap sebagai kueri lambat. Anda dapat melihat log kueri lambat di konsol untuk menyelidiki. Untuk informasi lebih lanjut, lihat Log Kueri Lambat. Untuk mengidentifikasi penyebabnya, rujuk Lihat metrik dan tangani pengecualian. Tabel berikut menjelaskan penyebab umum dan solusinya.
Penyebab umum | Solusi |
Beban shard tidak seimbang. | Anda dapat mengoptimalkan beban shard dengan memastikan bahwa jumlah total primary dan replica shard merupakan kelipatan bulat dari jumlah data node di kluster. Untuk informasi lebih lanjut, lihat Apa yang harus saya lakukan jika shard tidak merata didistribusikan pada node dalam kluster Elasticsearch?. |
Kluster memiliki sumber daya yang tidak mencukupi. | Jika Anda menjalankan kueri yang mengonsumsi sumber daya pada kluster, kami sarankan mengoptimalkan pernyataan kueri atau meng-upgrade konfigurasi kluster. Contohnya termasuk kueri agregasi, term, skrip, dan pencocokan kabur. Untuk informasi lebih lanjut tentang meng-upgrade kluster Elasticsearch, lihat Upgrade kluster. Catatan Kesehatan kluster Elasticsearch memengaruhi kinerja kuerinya. Kinerja optimal saat penggunaan memori di bawah 80% dan beban node seimbang. |
Error "Data too large... which is larger than the limit of" dilaporkan saat menulis ke kluster. Apa yang harus saya lakukan?
Penyebab
Volume tulis terlalu tinggi, yang memicu circuit breaker. Sumber daya kluster tidak mencukupi untuk menangani volume permintaan tulis saat ini.
Solusi
PentingJika Anda tidak dapat melakukan operasi berikut, Anda perlu menghentikan semua operasi kueri dan tulis, lalu melakukan force restart kluster. Setelah kluster kembali ke status normal, lakukan operasi yang diperlukan.
Jalankan perintah
POST /index_name/_cache/clear?fielddata=trueuntuk membersihkan cache indeks. Jika ini tidak menyelesaikan masalah, lanjutkan ke langkah berikutnya.Jalankan perintah
GET /_cat/indices?vuntuk memeriksa apakah shard tidak merata didistribusikan di node-node dalam kluster. Untuk informasi lebih lanjut, lihat Apa yang harus saya lakukan jika shard tidak merata didistribusikan pada node dalam kluster Elasticsearch?. Jika masalah tetap ada, lanjutkan ke langkah berikutnya.Kurangi tulis konkuren, hapus indeks yang tidak perlu untuk melepaskan sumber daya, dan kurangi penggunaan pemantauan Kibana.
Untuk menonaktifkan pemantauan Kibana, jalankan perintah berikut:
PUT _cluster/settings { "persistent": { "xpack.monitoring.collection.enabled": false } }Jika ini tidak menyelesaikan masalah, lanjutkan ke langkah berikutnya.
Tingkatkan kapasitas kluster dengan meng-upgrade kluster.
Apakah ES mendukung penghapusan indeks secara batch?
Ya. Anda harus mengonfigurasi parameter YML dengan mengatur Index Naming Rule For Deletion ke Allow Wildcards. Setelah kluster direstart, Anda dapat menggunakan karakter wildcard untuk menghapus indeks secara batch. Untuk informasi lebih lanjut, lihat Konfigurasi parameter YML.
Indeks yang dihapus tidak dapat dipulihkan. Gunakan konfigurasi ini dengan hati-hati.
Saat membuat indeks baru, kadang-kadang muncul error "index uuid conflicted", dan dokumen indeks tidak dapat ditulis. Apa yang harus saya lakukan?
Ini adalah masalah yang diketahui. Untuk menyelesaikannya, upgrade versi kernel instans ke 1.5.0 atau lebih baru. Untuk informasi lebih lanjut, lihat Upgrade versi instans.
Bagaimana cara mengubah index.max_result_window (jumlah maksimum dokumen untuk kueri terpaginasi)?
Nilai default parameter ES index.max_result_window adalah 10000. Parameter ini menentukan jumlah maksimum dokumen (`from` + `size`) yang dapat dikembalikan untuk kueri terpaginasi. Jika kueri melebihi nilai ini, error berikut dilaporkan: Result window is too large, from + size must be less than or equal to: [10000].
Untuk skenario pencarian yang memerlukan deep paging, Anda mungkin perlu meningkatkan nilai parameter index.max_result_window. Anda dapat menjalankan perintah berikut untuk mengubah nilai index.max_result_window sesuai kebutuhan Anda. Nilai dalam perintah hanya sebagai referensi. Pengaturan parameter ini tetap berlaku setelah restart kluster Elasticsearch.
PUT /my_index/_settings
{
"index": {
"max_result_window": 50000
}
}Jika kueri mengembalikan banyak hasil, kami sarankan tidak menggunakan parameter from dan size untuk melakukan deep paging karena operasi ini mengonsumsi banyak sumber daya CPU dan memori. Untuk skenario deep paging, kami sarankan menggunakan scroll atau search after sebagai gantinya.
Error dilaporkan saat memperbarui data ES: "Rejecting mapping update to [] as the final mapping would have more than 1 type". Apa yang harus saya lakukan?
Error ini terjadi ketika tipe yang ditentukan dalam operasi pembaruan berbeda dari tipe indeks aslinya. Karena indeks ES tidak dapat memiliki lebih dari satu tipe, Anda harus menggunakan tipe yang sama dengan indeks aslinya saat memperbarui data.
Di Elasticsearch 7.0 dan versi yang lebih baru, definisi tipe dihapus dari pemetaan dan tipe diatur ke _doc.
Bagaimana cara menanyakan konten detail dokumen dalam suatu indeks?
Anda dapat login ke konsol Kibana dan menjalankan perintah berikut:
GET _search
{
"query": {
"match_all": {}
}
}Anda juga dapat menggunakan alat Discover di Kibana untuk melihat dokumen setelah membuat pola indeks. Untuk informasi lebih lanjut, lihat Panduan Kibana.
Permasalahan konfigurasi dan perubahan kluster
Sebelum menggunakan ES, bagaimana cara merencanakan sumber daya dan spesifikasi kluster, serta ukuran dan jumlah shard dengan tepat?
Anda juga dapat merujuk Evaluasi spesifikasi dan kapasitas penyimpanan.
Bagaimana cara melihat parameter konfigurasi instans ES?
Anda dapat melihat parameter konfigurasi di halaman Informasi Dasar instans. Untuk informasi lebih lanjut, lihat Lihat informasi dasar instans.
Saat Anda menggunakan Transport Client untuk mengakses instans ES, atur parameter cluster.name ke ID instans. Untuk informasi lebih lanjut, lihat Transport Client (5.x).
Apakah mengubah konfigurasi kluster memengaruhi layanan ES?
Memodifikasi konfigurasi kluster memicu rolling restart. Jika status kluster Normal (hijau), setiap indeks memiliki minimal satu replika, dan utilisasi sumber daya tidak berlebihan, kluster dapat terus memberikan layanan selama restart. Anda dapat melihat utilisasi sumber daya di halaman Pemantauan Kluster. Misalnya, utilisasi sumber daya tidak dianggap berlebihan jika utilisasi CPU node sekitar 80%, utilisasi heap memori node sekitar 50%, dan load_1m node lebih rendah dari jumlah core CPU data node. Namun, kami sarankan memodifikasi konfigurasi kluster selama jam sepi.
Setelah mengubah jumlah node, apakah kluster secara otomatis menyeimbangkan ulang shard?
Ya. Saat jumlah node dalam kluster Elasticsearch berubah, sistem secara otomatis mengalokasikan ulang shard. Namun, proses realokasi ini tidak menjamin distribusi shard yang merata di node. Faktor-faktor seperti ukuran indeks, jumlah shard, dan jumlah node dapat menyebabkan data tetap tidak merata didistribusikan. Untuk informasi lebih lanjut tentang troubleshooting dan menyelesaikan beban kluster yang tidak seimbang, lihat Beban kluster yang tidak seimbang.
Apakah instans ES mendukung perubahan tipe disk?
Ya. Saat menurunkan tipe disk, jalur kinerja penyimpanan yang didukung adalah dari SSD Perusahaan ke SSD standar, lalu ke disk ultra. Saat meningkatkan tipe disk, jalurnya adalah dari disk ultra ke SSD standar, lalu ke SSD Perusahaan.
Apakah ES mendukung mengubah tipe node lain menjadi cold data node?
Tidak. Tindakan ini dapat menyebabkan instans Anda menjadi tidak stabil. Untuk informasi lebih lanjut, lihat Arsitektur “Hot-Warm” di Elasticsearch 5.x.
Setelah meningkatkan spesifikasi instans, dapatkah saya menurunkan konfigurasinya, dan bagaimana caranya?
Ya, Anda dapat menurunkan spesifikasi konfigurasi. Untuk informasi selengkapnya, lihat Mengurangi jumlah node data kluster atau Menurunkan spesifikasi kluster.
Jika terjadi lonjakan volume bisnis sementara, bagaimana cara mengubah konfigurasi kluster untuk memastikan operasi bisnis berjalan normal?
Jika terjadi lonjakan volume bisnis sementara, kami sarankan terlebih dahulu melakukan scale out node (Upgrade kluster) lalu melakukan scale in data node (Scale in data node kluster). Perubahan ini memerlukan restart kluster agar berlaku. Sebelum restart, pastikan kondisi berikut terpenuhi:
Status instans normal (hijau).
Setiap indeks memiliki minimal satu replika dan utilisasi sumber daya tidak terlalu tinggi. Anda dapat memverifikasi ini di halaman pemantauan kluster. Misalnya, utilisasi CPU node sekitar 80%, utilisasi heap memori node sekitar 50%, dan load_1m node lebih rendah dari jumlah core CPU data node.
Saat melakukan upgrade kluster, muncul prompt "UpgradeVersionMustFromConsole". Apa yang harus saya lakukan?
Masalah ini terjadi karena jalur upgrade tidak didukung. ES Alibaba Cloud hanya mendukung upgrade dari versi 5.5.3 ke 5.6.16, dari 5.6.16 ke 6.3.2, dan dari 6.3.2 ke 6.7.0.
Berapa lama waktu yang dibutuhkan untuk meng-upgrade versi ES?
Waktu yang dibutuhkan untuk upgrade tergantung pada ukuran data, struktur data, dan spesifikasi kluster. Proses ini biasanya memakan waktu sekitar satu jam.
Apakah meng-upgrade versi ES memengaruhi layanan kluster?
Saat Anda meng-upgrade kluster Elasticsearch, Anda masih dapat membaca dan menulis ke kluster, tetapi Anda tidak dapat melakukan perubahan lain. Kami sarankan melakukan upgrade selama jam sepi. Untuk informasi lebih lanjut tentang prosedur dan tindakan pencegahan upgrade, lihat Upgrade versi kluster.
Error atau timeout terjadi saat meng-upgrade kluster. Apa yang harus saya lakukan?
Masalah ini biasanya terjadi karena kluster berada dalam status abnormal. Dalam kasus ini, hentikan semua operasi kueri dan tulis, lalu troubleshooting masalah dengan mengikuti petunjuk di Apa yang harus saya lakukan jika kluster Elasticsearch berada dalam status merah karena beban berat?. Setelah kluster pulih ke status normal, coba upgrade konfigurasi lagi. Atau, Anda dapat mengabaikan status kesehatan kluster dan melakukan upgrade paksa. Namun, upgrade paksa dapat mengganggu layanan ES. Lakukan dengan hati-hati.
Untuk masalah upgrade lainnya, Anda perlu melakukan troubleshooting dan menyelesaikannya berdasarkan pesan error.
Konfigurasi kluster tidak dapat diubah. Apa yang harus saya lakukan?
Untuk troubleshooting masalah ini, lakukan langkah-langkah berikut:
Periksa apakah node kluster Anda menggunakan disk lokal. Perubahan konfigurasi tidak didukung untuk node yang menggunakan disk lokal. Untuk meng-upgrade spesifikasi node, Anda harus terlebih dahulu mengubah tipe disk.
Jika validasi frontend menunjukkan persediaan tidak mencukupi, coba ubah konfigurasi di zona berbeda atau tunggu pengguna lain melepas instans di zona saat ini.
Jika validasi frontend menunjukkan status kluster tidak sehat, periksa apakah ada indeks dalam status tertutup dan sementara ubah statusnya menjadi terbuka. Jika status kluster merah, periksa masalah seperti node offline atau shard yang tidak ditugaskan, dan selesaikan masalah kluster tersebut terlebih dahulu.
Periksa apakah kluster memenuhi kondisi berikut untuk downgrade:
CPU dan memori spesifikasi node target untuk downgrade harus minimal separuh dari spesifikasi saat ini. Anda tidak dapat menurunkan spesifikasi node ke 1-core 2 GiB, 2-core 2 GiB, 2-core 4 GiB, atau 4-core 4 GiB.
CatatanUntuk menurunkan ke instans 2-core 4 GiB atau 4-core 4 GiB, buat instans baru dengan spesifikasi yang diinginkan dan migrasikan data ke instans tersebut menggunakan metode migrasi data, seperti Logstash.
Anda hanya dapat menurunkan kluster jika bebannya memenuhi persyaratan. Untuk informasi lebih lanjut tentang batasan dan tindakan pencegahan downgrade, lihat Downgrade kluster.
Anda tidak dapat mengurangi kapasitas disk selama downgrade.
Dapatkah saya menyesuaikan nilai http.max_content_length dan discovery.zen.ping_timeout dalam konfigurasi file YML kluster?
Tidak. Anda hanya dapat mengonfigurasi parameter yang disediakan oleh Alibaba Cloud Elasticsearch. Untuk informasi lebih lanjut, lihat Konfigurasi parameter YML.
Parameter discovery.zen.ping_timeout, discovery.zen.fd.ping_timeout, discovery.zen.fd.ping_interval, dan discovery.zen.fd.ping_retries biasanya tidak perlu disesuaikan.
Dapatkah saya mengganti VPC instans ES?
Anda tidak dapat mengganti VPC untuk instans ES. Sebagai solusi alternatif, Anda dapat membeli instans ES baru di VPC yang diinginkan, migrasikan data Anda, lalu melepas instans asli.
Apakah mengubah tipe disk instans ES menyebabkan kehilangan data yang ada?
Tidak, data yang ada tidak akan hilang. Namun, data baru yang ditulis ke kluster selama upgrade mungkin hilang. Kami sarankan melakukan upgrade selama jam sepi atau setelah menghentikan penulisan data ke kluster. Untuk informasi lebih lanjut, lihat Upgrade kluster.
Saat melakukan upgrade kluster, muncul prompt "cluster unhealthy", tetapi status kluster dikonfirmasi sebagai Green. Apa yang harus saya lakukan?
Masalah ini dapat terjadi jika beberapa indeks dalam kluster berada dalam status tertutup. Anda dapat menjalankan perintah POST /<index_name>/_open untuk sementara membuka indeks tersebut. Untuk informasi lebih lanjut, lihat Upgrade kluster.
Dapatkah ES langsung meng-upgrade CPU untuk menghindari migrasi data?
Tidak. Meng-upgrade atau menurunkan CPU memicu perubahan blue-green, yang memigrasikan data dari node lama ke node baru dan mengubah alamat IP node.
Mengapa cold data node tidak dapat diturunkan spesifikasinya?
Anda hanya dapat menurunkan kluster jika kondisi tertentu terpenuhi. Misalnya, CPU dan memori spesifikasi target yang dipilih harus minimal separuh dari spesifikasi saat ini, dan Anda tidak dapat menurunkan spesifikasi node ke 1 core dan 2 GiB memori, 2 core dan 2 GiB memori, 4 core dan 4 GiB memori, atau 2 core dan 4 GiB memori. Untuk informasi lebih lanjut, lihat Downgrade kluster.
Jika kondisi untuk downgrade konfigurasi tidak terpenuhi, Anda dapat membuat instans baru, migrasikan data, lalu melepas kluster asli. Untuk informasi lebih lanjut, lihat Pilih solusi migrasi data.
Saat melakukan scale-in data node kluster, muncul error "This operation will cause the current cluster resources (Disk/CPU/Memory) to be insufficient or cause shard allocation abnormalities". Apa yang harus saya lakukan?
Kemungkinan penyebab | Solusi |
Sumber daya kluster tidak mencukupi. Setelah operasi scale-in, kluster memiliki sumber daya yang tidak mencukupi, seperti disk, memori, dan CPU, untuk menangani data atau beban sistem saat ini. | Anda dapat menjalankan perintah |
Error alokasi shard. Berdasarkan prinsip Lucene, Elasticsearch tidak mengalokasikan beberapa replica shard dari indeks yang sama ke satu data node. Akibatnya, jika operasi scale-in menyebabkan jumlah replika untuk suatu indeks lebih besar dari atau sama dengan jumlah data node yang tersisa, terjadi error alokasi shard. | Anda dapat menjalankan perintah |
Saat melakukan scale-in data node kluster, muncul error "The cluster is currently in an abnormal state or has unfinished tasks". Apa yang harus saya lakukan?
Anda dapat menggunakan fitur Diagnosis Kluster untuk mendiagnosis kluster dan melakukan troubleshooting berdasarkan hasil diagnosis dan saran yang diberikan. Untuk informasi lebih lanjut, lihat Lakukan diagnosis pada kluster Elasticsearch.
Saat melakukan scale-in data node kluster, muncul error "The number of reserved nodes must be greater than 2". Apa yang harus saya lakukan?
Untuk memastikan keandalan dan stabilitas kluster, minimal dua data node harus tetap tersisa setelah operasi scale-in. Untuk kluster multi-zona, setiap zona juga harus mempertahankan minimal dua data node, dan semua zona harus memiliki jumlah data node yang tersisa sama. Jika rencana scale-in Anda tidak memenuhi persyaratan ini, Anda harus menyesuaikan jumlah node yang akan dihapus, atau meng-upgrade kluster.
Saat melakukan scale-in data node kluster, muncul error "The current ES cluster configuration does not support this operation". Apa yang harus saya lakukan?
Jalankan perintah GET _cluster/settings untuk melihat konfigurasi kluster dan periksa pengaturan yang melarang alokasi data: "cluster.routing.allocation.enable" : "none". Jika pengaturan ini ada, Anda dapat sementara mengubahnya menjadi "cluster.routing.allocation.enable" : "all". Jika konfigurasi ini memengaruhi operasi lain, Anda harus mengembalikannya setelah scale-in selesai.
Penggunaan indeks auto_expand_replicas menyebabkan migrasi data atau scale-in node gagal. Apa yang harus saya lakukan?
Penyebab
Masalah ini dapat terjadi jika Anda menggunakan fitur manajemen izin X-Pack. Di versi sebelumnya, indeks .security yang sesuai menggunakan konfigurasi
"index.auto_expand_replicas" : "0-all"secara default, yang menyebabkan migrasi data atau scale-in node gagal.Solusi
Lihat konfigurasi indeks.
GET .security/_settingsOutput berikut dikembalikan:
{ ".security-6" : { "settings" : { "index" : { "number_of_shards" : "1", "auto_expand_replicas" : "0-all", "provided_name" : ".security-6", "format" : "6", "creation_date" : "1555142250367", "priority" : "1000", "number_of_replicas" : "9", "uuid" : "9t2hotc7S5OpPuKEIJ****", "version" : { "created" : "6070099" } } } } }Modifikasi konfigurasi menggunakan salah satu metode berikut:
Metode 1
PUT .security/_settings { "index" : { "auto_expand_replicas" : "0-1" } }Metode 2
PUT .security/_settings { "index" : { "auto_expand_replicas" : "false", "number_of_replicas" : "1" } }PentingParameter number_of_replicas menentukan jumlah replika untuk suatu indeks. Anda dapat mengonfigurasi parameter ini sesuai kebutuhan. Pastikan nilainya minimal 1 dan tidak lebih dari jumlah data node yang tersedia.
Bagaimana cara membersihkan cache ES?
Anda dapat login ke konsol Kibana dan menjalankan perintah berikut:
Bersihkan cache untuk indeks tertentu
POST /<index_name>/_cache/clear?fielddata=trueBersihkan semua cache
POST /_cache/clear
Bagaimana cara mengubah zona kluster ES?
Untuk prosedurnya, rujuk Migrasikan node Elasticsearch di zona atau upgrade mode penyebaran kluster Elasticsearch.
Apakah kluster ES mendukung ekspansi disk independen?
Ya. Untuk informasi lebih lanjut, lihat Upgrade kluster.
Scale out memicu rolling restart kluster. Kami sarankan melakukan operasi ini selama jam sepi.
Apakah ES mendukung modifikasi parameter JVM?
Alibaba Cloud Elasticsearch menggunakan pengaturan parameter JVM yang direkomendasikan oleh Elasticsearch resmi. Pengaturan ini tidak dapat dimodifikasi. Secara default, ukuran heap diatur ke separuh memori kluster, hingga maksimal 32 GB. Untuk informasi lebih lanjut, lihat Pengaturan ukuran heap.
Permasalahan plug-in, tokenizer, dan sinonim
Saat menggunakan tokenizer IK, bagaimana cara menyesuaikan dan memperluas konten kamus?
Anda dapat menambah atau menghapus kata dalam kamus menggunakan fitur pembaruan dingin dan panas plug-in analisis IK untuk ES Alibaba Cloud. Untuk informasi lebih lanjut, lihat Gunakan plug-in analysis-ik.
Saat menggunakan plug-in analisis IK, muncul error "ik startOffset". Apa yang harus saya lakukan?
Error ini disebabkan oleh bug di ES 6.7. Untuk menyelesaikannya, restart kluster Anda. Untuk informasi lebih lanjut, lihat Restart instans atau node.
Jika file kamus lokal IK hilang, dapatkah dipulihkan dari halaman manajemen kluster?
Tidak. Anda hanya dapat menghapus atau memperbarui file kamus di halaman manajemen kluster. Kami sarankan mengunduh file kamus utama dan stopword resmi, mengganti token utama dan stopword dalam file dengan kata benda dari kamus sistem Anda, lalu mengunggah ulang file tersebut.
Setelah memperbarui kamus tokenizer IK, bagaimana cara membuat kamus baru berlaku untuk data yang sudah ada?
Anda harus melakukan operasi reindex. Secara default, kamus tokenizer IK yang diperbarui hanya berlaku untuk data baru. Untuk menerapkan pembaruan kamus pada data yang sudah ada dalam indeks, Anda harus melakukan operasi reindex. Untuk informasi lebih lanjut, lihat Konfigurasi daftar putih reindex.
Apakah ada nilai standar untuk FullGC?
Untuk menentukan apakah peristiwa FullGC (membersihkan seluruh ruang heap) bermasalah, Anda harus menganalisis latensi bisnis dan membandingkan kondisi historis dengan kondisi saat ini. Pengumpul sampah CMS memulai pengumpulan sampah saat penggunaan memori mencapai 75%. Hal ini menyisakan ruang yang cukup untuk menangani lonjakan lalu lintas mendadak.
Dapatkah plug-in yang tidak digunakan di-uninstall?
Hanya beberapa plug-in yang dapat di-uninstall. Anda dapat melihat plug-in mana saja yang dapat di-uninstall di tab Plug-in Bawaan halaman Plug-in untuk kluster Elasticsearch Anda. Plug-in dapat di-uninstall jika Remove ditampilkan di kolom Actions. Untuk informasi lebih lanjut, lihat Instal dan hapus plug-in bawaan.
Apakah kamus plug-in analisis IK ES Alibaba Cloud dan plug-in IK open source sama?
Ya. Kamus bawaan untuk plug-in analisis IK ES Alibaba Cloud sama dengan kamus untuk versi plug-in analisis IK open-source yang sesuai. Untuk informasi lebih lanjut, lihat Analisis IK untuk Elasticsearch.
Dapatkah plug-in kustom mengakses jaringan eksternal, misalnya untuk membaca file kamus dari GitHub?
Plug-in kustom tidak dapat mengakses jaringan eksternal. Untuk mengakses file eksternal, Anda dapat mengunggahnya ke OSS dan membacanya dari sana.
Apakah plug-in kustom mendukung hot update?
Tidak. Namun, Anda dapat mengaktifkan fitur ini dengan mengonfigurasi plug-in untuk menggunakan metode hot update yang sama seperti kamus IK. Untuk informasi lebih lanjut, lihat Analisis IK untuk Elasticsearch.
Bagaimana konfigurasi tokenizer analysis-aliws, dan format filenya seperti apa?
Untuk informasi lebih lanjut, lihat Gunakan plug-in tokenizer AliNLP (analysis-aliws).
Persyaratan file kamus adalah sebagai berikut:
Nama file: Harus aliws_ext_dict.txt.
Format file: Harus UTF-8.
Konten: Satu kata per baris, tanpa spasi di awal atau akhir. Gunakan line feed UNIX atau Linux (\n). Jika file dihasilkan di Windows, gunakan alat dos2unix di mesin Linux untuk mengonversi file kamus sebelum mengunggah.
Apa perbedaan antara sinonim ES, tokenisasi IK, dan tokenisasi AliNLP?
Tipe Tokenizer | Penggunaan | Deskripsi Fitur | Tipe File yang Didukung | Tokenizer atau alat analisis |
Sinonim | Unggah file sinonim di modul konfigurasi kluster untuk digunakan. | Tulis beberapa sinonim dalam file. Saat Anda menanyakan salah satunya, yang lain juga akan ditampilkan. | File TXT berkode UTF-8 | Kustom |
Tokenisasi IK | Melalui plug-in analysis-ik. | Sistem membagi paragraf berdasarkan file main.dic. Jika Anda mengirim kueri yang berisi satu atau beberapa kata yang dibagi dari paragraf, sistem mengembalikan seluruh paragraf dalam hasil kueri. Sistem juga menggunakan file stopword stop.dic. Setelah paragraf dibagi, kata-kata yang ditemukan dalam file stop.dic difilter. Anda dapat melihat file kamus ini di dokumentasi resmi. | File DIC berkode UTF-8 | Tokenizer:
|
Tokenisasi AliNLP | Melalui plug-in analysis-aliws. | Mirip dengan tokenisasi IK, tetapi tidak menyertakan file stopword terpisah. Stopword diintegrasikan ke dalam file kamus utama: aliws_ext_dict.txt, dan kamus ini tidak tersedia untuk umum. Stopword kustom saat ini tidak didukung. | Nama file harus: aliws_ext_dict.txt, berkode UTF-8 |
|
Di mana mode tokenisasi IK ES dikonfigurasi?
Plug-in analysis-ik adalah alat analisis IK bawaan yang disediakan oleh ES Alibaba Cloud dan tidak dapat dihapus. Anda dapat menggunakan metode standar atau rolling update untuk memperbarui kamus utama dan daftar stopword bawaan plug-in. Anda kemudian dapat menggunakan kamus dan daftar stopword yang diperbarui saat mengonfigurasi pemetaan untuk indeks. Untuk informasi lebih lanjut tentang cara menggunakan plug-in analysis-ik, lihat Gunakan plug-in analysis-ik.
Tokenizer bahasa Mandarin bawaan apa saja yang didukung oleh ES Alibaba Cloud?
ES Alibaba Cloud mendukung dua tokenizer bahasa Mandarin bawaan: analysis-ik dan analysis-aliws. Anda dapat menggunakan tokenizer ini setelah mengonfigurasi kamus yang sesuai.
Saat melakukan hot-update file kamus melalui OSS, jika konten file kamus di sisi OSS berubah, apakah sisi ES akan diperbarui secara otomatis?
Tidak. ES Alibaba Cloud saat ini tidak mendukung hot update otomatis untuk file kamus dari OSS. Setelah konten file OSS berubah, Anda harus secara manual mengonfigurasi ulang dan mengunggahnya agar perubahan berlaku. Untuk indeks yang sudah dikonfigurasi dengan tokenisasi IK, sinonim, atau tokenisasi AliNLP, pembaruan kamus hanya berlaku untuk data baru. Untuk menerapkan perubahan ke semua data, Anda harus melakukan reindex.
Apakah tokenizer IK yang digunakan oleh ES Alibaba Cloud mendukung kamus jarak jauh?
Tidak. Tokenizer IK yang disediakan oleh ES Alibaba Cloud memungkinkan Anda mengunggah atau memperbarui kamus. Untuk informasi lebih lanjut, lihat Gunakan plug-in analisis IK (analysis-ik). Namun, tokenizer IK tidak mendukung kamus jarak jauh atau konfigurasi terkait, seperti IKAnalyzer.cfg.xml.
Bagaimana cara menginstal plug-in pencarian vektor (aliyun-knn) pada instans ES 7.10 Alibaba Cloud?
Pada instans ES 7.10 Alibaba Cloud, plug-in aliyun-knn diintegrasikan ke dalam plug-in apack bawaan. Oleh karena itu, untuk menginstal atau meng-uninstall plug-in aliyun-knn, Anda harus melakukan operasi pada plug-in apack. Untuk informasi lebih lanjut, lihat Gunakan fitur replikasi fisik plug-in apack. Untuk petunjuk instalasi versi lain, lihat Gunakan plug-in pencarian vektor (aliyun-knn).
Jika versi mesin minor instans adalah 1.4.0 atau lebih baru, plug-in apack sudah merupakan versi terbaru dan tidak perlu diperbarui. Anda dapat menjalankan perintah GET _cat/plugins?v untuk mengambil versi plug-in.
Apakah merestart setelah menginstal plug-in memengaruhi layanan kluster?
Jika beban keseluruhan kluster rendah dan indeks memiliki replica shard, layanan umumnya tetap tersedia selama restart. Namun, dalam beberapa skenario, timeout akses dapat terjadi selama restart. Misalnya, timeout dapat terjadi jika konkurensi tinggi selama restart paksa, beban kluster sangat tinggi, indeks tidak memiliki replica shard, atau terdapat volume operasi tulis dan kueri yang tinggi selama restart. Kami sarankan menerapkan mekanisme retry di sisi klien dan melakukan operasi tersebut selama jam sepi.
Permasalahan log
Apakah ES mendukung pengaturan periode retensi untuk log .security?
Ya. Anda dapat mengonfigurasi ini menggunakan manajemen siklus hidup indeks (ILM). Untuk petunjuk detail, lihat Kelola data Heartbeat menggunakan siklus hidup indeks.
Indeks .security menyimpan informasi terkait akun elastic. Menghapus indeks ini secara berkala dapat mencegah Anda login ke ES.
Bagaimana cara menyimpan log ES secara lokal?
Anda dapat memanggil API ListSearchLog. Untuk informasi lebih lanjut, lihat ListSearchLog.
Saya tidak dapat melihat log kueri dan pembaruan untuk ES. Apa yang harus saya lakukan?
Anda dapat mengonfigurasi slow log dan mengurangi presisi timestamp entri log. Untuk informasi lebih lanjut, lihat Referensi.
Bagaimana cara mengonfigurasi dan melihat slow log untuk instans ES?
Secara default, slow log untuk instans ES mencatat operasi baca dan tulis yang memakan waktu 5 hingga 10 detik. Anda dapat login ke konsol Kibana instans dan menjalankan perintah untuk menurunkan ambang waktu pencatatan. Hal ini memungkinkan Anda menangkap lebih banyak log. Untuk informasi lebih lanjut, lihat dokumen yang dirujuk.
Memodifikasi format slow log tidak didukung.
Bagaimana cara menarik slow log dari instans ES secara berkala melalui pemrograman?
Anda dapat memanggil operasi API ListSearchLog untuk menarik slow log dari instans ES Anda secara berkala. Untuk informasi lebih lanjut, lihat ListSearchLog.
Bagaimana cara mengetahui klien mana saja yang menggunakan instans ES?
Anda dapat melihat log akses atau log audit instans ES Anda:
Untuk melihat informasi tentang operasi pada instans, seperti tambah, hapus, ubah, dan kueri, Anda perlu mengaktifkan log audit.
Aktifkan log akses untuk melihat informasi seperti node kluster dan alamat IP-nya, alamat IP klien, bodySize, konten permintaan, waktu permintaan, dan uri.
Untuk informasi lebih lanjut tentang batasan, tindakan pencegahan, dan cara mengaktifkan log akses dan log audit, lihat Log kueri.
Permasalahan pencadangan dan pemulihan data
Dapatkah snapshot instans ES dipulihkan ke instans versi berbeda?
Untuk pencadangan otomatis, Anda hanya dapat memulihkan snapshot ke instans aslinya, atau Anda dapat menggunakan fitur pemulihan snapshot lintas kluster. Untuk informasi lebih lanjut, lihat Pencadangan dan pemulihan otomatis dan Konfigurasi repositori OSS lintas kluster.
Untuk snapshot manual, Anda dapat langsung memulihkan data dari snapshot ke kluster lain. Kami sarankan menggunakan kluster tujuan dengan versi yang sama dengan kluster aslinya untuk menghindari potensi masalah kompatibilitas. Untuk informasi lebih lanjut, lihat Pencadangan dan pemulihan manual.
Bagaimana cara menyelesaikan status kluster tidak sehat saat mencadangkan data ES untuk upgrade versi di konsol ES Alibaba Cloud?
Jika status kluster ES tidak sehat, Anda tidak dapat memicu pencadangan snapshot. Kami sarankan terlebih dahulu memulihkan status kluster ke hijau.
Saya telah mengaktifkan pencadangan otomatis tetapi belum mengonfigurasi OSS. Apakah ini berarti pencadangan gagal?
ES Alibaba Cloud menyediakan bucket OSS secara default. Untuk mengambil data dari pencadangan otomatis, Login ke konsol Kibana dan jalankan perintah GET _snapshot/aliyun_auto_snapshot/_all di Kibana.
Saat migrasi (pemulihan) data melalui snapshot, tujuan menunjukkan anomali shard. Perintah pemulihan shard POST /_cluster/reroute?retry_failed=true masih gagal, dan indeks yang bersangkutan menunjukkan anomali. Apa yang harus saya lakukan?
Saat Anda migrasi (pemulihan) data dari snapshot, masalah berikut dapat terjadi:

Hapus indeks bermasalah, lalu panggil API _restore untuk memulihkannya. Tambahkan parameter max_restore_bytes_per_sec ke perintah restore untuk membatasi kecepatan pemulihan node. Nilai defaultnya adalah 40 MB per detik.
POST /_snapshot/aliyun_snapshot_from_instanceId/es-cn-instanceId_datetime/_restore
{
"indices": "myIndex",
"settings": {
"max_restore_bytes_per_sec" : "150mb"
}
}Anda juga dapat menentukan parameter lain, seperti:
compress: Menentukan apakah akan mengaktifkan kompresi data. Nilai defaultnya adalah true.
max_snapshot_bytes_per_sec: Menentukan laju snapshot untuk setiap node. Nilai defaultnya adalah 40 MB per detik.
Dapatkah data di ES diekspor ke mesin lokal?
Ya. ES Alibaba Cloud menyediakan fitur pencadangan data. Untuk informasi lebih lanjut, lihat Pencadangan data. Anda dapat mencadangkan data Anda ke OSS lalu mengunduhnya ke mesin lokal dengan mengikuti petunjuk di Unduh objek.
Bagaimana cara memulihkan snapshot lintas kluster?
Anda dapat menggunakan repositori OSS bersama untuk memulihkan data. Untuk informasi lebih lanjut tentang operasi, kondisi, dan tindakan pencegahan, lihat Konfigurasi repositori OSS bersama. Jika Anda ingin migrasi data antar kluster yang termasuk dalam akun Alibaba Cloud yang sama tetapi berada di wilayah berbeda, Anda dapat menggunakan Perintah pencadangan dan pemulihan snapshot. Untuk informasi lebih lanjut tentang solusi migrasi data yang tersedia, lihat Pilih solusi migrasi data.
Solusi pencadangan data apa saja yang ditawarkan oleh ES Alibaba Cloud?
Untuk informasi tentang solusi pencadangan data untuk ES Alibaba Cloud, termasuk skenario penggunaan dan batasannya, lihat Pencadangan Data.
Permasalahan pemantauan dan peringatan kluster
Bagaimana cara mengonfigurasi peringatan X-Pack Watcher?
Untuk informasi tentang cara mengonfigurasi robot DingTalk atau WeCom untuk menerima peringatan X-Pack Watcher, lihat Konfigurasi robot DingTalk untuk menerima peringatan X-Pack Watcher dan Konfigurasi robot WeCom untuk menerima peringatan X-Pack Watcher.
Dengan X-Pack Watcher di ES Alibaba Cloud, Anda dapat melakukan operasi saat kondisi tertentu terpenuhi. Misalnya, Anda dapat mengonfigurasi pemicu untuk secara otomatis mengirim pesan DingTalk saat log error muncul di indeks log. X-Pack Watcher adalah layanan pemantauan dan peringatan berbasis ES.
Muncul peringatan "GC memory allocation failed". Apa yang harus saya lakukan?
Kemungkinan penyebabnya termasuk beban kluster tinggi, jumlah kueri per detik (QPS) tinggi, atau jumlah data yang ditulis besar. Troubleshoot dan selesaikan masalah sebagai berikut:
Beban kluster tinggi: Untuk informasi lebih lanjut, lihat Troubleshooting penggunaan disk kluster tinggi dan masalah read-only.
QPS tinggi atau jumlah data yang ditulis besar: Anda dapat menginstal plug-in pembatasan kluster (aliyun-qos) di kluster Anda untuk menerapkan pembatasan baca dan tulis. Untuk informasi lebih lanjut, lihat Gunakan plug-in pembatasan kluster (aliyun-qos).
CatatanUntuk pengambilan gambar, Anda dapat menginstal plug-in aliyun-knn dan merencanakan kluster dan indeks Anda. Untuk informasi lebih lanjut, lihat Gunakan plug-in aliyun-knn.
Apa arti nilai metrik status kluster?
Metrik ClusterStatus(value) menunjukkan kesehatan kluster. Nilai 0.00 menunjukkan bahwa kluster sehat. Tabel berikut menjelaskan nilai metrik ClusterStatus(value). Untuk informasi lebih lanjut, lihat Lihat metrik dan tangani pengecualian.
Nilai | Arti |
0.00 | Status kluster normal. |
1.00 | Kluster berada dalam status sub-sehat. Replica shard dari satu atau beberapa indeks di kluster saat ini hilang, yang tidak memengaruhi penggunaan berkelanjutan. |
2.00 | Status kluster abnormal. Primary shard dari satu atau beberapa indeks di kluster saat ini hilang (tidak ditugaskan), yang memengaruhi penggunaan normal kluster dan perlu segera diperbaiki. |
Bagaimana cara melihat penggunaan disk ES?
Anda dapat melihat penggunaan disk ES di konsol atau menggunakan pemantauan X-Pack di Kibana. Untuk informasi lebih lanjut, lihat Lihat metrik dan tangani pengecualian dan Konfigurasi log Pemantauan.
Apa yang harus saya lakukan jika muncul error "promotion failed" selama CMS GC?
Error "promotion failed" dapat terjadi di Alibaba Cloud Elasticsearch saat Anda menggunakan pengumpul sampah Concurrent Mark Sweep (CMS). Error ini biasanya menunjukkan bahwa ruang generasi lama tidak mencukupi, yang mencegah objek dipromosikan ke ruang generasi lama. Jika Anda mengalami masalah pengumpulan sampah CMS ini, pertimbangkan solusi berikut:
Pemantauan dan analisis log:
Lihat log pengumpulan sampah (GC) untuk mendapatkan informasi detail. Analisis log untuk menentukan apakah operasi CMS GC atau Full GC sering terjadi dan untuk mengonfirmasi apakah error
CMS GC promotion faileddisebabkan oleh ruang generasi lama yang tidak mencukupi.Login ke halaman kueri log Elasticsearch Alibaba Cloud. Cari catatan log yang berisi
promotion faileduntuk lebih memahami penyebab masalah.
Sesuaikan ukuran memori heap dan pengaturan pengumpul sampah:
Jika versi Elasticsearch Anda adalah 6.7.0 atau lebih baru dan memori data node adalah 32 GB atau lebih besar, kami sarankan mengganti pengumpul sampah ke G1 untuk mengoptimalkan kinerja pengumpulan sampah.
Evaluasi apakah akan menambah memori instans berdasarkan utilisasi sumber daya dan kebutuhan bisnis kluster Anda.
Saran tuning:
Jika masalah terkait memori tetap ada, Anda mungkin perlu mengevaluasi volume data indeks secara keseluruhan, beban kueri, dan konfigurasi sumber daya kluster. Jika perlu, hubungi dukungan teknis Alibaba Cloud untuk panduan tuning profesional.
Apa yang harus saya lakukan jika tidak ada data yang ditampilkan untuk pemantauan dasar?
Permasalahan akses kluster
Bagaimana cara menggunakan klien untuk menghubungkan ke kluster ES Alibaba Cloud, dan bagaimana perbedaannya dengan ES open source?
Anda dapat menghubungkan ke kluster ES Alibaba Cloud menggunakan endpoint internal atau publiknya. Endpoint ini setara dengan endpoint kluster untuk kluster Elasticsearch open source. Untuk informasi lebih lanjut, lihat Gunakan klien untuk mengakses kluster Elasticsearch Alibaba Cloud.
Dapatkah saya menonaktifkan Basic Auth (otentikasi keamanan) saat mengakses instans ES dengan klien?
Tidak. Instans ES menyertakan fitur X-Pack, yang menyediakan Basic Auth sebagai mekanisme otentikasi untuk Kibana. Oleh karena itu, Anda tidak dapat menonaktifkan Basic Auth.
Instans ECS Alibaba Cloud dan instans ES berada dalam VPC yang sama tetapi zona berbeda. Dapatkah instans ECS mengakses instans ES melalui jaringan internal?
Ya. Instans dalam VPC yang sama dapat saling mengakses melalui jaringan internal, terlepas dari zonanya.
Bagaimana cara mengonfigurasi daftar putih akses publik atau privat untuk ES?
Untuk mengakses instans Elasticsearch Alibaba Cloud melalui Internet atau VPC, Anda harus menambahkan alamat IP perangkat Anda ke daftar putih alamat IP publik atau privat untuk instans tersebut. Untuk informasi lebih lanjut, lihat Konfigurasi daftar putih alamat IP publik atau privat untuk instans. Sebelum mengonfigurasi daftar putih alamat IP, perhatikan hal berikut:
Saat mengonfigurasi daftar putih akses publik, Anda harus terlebih dahulu mengaktifkan sakelar endpoint publik, yang secara default dinonaktifkan.
Anda dapat menambahkan maksimal 50 alamat IP atau rentang alamat IP ke daftar putih.
Jika Anda menambahkan rentang alamat IP ke daftar putih, alamat IP yang Anda masukkan harus merupakan alamat IP pertama subnet setelah mask diterapkan.
Anda tidak dapat menambahkan 0.0.0.0/0 ke daftar putih secara bersamaan dengan alamat IP atau rentang alamat IP spesifik lainnya. Tindakan ini akan menyebabkan error. Untuk menambahkan 0.0.0.0/0 untuk tujuan pengujian, Anda harus menambahkannya ke daftar putih sendiri.
Bagaimana cara menghubungkan ke instans ES dari internet?
Anda dapat mengakses instans Elasticsearch melalui internet menggunakan endpoint publiknya. Namun, Anda harus terlebih dahulu mengonfigurasi daftar putih alamat IP publik untuk instans tersebut. Untuk informasi lebih lanjut, lihat Konfigurasi daftar putih alamat IP publik atau privat untuk instans. Untuk menghubungkan, Anda harus menyediakan parameter seperti endpoint, username, dan kata sandi. Untuk informasi lebih lanjut, lihat Akses kluster Elasticsearch Alibaba Cloud menggunakan klien.
Tidak dapat mengakses ES: Failed to establish a new connection: [Errno 61] Connection refused
Berikut adalah kemungkinan penyebab dan solusinya.
Kemungkinan penyebab | Solusi |
Akses jaringan publik tidak tersedia. | Jika Anda mengakses kluster ES menggunakan nama domain publik, lakukan langkah-langkah berikut untuk troubleshooting masalah:
|
Akses jaringan privat tidak tersedia. | Jika Anda mengakses kluster ES menggunakan nama domain privat, lakukan langkah-langkah berikut untuk troubleshooting masalah:
|
Kluster tidak sehat. | Jika Anda tidak dapat mengakses kluster ES meskipun koneksi jaringan normal, periksa status kluster dan selesaikan masalah berdasarkan hasilnya:
|
Apakah mengatur ulang kata sandi memengaruhi akses ES?
Jika Anda mengatur ulang kata sandi untuk akun elastic kluster Elasticsearch di konsol Elasticsearch, hanya akses ke kluster dengan akun tersebut yang terpengaruh. Akses dengan akun lain tidak terpengaruh. Kami sarankan menggunakan akun kustom untuk mengakses kluster Elasticsearch. Akun kustom harus diberikan peran dengan izin yang diperlukan. Untuk informasi lebih lanjut, lihat Gunakan mekanisme RBAC yang disediakan oleh Elasticsearch X-Pack untuk menerapkan kontrol akses.
Mengubah kata sandi tidak memicu restart instans.
Plug-in Elasticsearch-Head versi 5.0.0 tidak dapat mengakses ES Alibaba Cloud (semua versi). Apa yang harus saya lakukan?
Masalah ini biasanya disebabkan oleh pembatasan lintas domain Chrome. Metode berikut menyelesaikan masalah ini untuk Chrome di Mac. Untuk sistem operasi lain, rujuk dokumentasi konfigurasi lintas domain Chrome.
Buat folder kosong.
Buka terminal dan masukkan perintah berikut.
open -n /Applications/Google\ Chrome.app/ --args --disable-web-security --user-data-dir=path_to_new_empty_folder
Plug-in Elasticsearch-Head tidak lagi dipelihara untuk versi Elasticsearch 5.x dan yang lebih baru. Kami sarankan menggunakan Cerebro untuk mengakses kluster ES Alibaba Cloud Anda. Untuk informasi lebih lanjut, lihat Hubungkan ke kluster menggunakan Cerebro.
Permasalahan terkait indeks
Bagaimana cara menutup indeks?
Setelah indeks ES ditutup, indeks tersebut tidak lagi mendukung kueri atau penulisan.
POST /<index_name>/_open #Atur status indeks menjadi terbuka
POST /<index_name>/_close #Atur status indeks menjadi tertutup