E-MapReduce (EMR) memungkinkan Anda melihat, mengubah, dan menambahkan item konfigurasi untuk layanan seperti Hadoop Distributed File System (HDFS), YARN, dan Spark langsung di Konsol EMR.
Prasyarat
Sebelum memulai, pastikan Anda telah:
Membuat kluster EMR. Untuk informasi selengkapnya, lihat Buat kluster.
Cara kerja
EMR mengelola item konfigurasi pada tiga tingkat: kluster, kelompok node, dan node. Jika item konfigurasi yang sama diatur pada beberapa tingkat, nilai pada tingkat prioritas tertinggi yang berlaku. Urutan prioritas: node > kelompok node > kluster.
Secara default, tab Configure menampilkan item konfigurasi tingkat kluster. Untuk melihat atau mengubah item tingkat kelompok node atau node, ubah cakupan menggunakan daftar drop-down Default Cluster Configuration:
Node Group Configuration — menerapkan pengaturan ke semua node dalam kelompok node
Independent Node Configuration — menerapkan pengaturan ke node tertentu
Item tingkat kelompok node dan node hanya dapat dilihat saat Default Cluster Configuration dipilih. Untuk mengubahnya, alihkan terlebih dahulu ke cakupan yang sesuai.

Lihat item konfigurasi
Masuk ke Konsol EMR. Di panel navigasi kiri, klik EMR on ECS.
Di bilah navigasi atas, pilih wilayah dan kelompok sumber daya.
Temukan kluster dan klik Services di kolom Actions.
Di tab Services, temukan layanan dan klik Configure.
Di kotak pencarian, masukkan nama item konfigurasi.
Jika item konfigurasi tingkat kelompok node atau node diubah, atau pengaturannya tidak konsisten dengan pengaturan default tingkat kluster, pengaturan item tersebut akan ditampilkan di tab Configure saat Default Cluster Configuration dipilih.
Untuk melihat item konfigurasi tingkat kelompok node atau node, pilih Node Group Configuration atau Independent Node Configuration dari daftar drop-down Default Cluster Configuration, lalu pilih kelompok node atau node tertentu.
Ubah item konfigurasi
Masuk ke Konsol EMR. Di panel navigasi kiri, klik EMR on ECS.
Di bilah navigasi atas, pilih wilayah dan kelompok sumber daya.
Temukan kluster dan klik Services di kolom Actions.
Di tab Services, temukan layanan dan klik Configure.
(Opsional) Untuk mengubah item tingkat kelompok node atau node, pilih Node Group Configuration atau Independent Node Configuration dari daftar drop-down Default Cluster Configuration.
Di kotak pencarian, masukkan nama item konfigurasi dan klik ikon pencarian.
Ubah nilai item konfigurasi. > Tip: Misalnya, untuk meningkatkan memori NodeManager, atur
yarn.nodemanager.resource.memory-mbke nilai yang lebih tinggi seperti8192.Klik Save. Di kotak dialog Save, atur Execution Reason lalu klik Save.
Sakelar Save and Deliver Configuration diaktifkan secara default. Saat diaktifkan, konfigurasi dikirim ke client segera setelah disimpan, dan Anda dapat mengaktifkannya menggunakan mode prompt. Nonaktifkan sakelar ini untuk mengaktifkan konfigurasi secara manual menggunakan mode manual.
Aktifkan konfigurasi. Lihat Aktifkan konfigurasi.
Tambahkan item konfigurasi
Masuk ke Konsol EMR. Di panel navigasi kiri, klik EMR on ECS.
Di bilah navigasi atas, pilih wilayah dan kelompok sumber daya.
Temukan kluster dan klik Services di kolom Actions.
Di tab Services, temukan layanan dan klik Configure.
Klik tab tempat Anda ingin menambahkan item konfigurasi, lalu klik Add Configuration Item.
Isi detail konfigurasi. Anda dapat menambahkan beberapa item sekaligus.
Field Description Key Nama item konfigurasi Value Nilai item konfigurasi Description Deskripsi item konfigurasi Actions Hapus item konfigurasi Klik OK. Di kotak dialog, atur Execution Reason lalu klik Save.
Aktifkan konfigurasi. Lihat Aktifkan konfigurasi.
Aktifkan konfigurasi
Setelah menyimpan, aktifkan konfigurasi berdasarkan jenisnya dan mode yang Anda pilih.
Mode Prompt
Mode prompt hanya tersedia untuk EMR V5.12.1, EMR V3.46.1, dan versi minor yang lebih baru.
Konfigurasi sisi client
Setelah menyimpan, klik prompt
(To Be Delivered).Di pesan Configurations to Be Delivered, klik Deliver.
Untuk layanan YARN, jika item yang diubah mencakup item konfigurasi terkait antrian, klik prompt
(Not Effective Yet) atau klik Deploy di tab Edit Resource Queue pada halaman layanan YARN untuk mengaktifkan perubahan.
Konfigurasi sisi server
Setelah menyimpan, klik prompt
(Not Effective Yet).Di kotak dialog Configurations to Take Effect, aktifkan setiap komponen berdasarkan jenisnya:
Konfigurasi yang Memerlukan Operasi Khusus: Klik aksi yang sesuai di kolom Actions untuk setiap komponen.
Konfigurasi yang Memerlukan Restart: Klik restart di kolom Actions untuk suatu komponen, atau pilih beberapa komponen lalu klik Batch Restart. Di kotak dialog, atur Execution Reason lalu klik OK.
Mode manual
Konfigurasi sisi client
Klik Deploy Client Configuration di sebelah Save di bagian bawah halaman.
Di kotak dialog, atur Execution Reason lalu klik OK.
Di pesan Confirm, klik OK.
Konfigurasi sisi server
Pilih More > Restart di pojok kanan atas tab Configure.
Di kotak dialog, atur Execution Reason lalu klik OK.
Di pesan Confirm, klik OK.
Item konfigurasi yang dapat diubah
Tabel berikut mencantumkan item konfigurasi yang dapat diubah pada tingkat node dan kelompok node di kluster EMR V5.17.1.
Item konfigurasi terkait Kerberos hanya tersedia jika otentikasi Kerberos diaktifkan.
<table> <thead> <tr> <td><p><b>Service name</b></p></td> <td><p><b>File</b></p></td> <td><p><b>Configuration item</b></p></td> </tr> </thead> <colgroup></colgroup> <colgroup></colgroup> <colgroup></colgroup> <tbody> <tr> <td><p>Hadoop-Common</p></td> <td><p>core-site.xml</p></td> <td><p>fs.oss.tmp.data.dirs</p><p>hadoop.tmp.dir</p></td> </tr> <tr> <td><p>HDFS</p></td> <td><p>hdfs-env.sh</p></td> <td><p>hadoop_datanode_heapsize</p><p>hadoop_secondarynamenode_opts</p><p>hadoop_namenode_heapsize</p></td> </tr> <tr> <td><p>hdfs-site.xml</p></td> <td><p>dfs.datanode.data.dir</p><p>dfs.datanode.failed.volumes.tolerated</p><p>dfs.datanode.du.reserved</p><p>dfs.datanode.balance.max.concurrent.moves</p></td> </tr> <tr> <td><p>OSS-HDFS</p></td> <td><p>None</p></td> <td><p>None</p></td> </tr> <tr> <td><p>Hive</p></td> <td><p>hive-env.sh</p></td> <td><p>hive_metastore_heapsize</p><p>hive_server2_heapsize</p></td> </tr> <tr> <td><p>Spark2</p></td> <td><p>hiveserver2-site.xml</p></td> <td><p>hive.server2.authentication.kerberos.principal</p></td> </tr> <tr> <td><p>spark-env.sh</p></td> <td><p>spark_history_daemon_memory</p><p>spark_thrift_daemon_memory</p></td> </tr> <tr> <td><p>spark-thriftserver.conf</p></td> <td><p>spark.yarn.historyServer.address</p><p>spark.hadoop.hive.server2.thrift.bind.host</p><p>spark.yarn.principal</p></td> </tr> <tr> <td><p>spark-defaults.conf</p></td> <td><p>spark.yarn.historyServer.address</p><p>spark.history.kerberos.principal</p></td> </tr> <tr> <td><p>Spark3</p></td> <td><p>hiveserver2-site.xml</p></td> <td><p>hive.server2.authentication.kerberos.principal</p></td> </tr> <tr> <td><p>spark-env.sh</p></td> <td><p>spark_history_daemon_memory</p><p>spark_thrift_daemon_memory</p></td> </tr> <tr> <td><p>spark-thriftserver.conf</p></td> <td><p>spark.yarn.historyServer.address</p><p>spark.hadoop.hive.server2.thrift.bind.host</p><p>spark.kerberos.principal</p></td> </tr> <tr> <td><p>spark-defaults.conf</p></td> <td><p>spark.yarn.historyServer.address</p><p>spark.history.kerberos.principal</p></td> </tr> <tr> <td><p>Tez</p></td> <td><p>None</p></td> <td><p>None</p></td> </tr> <tr> <td><p>Trino</p></td> <td><p>iceberg.properties</p></td> <td><p>hive.hdfs.trino.principal</p><p>hive.metastore.client.principal</p></td> </tr> <tr> <td><p>delta.properties</p></td> <td><p>hive.hdfs.trino.principal</p><p>hive.metastore.client.principal</p></td> </tr> <tr> <td><p>config.properties</p></td> <td><p>coordinator</p><p>node-scheduler.include-coordinator</p><p>query.max-memory</p><p>query.max-total-memory</p><p>query.max-memory-per-node</p><p>http-server.authentication.type</p><p>http-server.authentication.krb5.user-mapping.pattern</p><p>http-server.authentication.krb5.service-name</p><p>http-server.authentication.krb5.keytab</p><p>http.authentication.krb5.config</p><p>http-server.https.enabled</p><p>http-server.https.port</p><p>http-server.https.keystore.key</p><p>http-server.https.keystore.path</p><p>event-listener.config-files</p> <div> <div> <i></i> </div> <div> <strong>Note </strong> <p>event-listener.config-files menentukan path tempat file konfigurasi event listener disimpan. Item konfigurasi ini hanya tersedia jika Anda mengaktifkan EmrEventListener. </p> </div> </div></td> </tr> <tr> <td><p>jvm.config</p></td> <td><p>jvm parameter</p></td> </tr> <tr> <td><p>hudi.properties</p></td> <td><p>hive.hdfs.trino.principal</p><p>hive.metastore.client.principal</p></td> </tr> <tr> <td><p>password-authenticator.properties</p></td> <td><p>ldap.url</p><p>ldap.user-bind-pattern</p></td> </tr> <tr> <td><p>hive.properties</p></td> <td><p>hive.hdfs.trino.principal</p><p>hive.metastore.client.principal</p></td> </tr> <tr> <td><p>DeltaLake</p></td> <td><p>None</p></td> <td><p>None</p></td> </tr> <tr> <td><p>Hudi</p></td> <td><p>None</p></td> <td><p>None</p></td> </tr> <tr> <td><p>Iceberg</p></td> <td><p>None</p></td> <td><p>None</p></td> </tr> <tr> <td><p>JindoData</p></td> <td><p>storage.yaml</p></td> <td><p>jindofsx.storage.cache-mode</p><p>storage.watermark.high.ratio</p><p>storage.watermark.low.ratio</p><p>storage.handler.threads</p> <div> <div> <i></i> </div> <div> <strong>Note </strong> <ul> <li><p>JindoData berlaku untuk kluster EMR V5.14.0 atau versi minor yang lebih baru dan kluster EMR V3.48.0 atau versi minor yang lebih baru. </p></li> <li><p>JindoData tidak tersedia untuk kluster EMR V5.15.0 atau versi minor yang lebih baru dan kluster EMR V3.49.0 atau versi minor yang lebih baru. Anda dapat menggunakan <a href="https://www.alibabacloud.com/help/en/document_detail/2579701.html">JindoCache</a> untuk caching data dan <a href="https://www.alibabacloud.com/help/en/document_detail/455181.html">DLF-Auth</a> untuk otentikasi. </p></li> </ul> </div> </div></td> </tr> <tr> <td><p>Flume</p></td> <td><p>flume-conf.properties</p></td> <td><p>agent_name</p><p>flume-conf.properties</p></td> </tr> <tr> <td><p>Kyuubi</p></td> <td><p>kyuubi-env.sh</p></td> <td><p>kyuubi_java_opts</p></td> </tr> <tr> <td><p>YARN</p></td> <td><p>yarn-site.xml</p></td> <td><p>yarn.nodemanager.resource.memory-mb</p><p>yarn.nodemanager.local-dirs</p><p>yarn.nodemanager.log-dirs</p><p>yarn.nodemanager.resource.cpu-vcores</p><p>yarn.nodemanager.address</p><p>yarn.nodemanager.node-labels.provider.configured-node-partition</p></td> </tr> <tr> <td><p>yarn-env.sh</p></td> <td><p>YARN_RESOURCEMANAGER_HEAPSIZE</p><p>YARN_TIMELINESERVER_HEAPSIZE</p><p>YARN_PROXYSERVER_HEAPSIZE</p><p>YARN_NODEMANAGER_HEAPSIZE</p><p>YARN_RESOURCEMANAGER_HEAPSIZE_MIN</p><p>YARN_TIMELINESERVER_HEAPSIZE_MIN</p><p>YARN_PROXYSERVER_HEAPSIZE_MIN</p><p>YARN_NODEMANAGER_HEAPSIZE_MIN</p></td> </tr> <tr> <td><p>mapred-env.sh</p></td> <td><p>HADOOP_JOB_HISTORYSERVER_HEAPSIZE</p></td> </tr> <tr> <td><p>mapred-site.xml</p></td> <td><p>mapreduce.cluster.local.dir</p></td> </tr> <tr> <td><p>Impala</p></td> <td><p>None</p></td> <td><p>None</p></td> </tr> <tr> <td><p>OpenLDAP</p></td> <td><p>None</p></td> <td><p>None</p></td> </tr> <tr> <td><p>Ranger</p></td> <td><p>None</p></td> <td><p>None</p></td> </tr> <tr> <td><p>Ranger-Plugin</p></td> <td><p>None</p></td> <td><p>None</p></td> </tr> <tr> <td><p>DLF-Auth</p></td> <td><p>None</p></td> <td><p>None</p></td> </tr> <tr> <td><p>Presto</p></td> <td><p>iceberg.properties</p></td> <td><p>hive.hdfs.presto.principal</p><p>hive.metastore.client.principal</p></td> </tr> <tr> <td><p>delta.properties</p></td> <td><p>hive.hdfs.presto.principal</p><p>hive.metastore.client.principal</p></td> </tr> <tr> <td><p>hive.properties</p></td> <td><p>hive.hdfs.presto.principal</p><p>hive.metastore.client.principal</p></td> </tr> <tr> <td><p>config.properties</p></td> <td><p>coordinator</p><p>node-scheduler.include-coordinator</p><p>query.max-memory-per-node</p><p>query.max-total-memory-per-node</p><p>http-server.authentication.type</p><p>http.authentication.krb5.principal-hostname</p><p>http.server.authentication.krb5.service-name</p><p>http.server.authentication.krb5.keytab</p><p>http.authentication.krb5.config</p><p>http-server.https.enabled</p><p>http-server.https.port</p><p>http-server.https.keystore.key</p><p>http-server.https.keystore.path</p></td> </tr> <tr> <td><p>jvm.config</p></td> <td><p>jvm parameter</p></td> </tr> <tr> <td><p>hudi.properties</p></td> <td><p>hive.hdfs.presto.principal</p><p>hive.metastore.client.principal</p></td> </tr> <tr> <td><p>password-authenticator.properties</p></td> <td><p>ldap.url</p><p>ldap.user-bind-pattern</p></td> </tr> <tr> <td><p>Starrocks2</p></td> <td><p>fe.conf</p></td> <td><p>JAVA_OPTS</p><p>meta_dir</p></td> </tr> <tr> <td><p>be.conf</p></td> <td><p>storage_root_path</p><p>JAVA_OPTS</p></td> </tr> <tr> <td><p>Starrocks3</p></td> <td><p>fe.conf</p></td> <td><p>JAVA_OPTS</p><p>meta_dir</p></td> </tr> <tr> <td><p>be.conf</p></td> <td><p>storage_root_path</p><p>JAVA_OPTS</p></td> </tr> <tr> <td><p>Doris</p></td> <td><p>fe.conf</p></td> <td><p>JAVA_OPTS</p><p>JAVA_OPTS_FOR_JDK_9</p><p>meta_dir</p></td> </tr> <tr> <td><p>be.conf</p></td> <td><p>storage_root_path</p></td> </tr> <tr> <td><p>ClickHouse</p></td> <td><p>server-config</p></td> <td><p>interserver_http_host</p></td> </tr> <tr> <td><p>server-metrika</p></td> <td><p>macros.shard</p><p>macros.replica</p></td> </tr> <tr> <td><p>ZooKeeper</p></td> <td><p>None</p></td> <td><p>None</p></td> </tr> <tr> <td><p>Sqoop</p></td> <td><p>None</p></td> <td><p>None</p></td> </tr> <tr> <td><p>Knox</p></td> <td><p>None</p></td> <td><p>None</p></td> </tr> <tr> <td><p>Celeborn</p></td> <td><p>celeborn-env.sh</p></td> <td><p>CELEBORN_WORKER_MEMORY</p><p>CELEBORN_WORKER_OFFHEAP_MEMORY</p><p>CELEBORN_MASTER_MEMORY</p></td> </tr> <tr> <td><p>celeborn-defaults.conf</p></td> <td><p>celeborn.worker.storage.dirs</p><p>celeborn.worker.flusher.threads</p></td> </tr> <tr> <td><p>Flink</p></td> <td><p>flink-conf.yaml</p></td> <td><p>security.kerberos.login.principal</p><p>security.kerberos.login.keytab</p></td> </tr> <tr> <td><p>HBase</p></td> <td><p>hbase-env.sh</p></td> <td><p>hbase_master_opts</p><p>hbase_thrift_opts</p><p>hbase_rest_opts</p><p>hbase_regionserver_opts</p></td> </tr> <tr> <td><p>hbase-site.xml</p></td> <td><p>hbase.regionserver.handler.count</p><p>hbase.regionserver.global.memstore.size</p><p>hbase.regionserver.global.memstore.lowerLimit</p><p>hbase.regionserver.thread.compaction.throttle</p><p>hbase.regionserver.thread.compaction.large</p><p>hbase.regionserver.thread.compaction.small</p></td> </tr> <tr> <td><p>HBASE-HDFS</p></td> <td><p>hdfs-env.sh</p></td> <td><p>hadoop_secondarynamenode_opts</p><p>hadoop_namenode_heapsize</p><p>hadoop_datanode_heapsize</p></td> </tr> <tr> <td><p>hdfs-site.xml</p></td> <td><p>dfs.datanode.data.dir</p><p>dfs.datanode.failed.volumes.tolerated</p><p>dfs.datanode.du.reserved</p><p>dfs.datanode.balance.max.concurrent.moves</p></td> </tr> <tr> <td><p>JindoCache</p></td> <td><p>None</p></td> <td><p>None</p></td> </tr> <tr> <td><p>Kafka</p></td> <td><p>server.properties</p></td> <td><p>broker.id</p><p>num.network.threads</p><p>num.io.threads</p><p>kafka.heap.opts</p><p>log.dirs</p><p>kafka.public-access.ip</p><p>listeners</p><p>advertised.listeners</p> <div> <div> <i></i> </div> <div> <strong>Note </strong> <p><code>kafka.public-access.ip</code> menentukan Alamat IP publik broker Kafka. Anda dapat menggunakan item konfigurasi ini untuk mengonfigurasi listeners yang memiliki Alamat IP publik. </p> </div> </div></td> </tr> <tr> <td><p>kafka-internal-config</p></td> <td><p>broker_id</p></td> </tr> <tr> <td><p>user_params</p></td> <td><p>is_local_disk_instance</p></td> </tr> <tr> <td><p>Kudu</p></td> <td><p>master.gflags</p></td> <td><p>fs_data_dirs</p><p>fs_wal_dir</p><p>fs_metadata_dir</p><p>log_dir</p></td> </tr> <tr> <td><p>tserver.gflags</p></td> <td><p>fs_data_dirs</p><p>fs_wal_dir</p><p>fs_metadata_dir</p><p>log_dir</p></td> </tr> <tr> <td><p>Paimon</p></td> <td><p>None</p></td> <td><p>None</p></td> </tr> <tr> <td><p>Phoenix</p></td> <td><p>None</p></td> <td><p>None</p></td> </tr> </tbody> </table>