Serverless Spark menyediakan berbagai parameter bawaan. Topik ini menjelaskan parameter tersebut beserta kasus penggunaannya untuk membantu Anda mengonfigurasi lingkungan runtime dan mengoptimalkan eksekusi tugas.
Parameter name | Deskripsi | Skenario |
spark.emr.serverless.user.defined.jars | Menambahkan paket JAR yang diunggah ke ClassPath driver dan pelaksana Serverless Spark.
| Gunakan parameter ini untuk menambahkan paket JAR kustom dari OSS ke driver dan pelaksana Spark saat Anda mengirimkan tugas Spark menggunakan alat Spark-Submit, pekerjaan batch, atau Airflow Serverless Spark Operator, atau saat membuat sumber daya sesi. |
spark.emr.serverless.fusion | Menentukan apakah akan mengaktifkan Fusion untuk sesi atau tugas pemrosesan batch yang dimulai oleh Kyuubi dan Livy. Nilai yang valid:
| Anda dapat menggunakan parameter Spark Configuration dalam tugas atau sesi untuk mengaktifkan Fusion. |
spark.emr.serverless.environmentId | Menentukan ID lingkungan runtime yang digunakan untuk sumber daya komputasi. | Gunakan parameter ini untuk menentukan lingkungan runtime saat Anda mengirimkan tugas Serverless Spark menggunakan Airflow atau alat Spark-Submit. Secara default, pustaka dependensi pihak ketiga diinstal di lingkungan runtime. |
spark.emr.serverless.network.service.name | Menentukan nama koneksi jaringan untuk mengaktifkan konektivitas jaringan antara sumber daya komputasi dan sumber data di VPC lain. | Gunakan parameter ini untuk menambahkan koneksi jaringan saat Anda mengirimkan tugas Serverless Spark, sehingga memungkinkan akses ke sumber data di Virtual Private Cloud (VPC) lain. |
spark.emr.serverless.excludedModules | Menghapus pustaka bawaan dari Serverless Spark.
| Parameter ini biasanya digunakan saat Anda perlu menggunakan paket JAR kustom. Parameter ini memungkinkan Anda menghapus pustaka Serverless Spark bawaan saat Anda mengirimkan tugas Spark dari Konsol Serverless Spark, alat Spark-Submit, pekerjaan batch, Airflow Serverless Spark Operator, Kyuubi, atau Livy, atau saat membuat sumber daya sesi. |
spark.emr.serverless.kyuubi.engine.queue | Menentukan nama antrian ruang kerja tempat aplikasi Spark yang dimulai oleh Kyuubi akan berjalan. | Parameter ini dapat diatur di bagian konfigurasi Kyuubi atau ditentukan dalam URL JDBC saat Anda membuat koneksi. |
spark.emr.serverless.jr.timeout | Menetapkan waktu proses maksimum suatu tugas dalam detik. Tugas akan dihentikan secara otomatis jika melebihi batas waktu tersebut. Nilai default-nya kosong, yang berarti tidak ada batas timeout. Nilainya harus berupa bilangan bulat dari -1 hingga 2147483647. Nilai -1 atau 0 menunjukkan bahwa tidak ada batas timeout. | Gunakan parameter ini untuk menetapkan timeout tugas saat Anda mengirimkan tugas dari Konsol Serverless Spark, menggunakan tool Spark-Submit, sebagai pekerjaan batch, atau dengan Airflow Serverless Spark Operator. |
spark.emr.serverless.fusion.enabled | Menentukan apakah Fusion diaktifkan saat Anda meluncurkan engine Serverless Spark. Nilai yang valid:
| Gunakan parameter ini untuk menentukan apakah percepatan Fusion diaktifkan saat Anda mengirimkan tugas dari Konsol Serverless Spark, menggunakan tool Spark-Submit, sebagai pekerjaan batch, atau dengan Airflow Serverless Spark Operator. |
spark.emr.serverless.mount.nas.enabled | Menentukan apakah direktori NAS dipasang ke driver Spark. Jika Anda mengaktifkan fitur ini, Anda juga harus menggunakan
| Gunakan parameter ini untuk memasang direktori NAS terkelola ke driver Spark saat Anda mengirimkan tugas dari Konsol Serverless Spark, menggunakan tool Spark-Submit, sebagai pekerjaan batch, atau dengan Airflow Serverless Spark Operator. Setelah fitur ini diaktifkan, driver dapat membaca dan menulis file di direktori NAS yang dipasang. |
spark.emr.serverless.mount.nas.volume | Menentukan ID direktori NAS terkelola yang akan dipasang. Versi engine yang didukung:
| Gunakan parameter ini untuk memasang direktori NAS terkelola tertentu saat Anda mengirimkan tugas dari Konsol Serverless Spark, menggunakan tool Spark-Submit, sebagai pekerjaan batch, atau dengan Airflow Serverless Spark Operator. |
spark.emr.serverless.mount.nas.executor | Menentukan apakah direktori NAS dipasang ke semua executor Spark.
| Gunakan parameter ini untuk memasang direktori NAS terkelola ke executor Spark saat Anda mengirimkan tugas dari Konsol Serverless Spark, menggunakan tool Spark-Submit, sebagai pekerjaan batch, atau dengan Airflow Serverless Spark Operator. Setelah fitur ini diaktifkan, executor dapat membaca dan menulis file di direktori NAS yang dipasang. |
spark.emr.serverless.mount.oss.enabled | Menentukan apakah direktori OSS dipasang ke driver Spark. Setelah memasang, Anda juga harus menggunakan
| Gunakan parameter ini untuk memasang direktori OSS terkelola ke driver Spark saat Anda mengirimkan tugas dari Konsol Serverless Spark, menggunakan tool Spark-Submit, sebagai pekerjaan batch, atau dengan Airflow Serverless Spark Operator. Setelah fitur ini diaktifkan, driver dapat membaca dan menulis file di direktori OSS yang dipasang. |
spark.emr.serverless.mount.oss.volume | Menentukan ID direktori OSS terkelola yang akan dipasang. | Gunakan parameter ini untuk memasang direktori OSS terkelola tertentu saat Anda mengirimkan tugas dari Konsol Serverless Spark, menggunakan tool Spark-Submit, sebagai pekerjaan batch, atau dengan Airflow Serverless Spark Operator. |
spark.emr.serverless.mount.oss.executor | Menentukan apakah direktori OSS dipasang ke semua executor Spark. Nilai yang valid:
| Gunakan parameter ini untuk memasang direktori OSS terkelola ke executor Spark saat Anda mengirimkan tugas dari Konsol Serverless Spark, menggunakan tool Spark-Submit, sebagai pekerjaan batch, atau dengan Airflow Serverless Spark Operator. Setelah fitur ini diaktifkan, executor dapat membaca dan menulis file di direktori OSS yang dipasang. |
spark.emr.serverless.templateId | Menentukan ID templat konfigurasi default untuk aplikasi Spark. Dengan mereferensikan templat ruang kerja yang telah ditentukan sebelumnya, Anda dapat menyederhanakan konfigurasi parameter saat mengirimkan tugas. Anda dapat memperoleh ID templat di halaman . Misalnya, | Anda hanya dapat menggunakan tool Spark-Submit. |
spark.emr.serverless.livy.config.mode | Mengontrol apakah akan menggunakan pengaturan dari file
| Atur parameter ini ke |
spark.emr.serverless.tag.xxxx | Anda dapat menambahkan tag ke pekerjaan batch yang dikirimkan melalui Livy dalam format | Gunakan parameter ini untuk menambahkan tag ke pekerjaan Spark yang dikirimkan melalui Livy Gateway. Anda kemudian dapat memfilter pekerjaan berdasarkan tag-tag tersebut dalam riwayat pekerjaan. |