AnalyticDB for MySQL menyediakan metode pengembangan yang seragam untuk aplikasi batch Spark dan aplikasi streaming. Topik ini menjelaskan cara mengembangkan aplikasi Spark.
Alat Pengembangan
Anda dapat menggunakan salah satu alat berikut untuk mengembangkan aplikasi batch Spark dan aplikasi streaming:
Kode Contoh
Berikut adalah contoh kode untuk mengembangkan aplikasi Spark berdasarkan data yang disimpan di Object Storage Service (OSS). Kode mencakup parameter umum seperti nama dan konfigurasi, serta parameter spesifik untuk aplikasi Java, Scala, dan Python. Parameter ditulis dalam format JSON.
{
"args": ["args0", "args1"],
"name": "spark-oss-test",
"file": "oss://<testBucketName>/jars/test/spark-examples-0.0.1-SNAPSHOT.jar",
"className": "com.aliyun.spark.oss.SparkReadOss",
"conf": {
"spark.driver.resourceSpec": "medium",
"spark.executor.resourceSpec": "medium",
"spark.executor.instances": 2,
"spark.adb.connectors": "oss"
}
}Parameter Umum
Parameter | Diperlukan | Contoh | Deskripsi |
name | Tidak |
| Nama aplikasi Spark. |
file | Ya, untuk aplikasi Python, Java, dan Scala |
| Path absolut file utama aplikasi Spark. File utama bisa berupa paket JAR yang berisi titik masuk atau file eksekusi yang berfungsi sebagai titik masuk untuk program Python. Penting Anda harus menyimpan file utama aplikasi Spark di OSS. Bucket OSS harus berada di wilayah yang sama dengan kluster AnalyticDB for MySQL. |
files | Tidak |
| File yang diperlukan untuk aplikasi Spark. File-file ini akan diunduh ke direktori kerja proses driver dan executor. Anda dapat mengonfigurasi alias untuk file tersebut. Contoh: Pisahkan beberapa file dengan koma (,). Catatan
|
archives | Tidak |
| Paket terkompresi yang diperlukan untuk aplikasi Spark. Paket harus dalam format TAR.GZ. Paket akan diekstraksi ke direktori kerja proses Spark. Anda dapat mengonfigurasi alias untuk file yang terdapat dalam paket. Contoh: Pisahkan beberapa paket dengan koma (,). Catatan Anda harus menyimpan semua paket terkompresi yang diperlukan untuk aplikasi Spark di OSS. Jika sebuah paket gagal diekstraksi, pekerjaan akan gagal. |
conf | Ya |
| Parameter konfigurasi yang diperlukan untuk aplikasi Spark, yang mirip dengan Apache Spark. Parameter harus dalam format |
Parameter Aplikasi Java
Parameter | Diperlukan | Contoh | Deskripsi |
args | Tidak |
| Parameter yang diperlukan untuk paket JAR. Pisahkan beberapa parameter dengan koma (,). |
className | Ya |
| Kelas entri aplikasi Java. |
jars | Tidak |
| Path absolut paket JAR yang diperlukan untuk aplikasi Spark. Pisahkan beberapa path dengan koma (,). Saat aplikasi Spark berjalan, paket JAR ditambahkan ke classpath JVM driver dan executor. Penting
|
Parameter Aplikasi Scala
Parameter | Diperlukan | Contoh | Deskripsi |
className | Ya |
| Kelas entri aplikasi Scala. |
jars | Tidak |
| Path absolut paket JAR yang diperlukan untuk aplikasi Spark. Pisahkan beberapa path dengan koma (,). Saat aplikasi Spark berjalan, paket JAR ditambahkan ke classpath JVM driver dan executor. Penting
|
Parameter Aplikasi Python
Parameter | Diperlukan | Contoh | Deskripsi |
pyFiles | Ya |
| File Python yang diperlukan untuk aplikasi PySpark. File harus dalam format ZIP, PY, atau EGG. Jika beberapa file Python diperlukan, kami sarankan Anda menggunakan file dalam format ZIP atau EGG. Anda dapat merujuk file Python sebagai modul dalam kode Python. Pisahkan beberapa paket dengan koma (,). Catatan Anda harus menyimpan semua file Python yang diperlukan untuk aplikasi Spark di OSS. |