Topik ini menjelaskan cara mengonfigurasi pekerjaan Spark SQL.
Prasyarat
Proyek telah dibuat. Untuk informasi lebih lanjut, lihat Kelola Proyek.Prosedur
- Buka tab Data Platform.
- Masuk ke Konsol EMR Alibaba Cloud menggunakan akun Alibaba Cloud Anda.
- Di bilah navigasi atas, pilih wilayah tempat kluster Anda berada dan pilih grup sumber daya sesuai kebutuhan bisnis Anda.
- Klik tab Data Platform.
- Pada bagian Proyek halaman yang muncul, temukan proyek yang ingin Anda kelola dan klik Edit Job di kolom Tindakan.
- Buat pekerjaan Spark SQL.
- Di panel Edit Job di sebelah kiri, klik kanan folder tempat Anda ingin melakukan operasi dan pilih Create Job.
- Di kotak dialog Create Job, tentukan Name dan Description, lalu pilih SparkSQL dari daftar drop-down Job Type.Catatan Secara default, pekerjaan Spark SQL dikirim dalam mode yarn-client.Anda dapat menggunakan sintaks perintah berikut untuk mengirim pekerjaan Spark SQL:
spark-sql [options] [cli options] {SQL_CONTENT}Tabel berikut menjelaskan parameter dalam sintaks perintah.Parameter Deskripsi options Pengaturan parameter SPARK_CLI_PARAMS yang Anda konfigurasi dengan melakukan operasi berikut: Klik Job Settings di pojok kanan atas halaman pekerjaan. Di panel Job Settings, klik tab Advanced Settings. Klik ikon
di bagian Environment Variables dan tambahkan pengaturan parameter SPARK_CLI_PARAMS, seperti SPARK_CLI_PARAMS="--executor-memory 1g --executor-cores".cli options Contoh: -e <quoted-query-string>: menunjukkan bahwa pernyataan SQL yang diapit tanda kutip akan dieksekusi.-f <filename>: menunjukkan bahwa pernyataan SQL dalam file akan dieksekusi.
SQL_CONTENT Pernyataan SQL yang Anda masukkan. - Klik OK.
- Edit konten pekerjaan.
- Masukkan pernyataan Spark SQL di bidang Content.Contoh:
-- Contoh pernyataan SQL -- Ukuran pernyataan SQL tidak boleh melebihi 64 KB. show databases; show tables; -- LIMIT 2000 secara otomatis ditambahkan ke pernyataan SELECT. select * from test1; - Klik Save.
- Masukkan pernyataan Spark SQL di bidang Content.