全部产品
Search
文档中心

E-MapReduce:Konfigurasikan Pekerjaan Spark Shell

更新时间:Jul 02, 2025

Topik ini menjelaskan cara mengonfigurasi pekerjaan Spark Shell.

Prasyarat

Sebuah Proyek telah dibuat. Untuk informasi lebih lanjut, lihat Kelola proyek.

Prosedur

  1. Buka tab Data Platform.
    1. Masuk ke Konsol EMR Alibaba Cloud menggunakan akun Alibaba Cloud Anda.
    2. Di bilah navigasi atas, pilih wilayah tempat kluster Anda berada dan pilih grup sumber daya sesuai kebutuhan bisnis Anda.
    3. Klik tab Data Platform.
  2. Pada bagian Proyek halaman yang muncul, temukan proyek yang ingin Anda kelola dan klik Edit Job di kolom Tindakan.
  3. Buat pekerjaan Spark Shell.
    1. Di panel Edit Job di sebelah kiri, klik kanan folder tempat Anda ingin melakukan operasi dan pilih Create Job.
    2. Di kotak dialog Create Job, tentukan Name dan Description, lalu pilih Spark Shell dari daftar drop-down Job Type.
    3. Klik OK.
  4. Edit isi pekerjaan.
    1. Konfigurasikan parameter baris perintah yang mengikuti perintah Spark Shell di bidang Content.
      Contoh:
      val count = sc.parallelize(1 to 100).filter { _ =>
        val x = math.random
        val y = math.random
        x*x + y*y < 1
      }.count();
      println("Pi is roughly ${4.0 * count / 100}")
    2. Klik Save.