全部产品
Search
文档中心

DataWorks:DataStudio

更新时间:Jul 06, 2025

Topik ini menjawab beberapa pertanyaan yang sering diajukan tentang DataStudio.

Jenis grup sumber daya apa yang dapat saya gunakan ketika saya mereferensikan paket pihak ketiga di node PyODPS?

Gunakan grup sumber daya eksklusif untuk penjadwalan. Untuk informasi lebih lanjut, lihat Gunakan node PyODPS untuk mereferensikan paket pihak ketiga.

Bagaimana cara saya mengontrol apakah data tabel yang ditanyakan dapat diunduh?

Sebelum mengunduh data dari DataWorks, pastikan bahwa fitur unduhan diaktifkan. Jika tidak ada titik masuk unduhan yang tersedia, fitur unduhan tidak diaktifkan untuk ruang kerja Anda. Jika menggunakan pengguna RAM dan ingin menggunakan fitur unduhan, hubungi pemilik akun Alibaba Cloud atau administrator ruang kerja untuk mengaktifkan fitur ini di halaman Ruang Kerja.打开下载功能

Setelah menanyakan data di DataStudio, titik masuk unduhan ditampilkan di pojok kanan bawah tab hasil kueri, seperti yang ditunjukkan pada gambar berikut.数据下载

Anda hanya dapat mengunduh maksimum 10.000 rekaman data dari DataStudio karena batasan pada mesin komputasi.

Bagaimana cara saya mengunduh lebih dari 10.000 rekaman data?

Gunakan perintah Tunnel dari MaxCompute. Untuk informasi lebih lanjut, lihat Gunakan SQLTask dan Tunnel untuk mengekspor sejumlah besar data.

Ketika saya membuat tabel di ruang kerja tempat kluster E-MapReduce (EMR) terdaftar, pesan kesalahan berikut muncul: call emr exception. Apa yang harus saya lakukan?

  • Penyebab potensial: Pengaturan keamanan belum dikonfigurasi untuk grup keamanan Instance ECS yang menjadi host kluster EMR Anda. Ketika mendaftarkan kluster EMR ke ruang kerja, Anda harus menambahkan aturan berikut ke grup keamanan Instance ECS yang menjadi host kluster EMR. Jika tidak, pesan kesalahan "call emr exception" mungkin muncul.

    Pengaturan keamanan belum dikonfigurasi untuk grup keamanan Instance ECS yang menjadi host kluster EMR Anda. Ketika mendaftarkan kluster EMR ke ruang kerja, Anda harus menambahkan aturan berikut ke grup keamanan Instance ECS yang menjadi host kluster EMR. Jika tidak, pesan kesalahan "call emr exception" mungkin muncul.

    • Tindakan: Mengizinkan

    • Jenis protokol: TCP Kustom

    • Rentang port: 8898/8898

    • Objek otorisasi: 100.104.0.0/16

  • Solusi: Periksa pengaturan keamanan grup keamanan Instance ECS yang menjadi host kluster EMR Anda. Jika pengaturan keamanan tidak mencakup aturan sebelumnya, tambahkan aturan tersebut ke grup keamanan.

Bagaimana cara saya mereferensikan sumber daya di sebuah node?

Temukan sumber daya yang ingin direferensikan di node di panel Alur Kerja Terjadwal, klik kanan nama sumber daya, dan pilih Insert Resource Path.引用资源

Bagaimana cara saya mengunduh sumber daya yang diunggah ke DataWorks?

Temukan sumber daya yang ingin diunduh di panel Alur Kerja Terjadwal, klik kanan nama sumber daya, dan pilih View Earlier Versions. Di kotak dialog Versi, klik Unduh di kolom Tindakan.查看历史版本

Bagaimana cara saya mengunggah sumber daya yang ukurannya lebih besar dari 30 MB?

Gunakan perintah Tunnel untuk mengunggah sumber daya. Kemudian, tambahkan sumber daya ke DataStudio di panel Sumber Daya MaxCompute untuk digunakan di masa mendatang. Untuk informasi lebih lanjut, lihat Bagaimana cara menggunakan sumber daya yang diunggah ke DataWorks dengan menggunakan odpscmd?

Bagaimana cara saya menggunakan sumber daya yang diunggah ke DataWorks dengan menggunakan odpscmd?

Jika ingin menggunakan sumber daya yang diunggah ke DataWorks dengan menggunakan odpscmd, tambahkan sumber daya ke DataStudio di panel Sumber Daya MaxCompute.资源添加

Bagaimana cara saya mengunggah paket JAR dari mesin lokal saya ke DataWorks sebagai sumber daya JAR dan mereferensikan sumber daya yang diunggah di sebuah node?

Unggah paket JAR ke DataWorks di halaman DataStudio sebagai sumber daya JAR. Untuk mereferensikan sumber daya di sebuah node, temukan sumber daya di panel Alur Kerja Terjadwal, klik kanan nama sumber daya, dan pilih Insert Resource Path. Komentar secara otomatis ditambahkan di awal kode untuk node tersebut, dan node dapat langsung mereferensikan sumber daya dalam kodenya berdasarkan nama sumber daya.上传本地JAR

Sebagai contoh, jika ingin mereferensikan sumber daya test.jar di node Shell, setelah memilih Sisipkan Jalur Sumber Daya, komentar ##@resource_reference{"test.jar"} secara otomatis ditambahkan di awal kode untuk node Shell.

Bagaimana cara saya menggunakan sumber daya tabel MaxCompute di DataWorks?

Anda tidak dapat mengunggah sumber daya tabel MaxCompute ke DataWorks menggunakan antarmuka pengguna (UI) tanpa kode. Anda dapat merujuk ke Contoh: Referensi sumber daya tabel untuk melihat metode referensi sumber daya tabel. Jika ingin menggunakan sumber daya tabel MaxCompute di DataWorks, lakukan langkah-langkah berikut:

  1. Jalankan pernyataan SQL berikut di MaxCompute untuk menambahkan tabel sebagai sumber daya. Untuk informasi lebih lanjut, lihat bagian Tambahkan sumber daya dari topik "Operasi sumber daya".

    add table <table_name> [partition (<spec>)] [as <alias>] [comment '<comment>'][-f];
  2. Di halaman DataStudio DataWorks, buat sumber daya Python dan gunakan sumber daya Python untuk menemukan sumber daya tabel yang ditambahkan di MaxCompute. Dalam contoh ini, sumber daya bernama get_cache_table.py dibuat. Untuk informasi tentang kode Python, lihat bagian 1. Tulis UDF dari topik "Contoh: Referensi sumber daya tabel".

  1. Di halaman DataStudio DataWorks, buat fungsi. Dalam contoh ini, fungsi bernama table_udf dibuat.

    Di tab konfigurasi fungsi, konfigurasikan parameter berikut:

    • Class Name: Atur nilainya menjadi get_cache_table.DistCacheTableExample.

    • Resources: Pilih get_cache_table.py dari daftar drop-down. Sumber daya tabel perlu ditambahkan di code editor.

  2. Ikuti instruksi yang dijelaskan di bagian 3. Gunakan UDF dari topik "Contoh: Referensi sumber daya tabel" untuk membangun data uji dan memanggil fungsi.

Bagaimana cara saya mengonfigurasi grup sumber daya jika pesan kesalahan berikut muncul ketika saya menyerahkan tugas di DataWorks: Default Or Available ResourceGroup Not Set?

Untuk menyelesaikan masalah ini, pilih grup sumber daya untuk penjadwalan dari daftar drop-down Resource Group di bagian Grup Sumber Daya tab Properties di bilah navigasi kanan tab konfigurasi node yang diinginkan. Jika tidak ada grup sumber daya untuk penjadwalan yang tersedia, lakukan operasi berikut untuk mengaitkan grup sumber daya untuk penjadwalan dengan ruang kerja yang diinginkan:

  1. Masuk ke Konsol DataWorks. Di bilah navigasi atas, pilih wilayah yang diinginkan. Di bilah navigasi kiri, klik Resource Group.

  2. Di halaman Grup Sumber Daya, temukan grup sumber daya yang dibuat dan klik Associate Workspace di kolom Actions.

  3. Di panel Associate Workspace, temukan ruang kerja yang dibuat dan klik Associate di kolom Actions.

Setelah operasi sebelumnya selesai, Anda dapat pergi ke tab Properties node yang diinginkan dan pilih grup sumber daya terkait untuk penjadwalan dari daftar drop-down Grup Sumber Daya.

Dapatkah sumber daya Python memanggil sumber daya Python lainnya?

Sumber daya Python dapat memanggil sumber daya Python lainnya di ruang kerja yang sama.

Dapatkah PyODPS memanggil fungsi kustom untuk menggunakan paket pihak ketiga?

Jika tidak ingin menggunakan metode map dari DataFrame untuk memanggil fungsi test, Anda dapat menggunakan PyODPS untuk memanggil fungsi kustom untuk menggunakan paket pihak ketiga. Untuk informasi lebih lanjut, lihat Referensi paket pihak ketiga di node PyODPS.

Ketika saya memanggil file pickle di node PyODPS 3, pesan kesalahan berikut muncul: _pickle.UnpicklingError: invalid load key, '\xef. Apa yang harus saya lakukan?

Periksa apakah kode node PyODPS 3 Anda mengandung karakter khusus. Jika kode mengandung karakter khusus, kompres kode tersebut ke dalam paket ZIP, unggah paket tersebut ke DataWorks, dan kemudian dekompres paket untuk memanggil file pickle.

Apa yang harus saya lakukan jika pesan kesalahan DlfMetaStoreClientFactory not found? muncul ketika otentikasi Kerberos diaktifkan untuk kluster EMR dan saya menjalankan spark-submit dalam mode YARN-cluster di node EMR Spark?

  • Pesan kesalahan: Class com.aliyun.datalake.metastore.hive2.DlfMetaStoreClientFactory not found?

  • Penyebab: Ketika menjalankan spark-submit untuk menyerahkan pekerjaan dalam mode YARN-cluster di kluster EMR dengan otentikasi Kerberos diaktifkan, jalur kelas dari driver Spark tidak secara otomatis diperluas untuk mencakup file JAR di direktori tertentu. Akibatnya, kesalahan terjadi saat menjalankan pekerjaan Spark. Untuk informasi lebih lanjut, lihat FAQ.

  • Solusi: Lakukan langkah-langkah berikut untuk menentukan paket terkait Data Lake Formation (DLF).

    • Tambahkan parameter --jars. Dengan cara ini, paket JAR di direktori /opt/apps/METASTORE/metastore-current/hive2 juga ditambahkan ke perintah spark-submit selain paket JAR Spark.

      Kode berikut memberikan contoh tentang cara menentukan paket terkait DLF.

      Penting

      Dalam mode YARN-cluster, dependensi yang dikonfigurasikan untuk parameter --jars harus dipisahkan dengan koma (,).

      spark-submit --deploy-mode cluster --class org.apache.spark.examples.SparkPi --master yarn  --jars /opt/apps/METASTORE/metastore-current/hive2/aliyun-java-sdk-dlf-shaded-0.2.9.jar,/opt/apps/METASTORE/metastore-current/hive2/metastore-client-common-0.2.22.jar,/opt/apps/METASTORE/metastore-current/hive2/metastore-client-hive2-0.2.22.jar,/opt/apps/METASTORE/metastore-current/hive2/metastore-client-hive-common-0.2.22.jar,/opt/apps/METASTORE/metastore-current/hive2/shims-package-0.2.22.jar /opt/apps/SPARK3/spark3-current/examples/jars/spark-examples_2.12-3.4.2.jar
    • Ketika paket terkait DLF ditentukan, konfigurasikan sepasang AccessKey untuk akses ke DLF dan OSS. Jika tidak, salah satu pesan kesalahan berikut terkait Security Token Service (STS) otentikasi akan dikembalikan:

      • Process Output>>> java.io.IOException: Response{protocol=http/1.1, code=403, message=Forbidden, url=http://xxx.xxx.xxx.xxx/latest/meta-data/Ram/security-credentials/}

      • at com.aliyun.datalake.metastore.common.STSHelper.getEMRSTSToken(STSHelper.java:82)

      Konfigurasikan tugas. Di bilah navigasi kanan tab konfigurasi node, klik Pengaturan Lanjutan dan konfigurasikan parameter berikut. Jika Anda ingin pengaturan ini berlaku secara global, konfigurasikan parameter Spark global di tab Layanan halaman detail kluster EMR di konsol EMR.
      "spark.hadoop.dlf.catalog.akMode":"MANUAL",
      "spark.hadoop.dlf.catalog.accessKeyId":"xxxxxxx",
      "spark.hadoop.dlf.catalog.accessKeySecret":"xxxxxxxxx"

Bagaimana cara saya menghapus sumber daya MaxCompute?

Untuk menghapus sumber daya MaxCompute di ruang kerja dalam mode dasar, klik kanan nama sumber daya dan pilih Hapus untuk menghapusnya. Untuk menghapus sumber daya MaxCompute di ruang kerja dalam mode standar, Anda harus menghapus sumber daya di lingkungan pengembangan dan kemudian menghapusnya di lingkungan produksi. Contoh berikut menunjukkan cara menghapus sumber daya MaxCompute di lingkungan pengembangan dan produksi.

Catatan

Di ruang kerja DataWorks dalam mode standar, lingkungan pengembangan diisolasi dari lingkungan produksi. Jika menghapus sumber daya di halaman DataStudio, sumber daya tersebut hanya dihapus dari lingkungan pengembangan. Sumber daya yang sama dihapus dari lingkungan produksi hanya setelah Anda menerapkan operasi penghapusan ke lingkungan produksi.

  1. Hapus sumber daya dari lingkungan pengembangan: Di alur kerja yang diinginkan, pilih MaxCompute > Resource, klik kanan nama sumber daya yang ingin dihapus, dan pilih Delete. Di pesan Hapus, klik OK.删除资源

  2. Hapus sumber daya dari lingkungan produksi: Sumber daya dapat dihapus dari lingkungan produksi hanya setelah operasi penghapusan sumber daya diterapkan ke lingkungan produksi. Di halaman DataStudio, klik Deploy di pojok kanan atas tab konfigurasi sumber daya yang ingin dihapus. Di halaman Buat Tugas Penerapan, atur parameter Jenis Perubahan menjadi Offline, temukan paket sumber daya yang dihapus pada langkah sebelumnya, dan klik Deploy di kolom Actions. Di kotak dialog Buat Tugas Penerapan, klik Deploy. 确认发布Setelah Anda klik Terapkan, sumber daya dihapus dari lingkungan produksi.

Bagaimana cara saya memulihkan node yang dihapus?

Di halaman DataStudio, klik Recycle Bin di bilah navigasi kiri. Di panel Recycle Bin, temukan node yang ingin dipulihkan, klik kanan nama node, dan pilih Pulihkan.还原节点

Bagaimana cara saya melihat versi node?

Temukan node yang versinya ingin dilihat dan klik dua kali nama node untuk masuk ke tab konfigurasi node. Kemudian, klik Versi di bilah navigasi kanan. Di tab Versi, Anda dapat melihat versi node.

Penting

Versi hanya dibuat setelah Anda menyerahkan kode.

查看版本

Bagaimana cara saya mengkloning alur kerja?

Gunakan grup node. Untuk informasi lebih lanjut, lihat Buat dan kelola grup node.

Bagaimana cara saya mengekspor kode node?

Gunakan Migration Assistant. Untuk informasi lebih lanjut, lihat Migration Assistant.

Bagaimana cara saya memeriksa apakah node telah diserahkan?

Jika ingin memeriksa apakah node telah diserahkan, temukan alur kerja yang diinginkan di panel Scheduled Workflow dan perluas alur kerja untuk melihat status setiap node dalam alur kerja ini. Jika ikon 图标 ditampilkan di sisi kiri node, node tersebut telah diserahkan. Jika tidak, node tersebut belum diserahkan.

Dapatkah saya mengonfigurasi properti untuk semua node dalam alur kerja sekaligus?

Tidak, Anda tidak dapat mengonfigurasi properti untuk semua node dalam alur kerja. Di DataWorks, Anda tidak diizinkan mengonfigurasi properti untuk alur kerja. Jika alur kerja berisi beberapa node, Anda harus mengonfigurasi properti untuk node satu per satu. Sebagai contoh, jika alur kerja berisi 20 node, Anda harus mengonfigurasi properti untuk node tersebut satu per satu.

Apa dampak terhadap instance node setelah node dihapus?

Sistem penjadwalan menghasilkan satu atau lebih instance untuk node setiap hari berdasarkan properti waktu node. Jika node dihapus setelah dijalankan selama periode waktu tertentu, instance-nya tetap ada. Namun, instance tersebut akan gagal dijalankan setelah node dihapus. Hal ini karena kode yang diperlukan tidak tersedia.

Setelah node dimodifikasi, diserahkan, dan diterapkan ke lingkungan produksi, apakah node bermasalah yang ada di lingkungan produksi tertimpa?

Tidak, node bermasalah yang ada tidak tertimpa. Kode yang diperbarui digunakan untuk menjalankan instance node baru yang belum dijalankan, dan instance node yang ada tetap dipertahankan. Jika properti penjadwalan diubah, konfigurasi yang dimodifikasi hanya berlaku untuk instance node baru.

Bagaimana cara saya membuat tabel secara visual?

Pergi ke halaman DataStudio dan klik Tabel Ruang Kerja di bilah navigasi kiri. Di panel Tabel Ruang Kerja, buat tabel.新建表

Bagaimana cara saya menambahkan bidang ke tabel yang berada di lingkungan produksi?

Jika menggunakan akun Alibaba Cloud, tambahkan bidang ke tabel di panel Workspace Tables halaman DataStudio dan serahkan tabel ke lingkungan produksi.

Jika menggunakan pengguna RAM, Anda harus meminta izin peran insinyur O&M atau administrator ruang kerja untuk pengguna RAM, gunakan pengguna RAM untuk menambahkan bidang ke tabel di panel Workspace Tables halaman DataStudio, dan kemudian serahkan tabel ke lingkungan produksi.

Bagaimana cara saya menghapus tabel?

Anda dapat menghapus tabel dari lingkungan pengembangan di halaman DataStudio.

Untuk menghapus tabel dari lingkungan produksi, gunakan salah satu metode berikut:

  • Pergi ke Data Map dan hapus tabel di tab My Data.

  • Buat node ODPS SQL, dan masukkan serta jalankan pernyataan DROP di tab konfigurasi node. Untuk informasi lebih lanjut tentang cara membuat node ODPS SQL, lihat Kembangkan tugas MaxCompute SQL. Untuk informasi lebih lanjut tentang sintaks pernyataan DROP, lihat Operasi tabel.

删除表

Bagaimana cara saya mengunggah data dari mesin lokal saya ke tabel MaxCompute?

Pergi ke halaman DataStudio dan gunakan fitur Impor di panel Alur Kerja Terjadwal untuk mengimpor data.导入本地数据

Ketika saya membuat tabel di kluster EMR, pesan kesalahan berikut muncul: call emr exception. Apa yang harus saya lakukan?

  • Penyebab potensial:

    Pengaturan keamanan belum dikonfigurasi untuk grup keamanan Instance ECS yang menjadi host kluster EMR Anda. Ketika mendaftarkan kluster EMR ke ruang kerja, Anda harus menambahkan aturan berikut ke grup keamanan Instance ECS yang menjadi host kluster EMR. Jika tidak, pesan kesalahan "call emr exception" mungkin muncul.

    • Tindakan: Mengizinkan

    • Jenis protokol: TCP Kustom

    • Rentang port: 8898/8898

    • Objek otorisasi: 100.104.0.0/16

  • Solusi:

    Periksa pengaturan keamanan grup keamanan Instance ECS yang menjadi host kluster EMR Anda. Jika pengaturan keamanan tidak mencakup aturan sebelumnya, tambahkan aturan tersebut ke grup keamanan.

Bagaimana cara saya menanyakan data yang berada di lingkungan produksi dari lingkungan pengembangan di halaman DataStudio?

Di ruang kerja dalam mode standar, jika ingin menanyakan data yang berada di lingkungan produksi dari lingkungan pengembangan di halaman DataStudio, tentukan tabel yang datanya ingin ditanyakan dalam format Nama Proyek.Nama Tabel.

Di ruang kerja yang ditingkatkan dari mode dasar ke mode standar, jika ingin menanyakan data yang berada di lingkungan produksi dari lingkungan pengembangan di halaman DataStudio, Anda harus meminta izin peran produser terlebih dahulu dan menentukan tabel yang datanya ingin ditanyakan dalam format Nama Proyek.Nama Tabel. Untuk informasi lebih lanjut tentang cara meminta izin, lihat Meminta izin pada tabel.

Bagaimana cara saya menanyakan log operasional historis di halaman DataStudio?

Klik Runtime Logs di bilah navigasi kiri halaman DataStudio. Di panel Log Runtime, Anda dapat melihat log operasional historis.

Berapa lama log operasional di halaman DataStudio disimpan?

Secara default, log operasional di halaman DataStudio disimpan selama tiga hari.

Catatan

Untuk informasi tentang periode retensi log dan instance di Operation Center lingkungan produksi, lihat Berapa lama log grup sumber daya untuk penjadwalan dan instance node yang dijalankan pada grup sumber daya tersebut disimpan?

Bagaimana cara saya melakukan operasi pada beberapa node, sumber daya, atau fungsi sekaligus?

Pergi ke halaman DataStudio dan klik ikon Batch Operation di panel Alur Kerja Terjadwal. Di tab Operasi Batch-Pengembangan Data, Anda dapat melakukan operasi yang diinginkan pada beberapa node, sumber daya, atau fungsi sekaligus. Kemudian, Anda dapat menyerahkan objek yang dioperasikan sekaligus dan menerapkan objek tersebut di halaman Buat Tugas Penerapan agar modifikasi berlaku.

批量操作

Bagaimana cara saya mengubah grup sumber daya untuk penjadwalan untuk beberapa node dalam alur kerja sekaligus di halaman DataStudio?

Temukan alur kerja yang diinginkan di halaman DataStudio, gerakkan pointer di atas nama alur kerja, dan klik ikon di sisi kanan nama alur kerja. Di tab yang muncul, pilih node yang ingin diubah grup sumber dayanya untuk penjadwalan dan klik Ganti Grup Sumber Daya. Setelah mengubah grup sumber daya untuk node tersebut, klik ikon Kirim di toolbar atas untuk menyerahkan node sekaligus. Kemudian, terapkan node di halaman Buat Tugas Penerapan sekaligus agar modifikasi berlaku di lingkungan produksi.批量修改调度资源组

Apa yang harus saya lakukan jika terjadi kesalahan saat saya menghubungkan Power BI ke MaxCompute?

MaxCompute tidak dapat dihubungkan ke Power BI. Kami merekomendasikan Anda untuk menghubungkan Hologres sebagai gantinya dari Power BI ke MaxCompute. Untuk informasi lebih lanjut, lihat Endpoint untuk menghubungkan ke Hologres.

Ketika saya memanggil Operasi API DataWorks, pesan kesalahan berikut muncul: akses dilarang. Harap aktifkan terlebih dahulu DataWorks Enterprise Edition atau Flagship Edition. Apa yang harus saya lakukan?

Aktifkan DataWorks Enterprise Edition. Untuk informasi lebih lanjut, lihat Ikhtisar.

Bagaimana cara saya mendapatkan kasus pemanggilan SDK untuk Python?

Anda dapat mengklik Debug di halaman Operasi API untuk melihat kasus pemanggilan.

Bagaimana cara saya menonaktifkan fitur Percepatan Kueri MaxCompute (MCQA) jika saya ingin mendapatkan ID instance yang digunakan untuk mengunduh lebih dari 10.000 rekaman data?

Untuk mendapatkan ID instance yang diperlukan untuk mengunduh rekaman data, Anda harus menonaktifkan fitur MCQA.

Catatan

DataWorks hanya memungkinkan Anda mengunduh maksimum 10.000 rekaman data. Jika ingin mengunduh lebih dari 10.000 rekaman data dari node ODPS SQL, Anda harus menggunakan perintah Tunnel.

Tambahkan set odps.mcqa.disable=true; ke kode node ODPS SQL dan jalankan pernyataan ini bersama dengan pernyataan SELECT lainnya.

Ketika saya menjalankan tugas, pesan kesalahan berikut muncul: exception: [202:ERROR_GROUP_NOT_ENABLE]:group is not available. Apa yang harus saya lakukan?

Ketika menjalankan tugas, pesan kesalahan berikut muncul: Job Submit Failed! submit job failed directly! Caused by: execute task failed, exception: [202:ERROR_GROUP_NOT_ENABLE]:group is not available.

Penyebab potensial: Grup sumber daya yang diasosiasikan dengan ruang kerja Anda dan digunakan untuk menjalankan tugas tidak dalam keadaan Running.

Solusi: Masuk ke Konsol DataWorks. Di bilah navigasi kiri, klik Grup Sumber Daya. Di tab Grup Sumber Daya Eksklusif halaman Grup Sumber Daya, temukan grup sumber daya yang digunakan dan periksa apakah grup sumber daya tersebut dalam keadaan Running. Jika grup sumber daya dalam keadaan lain, Anda dapat memulai ulang grup sumber daya atau menggunakan grup sumber daya lain untuk menjalankan tugas.