Sebelum menjalankan tugas seperti pelatihan AI atau analitik data, prefetch volume besar data dingin yang disimpan di Object Storage Service (OSS) ke volume penyimpanan berkinerja tinggi—seperti CPFS for Lingjun atau cloud disk—sesuai permintaan. Tugas komputasi kemudian dapat membaca data langsung dari volume berkinerja tinggi tersebut dengan kecepatan tinggi. Setelah tugas selesai, volume penyimpanan secara otomatis diklaim ulang, sehingga menyeimbangkan akselerasi komputasi dengan optimalisasi biaya.
Cara kerja
Implementasi fitur
Fitur ini menggunakan Volume Populators Kubernetes dan dikelola oleh storage-operator ACK. Saat Anda membuat persistent volume claim (PVC) yang mereferensikan resource kustom OSSVolumePopulator (OSSVP), storage-operator mencegat permintaan tersebut dan melakukan operasi pengisian data.
Bergantung pada jenis volume target, pengisian dilakukan dalam salah satu mode berikut.
Mode | Jenis penyimpanan yang didukung | Deskripsi |
| CPFS for Lingjun | storage-operator memanggil kemampuan alur data native CPFS untuk mengisi data. Mode ini tidak mengonsumsi resource komputasi kluster dan menawarkan efisiensi lebih tinggi. |
| Jenis penyimpanan lain, seperti cloud disk atau edisi umum CPFS | storage-operator membuat pod sementara di namespace Mode ini mengonsumsi resource komputasi kluster. |
Setelah pengisian data berhasil, status PVC berubah dari Pending menjadi Bound. Pada titik ini, pod aplikasi dapat memasang PVC dan mengakses data yang telah diprefill.
Skenario khas
Fitur ini mendukung dua kasus penggunaan utama.
Dimensi | Skenario 1: Prefetch data ke volume bersama CPFS for Lingjun | |
Skenario yang berlaku | Workload intensif-baca berthroughput tinggi seperti pelatihan dan inferensi model AI, dirancang untuk mengatasi bottleneck kinerja akses OSS. | Tugas pemrosesan batch paralel atau pipa data yang memerlukan ruang kerja baca-tulis terisolasi, dirancang untuk mengatasi konflik konkurensi dan memastikan isolasi data. |
Implementasi teknis | Gunakan CPFS for Lingjun dengan mode | Gunakan penyimpanan yang diprovisikan secara dinamis seperti cloud disk dengan mode |
Karakteristik utama |
|
|
Alur kerja
Langkah inti untuk menggunakan VolumePopulator serupa di kedua mode.
|
Persiapan
Pastikan kluster Anda menjalankan Kubernetes versi 1.26 atau lebih baru dan menggunakan plugin CSI. Fitur ini bergantung pada volume yang diprovisikan secara dinamis dan hanya mendukung penyimpanan yang diprovisikan secara dinamis.
Untuk meningkatkan kluster Anda, lihat Tingkatkan kluster secara manual. Untuk migrasi dari FlexVolume ke CSI, lihat Migrasi FlexVolume ke CSI menggunakan csi-compatible-controller.
Tingkatkan storage-operator ke versi v1.35.1 atau lebih baru dan aktifkan Feature Gate
VolumePopulator.Jika feature gate lain sudah diaktifkan, gunakan format:
xxxxxx=true,yyyyyy=false,VolumePopulator=true
Skenario 1: Pramuat data ke volume bersama CPFS for Lingjun
Solusi ini ditujukan untuk skenario read-only berthroughput tinggi seperti pelatihan dan inferensi model. Solusi ini memanfaatkan kemampuan alur data CPFS for Lingjun untuk prefetch model dari OSS ke volume CPFS for Lingjun sesuai permintaan, memungkinkan beberapa tugas GPU membaca data dengan kecepatan tinggi.
Persiapan
Selesaikan persiapan untuk menggunakan volume dinamis CPFS for Lingjun.
Tinjau dokumentasi alur data CPFS for Lingjun (pratinjau undangan) untuk detail fitur dan batasan.
PentingAlur data CPFS for Lingjun sedang dalam pratinjau undangan. Kinerja dapat berfluktuasi di kluster berskala besar. Jika Anda mengalami masalah atau memiliki saran produk, bergabunglah dengan grup DingTalk 35532895 untuk menghubungi kami.
1. Tetapkan tag tertentu pada bucket OSS
Ikuti petunjuk di Operasi tagging objek untuk menambahkan tag ke bucket OSS Anda dengan key cpfs-dataflow dan value true.
Jangan menghapus atau mengubah tag ini selama penggunaan, karena dapat menyebabkan kegagalan pembuatan volume.
2. Buat OSSVolumePopulator (OSSVP)
Buat resource OSSVolumePopulator di namespace yang sama dengan aplikasi dan PVC Anda untuk mendefinisikan sumber data OSS.
apiVersion: storage.alibabacloud.com/v1beta1
kind: OSSVolumePopulator
metadata:
name: qwen3-32b
# Harus berada di namespace yang sama dengan aplikasi dan PVC
namespace: bmcpfs-dataflow-demo
spec:
bucket: <your-bucket-name>
region: cn-hangzhou
endpoint: oss-cn-hangzhou-internal.aliyuncs.com
path: /Qwen3-32B/
# Khusus untuk volume CPFS for Lingjun, memanfaatkan kemampuan alur datanya
mode: bmcpfs-dataflow
# Konfigurasi lanjutan opsional untuk mode bmcpfs-dataflow
# Contoh ini merekomendasikan pengaturan default. Abaikan jika tidak ada kebutuhan khusus.
# bmcpfsDataflow:
# Throughput alur data maksimum (MB/s). Opsi: 600, 1200, 1500. Default: 600
# throughput: 1200
# Aktifkan transfer terenkripsi. Default: kosong (dinonaktifkan)
# sourceSecurityType: SSL
# Mode prefill data. Default: metadataAndData untuk prefill penuh.
# Atur ke metadata untuk prefill metadata saja.
# dataType: metadataAndDataDeskripsi parameter:
Nama Parameter | Deskripsi | Opsional | Default |
| OSSVolumePopulator harus berada di namespace yang sama dengan aplikasi dan PVC. | Tidak | N/A |
| Nama bucket OSS. | Tidak | N/A |
| Wilayah OSS. | Tidak | N/A |
| Alamat Titik akhir layanan OSS. | Tidak | N/A |
| Awalan path dalam bucket OSS, seperti | Ya |
|
| Mode operasi. Opsi:
| Ya |
|
| Throughput maksimum alur data CPFS for Lingjun (MB/s). Opsi: | Ya | Sama dengan default alur data CPFS for Lingjun |
| Jenis protokol keamanan transfer data, seperti | Ya | Enkripsi dinonaktifkan |
| Tentukan tipe data yang disinkronkan:
| Ya |
|
3. Siapkan StorageClass dan PVC
Buat StorageClass yang mereferensikan CPFS for Lingjun, lalu buat PVC dan referensikan OSSVP yang telah dibuat sebelumnya menggunakan dataSourceRef.
Buat StorageClass | Setiap volume dinamis yang dibuat melalui StorageClass ini secara otomatis membuat Fileset di backend CPFS for Lingjun. Dengan membuat resource OSSVP berbeda saat membuat OSSVolumePopulator, Anda dapat memprefill dataset OSS berbeda ke volume dinamis berbeda menggunakan StorageClass yang sama. |
Buat PVC | Karena StorageClass mengatur |
4. Verifikasi status prefill data
Periksa progres alur data: Selama pengisian, status PVC tetap Pending dan berubah menjadi Bound setelah selesai.
Untuk mode bmcpfs-dataflow, Anda juga dapat memeriksa progres alur data CPFS for Lingjun secara real-time menggunakan perintah berikut.
kubectl -n bmcpfs-dataflow-demo describe ossvp qwen3-32bstatusselama pengisian:Bmcpfs Dataflow: 62a4e7ec-fae1-4f11-848f-b57cxxxxxxxx: Data Flow Id: df-29d3ad9e9xxxxxxx Data Flow Task Id: task-2993179xxxxxxxxx File Set Id: fset-2997498xxxxxxxxx File System Id: bmcpfs-29000z8xz3lf5xxxxxxxx Progress: 59%statussetelah selesai:Message: Populated successfully
5. Buat workload dan gunakan data
Setelah PVC menjadi Bound, buat workload yang memasang PVC ini.
Contoh ini menggunakan resource GPU. Untuk verifikasi saja, buat pod CPU dan gunakan kubectl exec untuk masuk ke kontainer dan memeriksa data.
Panduan pembersihan resource
Setelah menyelesaikan tugas pelatihan atau inferensi AI, segera lepaskan volume bersama CPFS for Lingjun dan workload terkait yang dibuat untuknya.
Resource yang perlu dilepaskan:
Workload yang menggunakan volume bersama (dalam contoh ini,
StatefulSet)PVC yang digunakan untuk prefill data
Resource penyimpanan backend (FileSet CPFS for Lingjun) yang dibuat secara otomatis oleh PVC
Prosedur pembersihan:
Hapus workload
Hapus StatefulSet yang menggunakan volume untuk melepaskan PVC.
kubectl delete statefulset demo-apply-qwen3-32b -n bmcpfs-dataflow-demoHapus PVC
Karena StorageClass mengatur
reclaimPolicy: Delete, tindakan ini secara otomatis memicu penghapusan FileSet CPFS backend, melepaskan ruang penyimpanan dan menghentikan penagihan.kubectl delete pvc qwen3-32b -n bmcpfs-dataflow-demoVerifikasi pembersihan resource:
Verifikasi sistem file CPFS for Lingjun: Buka Konsol NAS, pilih File System > File System List, dan pastikan FileSet yang terkait dengan PVC ini telah dihapus serta kapasitas yang digunakan sistem file telah berkurang.
Verifikasi data sumber OSS: Operasi ini tidak memengaruhi data sumber OSS. Untuk memverifikasi, buka Konsol OSS dan pastikan dataset tetap utuh.
Skenario 2: Prefetch data ke volume cloud disk terisolasi
Solusi ini berlaku untuk alur kerja pemrosesan batch. Menggunakan Argo Workflows, solusi ini secara dinamis membuat dan memanaskan cloud disk independen untuk setiap tugas, mencapai isolasi dan elastisitas data.
Persiapan
Aktifkan
VolumePopulatorPodHandlerdi storage-operator.Setelah diaktifkan, sistem secara otomatis memberikan izin RBAC yang diperlukan kepada komponen terkait dan pod sementara. Evaluasi risiko keamanan potensial sebelum mengaktifkan.
Komponen Argo Workflows telah diinstal.
Contoh ini menggunakan komputasi arsitektur tanpa server (ECI) untuk menjalankan tugas prefill data dan alur kerja, sehingga Anda juga harus menginstal komponen ack-virtual-node. Jika Anda menggunakan komputasi non-arsitektur tanpa server untuk verifikasi, hapus label terkait
alibabacloud.com/eci: "true"dari resource.
1. Berikan otorisasi akses OSS untuk tugas prefill data
Dalam mode generic, tugas prefill data dijalankan sebagai pod sementara di namespace ack-volume-populator. Anda harus memberikan izin kepada pod ini untuk mengakses bucket OSS yang berisi data sumber.
Metode RRSA: Menetapkan peran RAM sementara yang berotasi otomatis ke pod untuk isolasi izin tingkat aplikasi detail halus dengan keamanan lebih tinggi.
Metode AccessKey: Menyimpan kredensial statis jangka panjang dalam Secret. Konfigurasi sederhana tetapi kurang aman.
Metode RRSA
Masuk ke Konsol Manajemen Layanan Kontainer . Di panel navigasi sebelah kiri, klik Clusters.
2. Buat peran RAM dan berikan izin
Buat peran RAM agar pod dapat mengasumsikan, memungkinkan akses OSS melalui otentikasi RRSA.
Metode AccessKey
Buat pengguna RAM (lewati langkah ini jika Anda sudah memilikinya). Buka halaman Buat Pengguna di Konsol RAM. Ikuti petunjuk di layar untuk membuat pengguna RAM. Tetapkan nama login dan kata sandi.
Buat kebijakan izin.
Mengikuti prinsip hak istimewa minimal, buat kebijakan kustom yang memberikan akses ke bucket OSS target (izin baca-saja atau baca-tulis OSS).
Buka halaman Konsol RAM - Buat Kebijakan, alihkan ke Script Editor, dan konfigurasikan skrip kebijakan sesuai petunjuk.
Berikan kebijakan kepada pengguna RAM.
Masuk ke halaman Users di konsol RAM. Pada kolom Actions untuk pengguna yang dituju, klik Attach Policy.
Di bagian Access Policy, cari dan pilih kebijakan yang telah Anda buat, lalu tambahkan izin tersebut.
Buat AccessKey untuk pengguna RAM untuk disimpan sebagai Secret untuk prefill data.
Buka halaman Konsol RAM - Pengguna, klik pengguna target di daftar Pengguna RAM, lalu di bagian AccessKey, klik Create AccessKey.
Ikuti petunjuk untuk membuat AccessKey di kotak dialog dan simpan dengan aman ID AccessKey dan Rahasia AccessKey.
Buat Secret di kluster.
Gunakan YAML berikut untuk membuat Secret di namespace
ack-volume-populatoruntuk menyimpan AccessKey.apiVersion: v1 kind: Secret metadata: name: oss-secret # Tetap sebagai ack-volume-populator namespace: ack-volume-populator stringData: # Ganti dengan ID AccessKey yang diperoleh sebelumnya accessKeyId: <your-AccessKey-ID> # Ganti dengan Rahasia AccessKey yang diperoleh sebelumnya accessKeySecret: <your-AccessKey-Secret>
2. Buat OSSVolumePopulator (OSSVP)
Buat resource OSSVolumePopulator di namespace yang sama dengan aplikasi dan PVC Anda untuk mendefinisikan sumber data dan menentukan mode sebagai generic beserta metode otorisasi.
apiVersion: storage.alibabacloud.com/v1beta1
kind: OSSVolumePopulator
metadata:
name: generic-demo
# Harus berada di namespace yang sama dengan aplikasi dan PVC
namespace: argo
spec:
bucket: my-test-bucket
region: cn-hangzhou
endpoint: oss-cn-hangzhou-internal.aliyuncs.com
path: /many-files/
# Mode generik untuk volume penyimpanan backend apa pun
mode: generic
generic:
# Tambahkan label ke pod tugas pengisian data untuk penjadwalan ke pod ECI
labels:
alibabacloud.com/eci: "true"
# Tambahkan anotasi ke pod tugas pengisian data untuk mengonfigurasi spesifikasi ECI
annotations:
k8s.aliyun.com/eci-use-specs: "2-4Gi"
# Pilih salah satu antara secretRef atau rrsaConfigs
# secretRef: oss-secret
rrsaConfigs:
# ARN peran RAM yang digunakan untuk otorisasi RRSA
roleArn: "acs:ram::1234567*****:role/oss-populator"
# ARN Penyedia OIDC kluster
oidcProviderArn: "acs:ram::1234567*****:oidc-provider/my-oidc-provider"
# Konfigurasikan afinitas untuk pod tugas pengisian data agar dijadwalkan ke node tertentu
affinity:
nodeAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
nodeSelectorTerms:
- matchExpressions:
- key: "disktype"
operator: NotIn
values:
- "hdd"
# Konfigurasikan toleransi untuk pod tugas pengisian data
tolerations:
- key: "virtual-kubelet.io/provider"
operator: Equal
value: "alibabacloud"
effect: NoSchedule
# Throughput maksimum (MB/s)
# throughput: 1000Deskripsi parameter:
Nama Parameter | Deskripsi | Opsional | Default |
| OSSVolumePopulator harus berada di namespace yang sama dengan aplikasi dan PVC. | Tidak | N/A |
| Nama bucket OSS. | Tidak | N/A |
| Wilayah OSS. | Tidak | N/A |
| Alamat Titik akhir layanan OSS. | Tidak | N/A |
| Awalan path dalam bucket OSS, seperti | Ya |
|
| Mode operasi. Opsi:
| Ya |
|
| Tambahkan label ke pod tugas pengisian data untuk penjadwalan ke ECI. | Ya | N/A |
| Tambahkan anotasi ke pod tugas pengisian data untuk mengonfigurasi spesifikasi ECI. | Ya | N/A |
| Nama Secret yang menyimpan AccessKey. Pilih salah satu antara ini atau | Ya | N/A |
| ARN peran RAM yang digunakan untuk otorisasi RRSA. Buka halaman Konsol RAM - Peran, klik nama peran RAM, dan dapatkan dari halaman detail. | Diperlukan saat menggunakan RRSA | N/A |
| ARN Penyedia OIDC kluster. Buka halaman kluster ACK, klik nama kluster target, pilih Cluster Information, dan dapatkan dari tab Basic Information di bawah RRSA OIDC. | Diperlukan saat menggunakan RRSA | N/A |
| Konfigurasikan afinitas untuk pod tugas pengisian data agar dijadwalkan ke node tertentu. | Ya | N/A |
| Konfigurasikan toleransi untuk pod tugas pengisian data. | Ya | N/A |
| Throughput maksimum (MB/s) untuk mengatur kecepatan unduh maksimum untuk pod tugas pengisian data. Berbeda dengan | Ya | Tanpa Batas (laju aktual tergantung pada jaringan node, CPU, dan kinerja tulis penyimpanan) |
3. Siapkan StorageClass
Skenario ini memerlukan StorageClass untuk memprovisikan cloud disk secara dinamis. ACK menyediakan StorageClass default dan juga mendukung pembuatan StorageClass secara manual.
Contoh ini menggunakan
alicloud-disk-essd, yang memilikireclaimPolicydiatur keDeletedanvolumeBindingModediatur keImmediate, cocok untuk skenario yang menggunakan komputasi arsitektur tanpa server di mana kesadaran zona tidak diperlukan.Jika Anda menjalankan alur kerja pada komputasi non-arsitektur tanpa server, gunakan StorageClass dengan
volumeBindingModediatur keWaitForFirstConsumer(sepertialicloud-disk-topology-alltype) untuk memastikan cloud disk dan pod aplikasi dibuat di zona yang sama, menghindari kegagalan penjadwalan akibat ketidaksesuaian zona.
4. Buat Argo Workflow
Contoh Workflow berikut menggunakan ephemeral volumeClaimTemplate untuk secara dinamis membuat cloud disk independen dengan data awal yang telah diprefill untuk setiap tugas paralel.
Setelah membuat Workflow, periksa log dari pod tugas apa pun untuk mengonfirmasi pembacaan data yang telah diprefill berhasil.
Di lingkungan produksi, Anda juga dapat menggunakan fitur Artifact Argo Workflows untuk menyimpan hasil komputasi akhir di OSS.
# Ganti <your-workflow-pod-name> dengan nama pod aktual
kubectl -n argo logs <your-workflow-pod-name>Output yang diharapkan:
Subtask started, ID: 1
Creating a new log file...
Listing contents from the disk populated by OSSVP:
1-logs
lost+found
results-2025-04-16T07:48:00Z
...
Subtask completed, ID: 1Analisis hasil:
1-logs: File yang baru ditulis oleh tugas, memverifikasi bahwa volume bersifat baca-tulis dan penyimpanan terisolasi antar tugas paralel.results-2025-04-16T07:48:00Zdan file serupa: Data yang diprefill dari OSS ke cloud disk, mengonfirmasi bahwa fitur prefilling berfungsi dengan benar.lost+found: Direktori yang dihasilkan secara otomatis setelah pemformatan sistem file. Abaikan.
Panduan pembersihan resource
Setelah menyelesaikan tugas pemrosesan batch, segera lepaskan volume cloud disk terisolasi dan alur kerja terkait yang dibuat secara dinamis oleh Argo Workflow.
Resource yang perlu dilepaskan:
Instans Argo Workflow
PVC sementara yang dibuat secara otomatis oleh Workflow
Resource penyimpanan backend (cloud disk) yang dibuat secara otomatis oleh PVC.
Alur pelepasan:
Hapus Argo Workflow:
Untuk skenario ini, biasanya cukup hapus resource
Workflow. Karena workflow menggunakan klaim volumeephemeral, menghapus Workflow secara otomatis menghapus semua PVC yang dibuatnya.StorageClassmengaturreclaimPolicy: Delete, yang selanjutnya memicu penghapusan otomatis cloud disk backend, melepaskan resource dan menghentikan penagihan.# Ganti <workflow-name> dengan nama Workflow aktual kubectl -n argo delete workflow <workflow-name>Verifikasi pembersihan resource:
Verifikasi PVC: Jalankan
kubectl -n argo get pvcuntuk mengonfirmasi semua PVC terkait workflow ini telah dihapus.Verifikasi resource cloud disk: Buka Konsol ECS - Penyimpanan Blok - Disk dan pastikan tidak ada resource cloud disk yang tersisa dari workflow ini.
Verifikasi data sumber OSS: Operasi ini tidak memengaruhi data sumber OSS. Untuk memverifikasi, buka Konsol OSS dan pastikan dataset tetap utuh.
Rekomendasi lingkungan produksi
Manajemen biaya dan resource:
Atur pengklaiman ulang resource otomatis: Konfigurasikan
reclaimPolicy: Deleteuntuk StorageClass yang digunakan untuk membuat volume secara dinamis. Ini memastikan resource penyimpanan berkinerja tinggi secara otomatis dibersihkan setelah tugas selesai.Optimalkan biaya pengisian data (
genericmode): Dalam modegeneric, pengisian data mengonsumsi resource komputasi. Dengan mengonfigurasiaffinitydantolerationsdiOSSVolumePopulator, Anda dapat menjadwalkan pod tugas sementara ke komputasi arsitektur tanpa server berbiaya lebih rendah (termasuk ACS, ECI) atau spot instans.Rencanakan kapasitas penyimpanan: Kapasitas
storageyang diminta saat membuat PVC harus melebihi ukuran data sumber. Jika tidak, pengisian data gagal karena ruang tidak mencukupi.
Kinerja dan stabilitas:
Penyelarasan zona cloud disk: Cloud disk adalah resource berlingkup zona. Saat menggunakan node ECS, atur
StorageClassvolumeBindingModekeWaitForFirstConsumeruntuk memastikan cloud disk dan pod aplikasi selalu dibuat di zona yang sama, menghindari kegagalan pemasangan akibat penjadwalan lintas zona.Seimbangkan mode prefill CPFS for Lingjun: Jika Anda memprioritaskan kesiapan PV cepat dan dapat mentolerir latensi pada pembacaan file pertama, pilih
dataType: metadata. Jika workload Anda memerlukan kinerja baca pertama yang tinggi dan prefilling data penuh, pilihdataType: metadataAndData.Pemantauan status: Gunakan
kubectl describe ossvp <name>untuk memantau status dan event tugas prefill data guna troubleshooting cepat.
Keamanan dan izin:
Gunakan RRSA untuk otorisasi aman: Dalam mode
generic, saat memberikan izin akses OSS kepada pod tugas pengisian data, lebih baik gunakan metode RRSA untuk menghindari risiko keamanan akibat kebocoran AccessKey.
Informasi penagihan
Fitur ini melibatkan biaya berikut:
Biaya penyimpanan berkinerja tinggi: Dikenakan berdasarkan jenis volume yang dibuat (seperti CPFS for Lingjun atau cloud disk) dan siklus hidupnya.
Biaya penyimpanan OSS: Biaya penyimpanan untuk data sumber di OSS.
Biaya transfer data: Konfigurasikan titik akhir internal OSS di OSSVP untuk menghindari biaya trafik. Menggunakan titik akhir publik mengakibatkan biaya trafik.
Biaya resource komputasi (hanya untuk mode
generic): Pod sementara dalam modegenericmengonsumsi resource komputasi kluster (CPU, memori, bandwidth) dan ditagih berdasarkan spesifikasi dan durasi.Untuk CPFS for Lingjun dalam mode
bmcpfs-dataflow, tugas alur data gratis digunakan karena fitur alur data sedang dalam pratinjau publik.
FAQ
Setelah prefilling selesai, jika saya memperbarui file sumber di OSS, apakah data di volume akan disinkronkan secara otomatis?
Tidak. Prefilling data adalah operasi satu kali selama pembuatan volume. Setelah volume dibuat dan diisi, isinya terpisah dari data sumber OSS. Perubahan selanjutnya pada OSS tidak akan disinkronkan ke volume yang telah dibuat.
Mengapa PVC saya tetap dalam status Pending?
Pending adalah normal selama prefilling data. Jika tetap Pending dalam waktu lama, troubleshooting sebagai berikut.
kubectl describe pvc <pvc-name> -n <namespace>: Periksa Event PVC untuk pesan error terkait Populator.kubectl describe ossvp <ossvp-name> -n <namespace>: Periksa Status dan Event OSSVP untuk status, progres, atau alasan kegagalan tugas pengisian.Jika menggunakan mode
generic, periksa pod yang gagal di namespaceack-volume-populatordan tinjau log-nya. Penyebab umum termasuk izin OSS tidak mencukupi, masalah jaringan, atau ruang penyimpanan tidak mencukupi.