Model Gallery mengintegrasikan Platform for AI (PAI)-DLC dan PAI-EAS, menyediakan solusi tanpa kode untuk menerapkan dan melatih model bahasa besar (LLM) sumber terbuka secara efisien. Panduan ini menggunakan model Qwen3-0.6B untuk menunjukkan prosesnya. Langkah-langkah yang sama berlaku untuk model lain.
Prasyarat
Aktifkan Platform for AI (PAI) dan buat ruang kerja menggunakan Akun Alibaba Cloud Anda. Untuk melakukannya, login ke Konsol PAI, pilih Wilayah di pojok kiri atas, lalu aktifkan layanan tersebut menggunakan otorisasi satu klik.
Penagihan
Contoh dalam panduan ini menggunakan Sumber daya publik untuk membuat task PAI-DLC dan layanan PAI-EAS. Sumber daya ini ditagih berdasarkan skema bayar sesuai penggunaan. Untuk informasi lebih lanjut tentang aturan penagihan, lihat penagihan DLC dan penagihan EAS.
Penerapan model
Terapkan model
Login ke Konsol PAI. Di panel navigasi sebelah kiri, klik Model Gallery. Cari Qwen3-0.6B dan klik Deploy.

Konfigurasikan parameter penerapan. Halaman penerapan mencakup parameter default. Klik Deploy > OK. Proses penerapan memerlukan waktu sekitar 5 menit. Penerapan berhasil ketika status berubah menjadi In operation.
Secara default, layanan ini menggunakan Sumber daya publik dan ditagih berdasarkan skema bayar sesuai penggunaan.

Panggil model
Lihat informasi pemanggilan. Di halaman detail layanan, klik View Call Information untuk mendapatkan Internet Endpoint dan Token.
Untuk melihat detail task penerapan nanti, navigasikan ke Model Gallery > Job Management > Deployment Jobs, lalu klik Service name.

Uji layanan model. Anda dapat memanggil model menggunakan salah satu metode berikut:
Debugging online
Beralih ke halaman Online Debugging. Layanan model bahasa besar mendukung Conversation Debugging dan API Debugging.

Gunakan klien Cherry Studio
Cherry Studio adalah klien chat model besar populer yang mengintegrasikan fitur MCP, sehingga memungkinkan Anda dengan mudah berchat dengan model besar.
Hubungkan ke model Qwen3 yang diterapkan di PAI
Instal klien
Kunjungi Cherry Studio untuk mengunduh dan menginstal klien.
Anda juga dapat mengunjungi
https://github.com/CherryHQ/cherry-studio/releasesuntuk mengunduhnya.Tambahkan penyedia.
Klik tombol
Settings di pojok kanan atas. Lalu, di bagian Model Provider, klik Add.Untuk Provider Name, masukkan nama kustom, seperti Platform for AI. Jenis penyedia adalah OpenAI.
Klik OK.
Masukkan token Anda di bidang API Key dan endpoint Anda di bidang API Host.
Klik Add. Di bidang Model ID, masukkan
Qwen3-0.6B(sensitif terhadap huruf besar/kecil).Anda dapat mengklik Check di samping bidang API Key untuk menguji koneksi.
Klik ikon
untuk kembali ke halaman chat. Di bagian atas jendela, alihkan ke model Qwen3-0.6B yang telah Anda tambahkan untuk mulai berchat.
Gunakan Python SDK
from openai import OpenAI import os # Jika Anda belum mengonfigurasi variabel lingkungan, ganti baris berikut dengan token layanan EAS Anda: token = 'YTA1NTEzMzY3ZTY4Z******************' token = os.environ.get("Token") # Jangan hapus "/v1" di akhir URL layanan. client = OpenAI( api_key=token, base_url=f'Your service URL/v1', ) if token is None: print("Harap konfigurasikan variabel lingkungan Token atau tetapkan token langsung ke variabel token.") exit() query = 'Hello, who are you?' messages = [{'role': 'user', 'content': query}] resp = client.chat.completions.create(model='Qwen3-0.6B', messages=messages, max_tokens=512, temperature=0) query = messages[0]['content'] response = resp.choices[0].message.content print(f'query: {query}') print(f'response: {response}')
Pengingat penting
Layanan model dalam panduan ini dibuat menggunakan Sumber daya publik, yang ditagih berdasarkan skema bayar sesuai penggunaan. Untuk menghindari biaya tambahan, hentikan atau hapus layanan setelah selesai digunakan.

Penyempurnaan model
Untuk meningkatkan performa model dalam domain tertentu, Anda dapat melakukan fine-tuning pada dataset dari domain tersebut. Bagian ini menggunakan skenario berikut untuk menunjukkan tujuan dan langkah-langkah fine-tuning model.
Kasus penggunaan
Di industri logistik, Anda sering perlu mengekstraksi informasi terstruktur (seperti penerima, alamat, dan nomor telepon) dari bahasa alami. Model besar seperti Qwen3-235B-A22B berkinerja baik dalam tugas ini tetapi mahal dan memiliki latensi tinggi. Untuk menyeimbangkan performa dan biaya, Anda dapat terlebih dahulu menggunakan model berparameter besar untuk memberi label data, lalu menggunakan data tersebut untuk menyempurnakan model yang lebih kecil, seperti Qwen3-0.6B. Proses ini juga dikenal sebagai distilasi model.
Untuk tugas ekstraksi informasi terstruktur yang sama, model Qwen3-0.6B asli mencapai akurasi 50%. Setelah fine-tuning, akurasinya dapat melebihi 90%.
Contoh informasi alamat penerima | Contoh informasi terstruktur |
Amina Patel - Nomor telepon (474) 598-1543 - 1425 S 5th St, Apt 3B, Allentown, Pennsylvania 18104 | |
Persiapkan data
Untuk menyuling pengetahuan dari model guru (Qwen3-235B-A22B) ke model Qwen3-0.6B untuk tugas ini, pertama-tama Anda perlu menggunakan API model guru untuk mengekstraksi informasi alamat penerima ke dalam data JSON terstruktur. Menghasilkan data ini bisa memakan waktu. Oleh karena itu, topik ini menyediakan contoh training dataset train.json dan validation set eval.json yang dapat Anda unduh dan gunakan langsung.
Dalam distilasi model, model yang lebih besar dikenal sebagai model guru. Data yang digunakan dalam panduan ini dihasilkan secara sintetis oleh model besar dan tidak mengandung informasi pengguna sensitif apa pun.
Peluncuran
Penyempurnaan model
Di panel navigasi sebelah kiri, klik Model Gallery. Cari model Qwen3-0.6B dan klik Fine-tune.

Konfigurasikan parameter task pelatihan. Konfigurasikan parameter kunci berikut dan biarkan yang lain pada nilai defaultnya.
Training Mode: Default adalah SFT (Supervised Fine-Tuning), yang menggunakan metode fine-tuning LoRA.
LoRA adalah teknik fine-tuning efisien yang menghemat sumber daya pelatihan dengan hanya memodifikasi subset parameter model.
Training dataset: Pertama, unduh contoh training dataset train.json. Kemudian, di halaman konfigurasi, pilih OSS file or directory dan klik ikon
untuk memilih bucket. Klik Upload file untuk mengunggah dataset ke Object Storage Service (OSS). Terakhir, pilih file tersebut.
Validation dataset: Pertama, unduh validation dataset eval.json. Kemudian, klik Add validation dataset dan ikuti prosedur yang sama seperti untuk training dataset untuk mengunggah dan memilih file.
Validation dataset digunakan selama pelatihan untuk mengevaluasi performa model pada data yang belum pernah dilihat.
Model output path: Secara default, model yang telah disempurnakan disimpan ke OSS. Jika direktori OSS kosong, klik Create folder dan tentukan direktori.
Resource Group Type: Pilih Public Resource Group. Task fine-tuning ini membutuhkan sekitar 5 GB Memori GPU. Konsol telah memfilter spesifikasi sumber daya yang tersedia untuk memenuhi persyaratan ini. Pilih spesifikasi seperti
ecs.gn7i-c16g1.4xlarge.Hyperparameters:
learning_rate: Atur ke 0.0005
num_train_epochs: Atur ke 4
per_device_train_batch_size: Atur ke 8
seq_length: Atur ke 512
Klik Train > OK. Status task pelatihan berubah menjadi Creating. Ketika status berubah menjadi In operation, proses fine-tuning model dimulai.
Lihat task pelatihan dan tunggu hingga selesai. Proses fine-tuning model memerlukan waktu sekitar 10 menit. Selama fine-tuning, halaman detail task menampilkan log dan kurva metrik. Setelah pelatihan selesai, model yang telah disempurnakan disimpan ke direktori OSS yang ditentukan.
Untuk melihat detail task pelatihan nanti, klik Model Gallery > Job Management > Training Jobs di panel navigasi sebelah kiri, lalu klik nama task.

Terapkan model yang telah disempurnakan
Di halaman detail job pelatihan, klik tombol Deploy untuk membuka halaman konfigurasi penerapan. Atur Resource Type ke Public Resources. Menerapkan model 0.6B membutuhkan sekitar 5 GB Memori GPU. Dropdown Resource Type telah difilter untuk menampilkan spesifikasi yang memenuhi persyaratan ini. Pilih spesifikasi seperti ecs.gn7i-c8g1.2xlarge. Pertahankan parameter lain pada pengaturan default, lalu klik Deploy > OK.
Proses penerapan memerlukan waktu sekitar 5 menit. Ketika status berubah menjadi Running, penerapan berhasil.
Untuk melihat detail task pelatihan nanti, di panel navigasi sebelah kiri, klik Model Gallery > Job Management > Training Jobs, lalu klik nama task.

Jika tombol Deploy dinonaktifkan setelah task pelatihan berhasil, artinya model output masih dalam proses pendaftaran. Tunggu sekitar 1 menit.

Langkah-langkah selanjutnya untuk memanggil model sama seperti yang dijelaskan di bagian Panggil model.
Verifikasi performa model yang telah disempurnakan
Sebelum menerapkan model yang telah disempurnakan ke lingkungan produksi, evaluasi performanya secara sistematis untuk memastikan stabilitas dan akurasi serta menghindari masalah tak terduga setelah penerapan.
Persiapkan data uji
Persiapkan test dataset yang tidak tumpang tindih dengan data pelatihan untuk menguji performa model. Topik ini menyediakan test set yang diunduh otomatis saat Anda menjalankan kode uji akurasi di bawah ini.
Data uji tidak boleh tumpang tindih dengan data pelatihan. Ini memastikan refleksi yang lebih akurat terhadap kemampuan generalisasi model pada data baru dan menghindari skor yang terlalu tinggi akibat memorisasi sampel.
Rancang metrik evaluasi
Kriteria evaluasi harus selaras erat dengan tujuan bisnis aktual Anda. Dalam contoh solusi ini, selain memeriksa apakah string JSON yang dihasilkan valid, Anda juga harus memeriksa apakah pasangan kunci-nilai yang sesuai benar.
Anda perlu mendefinisikan metrik evaluasi secara terprogram. Untuk implementasi metrik evaluasi dalam contoh ini, lihat metode compare_address_info dalam kode uji akurasi di bawah ini.Verifikasi performa model yang telah disempurnakan
Jalankan kode uji berikut, yang akan menghasilkan akurasi model pada test set.
Output:
Semua prediksi selesai! Hasil telah disimpan ke predicted_labels.jsonl
Jumlah sampel: 400
Tanggapan benar: 382
Tanggapan salah: 18
Akurasi: 95.5 %Karena seed acak dalam fine-tuning model dan sifat stokastik output model besar, akurasi yang Anda capai mungkin berbeda dari hasil dalam topik ini. Hal ini normal.
Akurasi sebesar 95,5%, peningkatan signifikan dibandingkan akurasi 50% model Qwen3-0.6B asli. Ini menunjukkan bahwa model yang telah disempurnakan telah meningkatkan kemampuannya secara signifikan dalam mengekstraksi informasi terstruktur di ranah logistik.
Untuk mengurangi waktu pelatihan, panduan ini hanya menggunakan 4 epoch pelatihan, yang sudah meningkatkan akurasi menjadi lebih dari 90%. Anda dapat lebih meningkatkan akurasi dengan menambah jumlah epoch pelatihan.
Pengingat penting
Layanan model dalam panduan ini dibuat menggunakan Sumber daya publik, yang ditagih berdasarkan skema bayar sesuai penggunaan. Untuk menghindari biaya tambahan, hentikan atau hapus layanan setelah selesai digunakan.

Referensi
Untuk informasi lebih lanjut tentang fitur Model Gallery seperti evaluasi dan kompresi, lihat Model Gallery.
Untuk informasi lebih lanjut tentang fitur EAS seperti Auto Scaling, uji stres, dan Pemantauan Peringatan, lihat Ikhtisar EAS.

