Model Gallery mengintegrasikan Platform for AI (PAI)-DLC dan PAI-EAS, menyediakan solusi tanpa kode untuk menerapkan dan melatih model bahasa besar (LLM) sumber terbuka secara efisien. Panduan ini menggunakan model Qwen3-0.6B untuk menunjukkan prosesnya. Langkah-langkah yang sama berlaku untuk model lainnya.
Prasyarat
Aktifkan Platform for AI (PAI) dan buat ruang kerja menggunakan Akun Alibaba Cloud Anda. Untuk melakukannya, masuk ke Konsol PAI, pilih Wilayah di pojok kiri atas, lalu aktifkan layanan tersebut menggunakan otorisasi satu klik.
Penagihan
Contoh dalam panduan ini menggunakan Sumber daya publik untuk membuat tugas PAI-DLC dan layanan PAI-EAS. Sumber daya ini dikenai biaya berdasarkan skema bayar sesuai penggunaan. Untuk informasi lebih lanjut tentang aturan penagihan, lihat Penagihan DLC dan Penagihan EAS.
Penerapan model
Terapkan model
Masuk ke Konsol PAI. Di panel navigasi sebelah kiri, klik Model Gallery. Cari Qwen3-0.6B dan klik Deploy.

Konfigurasi parameter penerapan. Halaman penerapan mencakup parameter default. Klik Deploy > OK. Proses penerapan memerlukan waktu sekitar 5 menit. Penerapan berhasil ketika status berubah menjadi Running.
Secara default, layanan ini menggunakan Sumber daya publik dan dikenai biaya berdasarkan skema bayar sesuai penggunaan.

Panggil model
Lihat informasi pemanggilan. Di halaman detail layanan, klik View Call Information untuk mendapatkan Internet Endpoint dan Token.
Untuk melihat detail tugas penerapan nanti, navigasi ke Model Gallery > Job Management > Deployment Jobs, lalu klik Service name.

Uji layanan model. Anda dapat memanggil model menggunakan salah satu metode berikut:
Debugging online
Beralih ke halaman Online Debugging. Di bidang Body, masukkan pertanyaan, seperti
Hello, who are you?. Lalu, klik Send Request. Tanggapan LLM ditampilkan di sebelah kanan.
Gunakan klien Cherry Studio
Cherry Studio adalah klien obrolan model besar populer yang mengintegrasikan fitur MCP, yang memungkinkan Anda dengan mudah mengobrol dengan model besar.
Sambungkan ke model Qwen3 yang diterapkan di PAI
Instal Klien
Buka Cherry Studio untuk mengunduh dan menginstal klien.
Anda juga dapat membuka
https://github.com/CherryHQ/cherry-studio/releasesuntuk mengunduhnya.Tambahkan penyedia.
Klik tombol Pengaturan
di pojok kanan atas. Lalu, di bagian Model Provider, klik Add.Untuk Provider Name, masukkan nama kustom, seperti Platform for AI. Jenis penyedia adalah OpenAI.
Klik OK.
Masukkan token Anda di bidang API Key dan titik akhir Anda di bidang API Host.
Klik Add. Di bidang Model ID, masukkan
Qwen3-0.6B(peka huruf besar/kecil).Anda dapat mengklik Check di sebelah bidang API Key untuk menguji koneksi.
Klik ikon
untuk kembali ke halaman obrolan. Di bagian atas jendela, alihkan ke model Qwen3-0.6B yang telah Anda tambahkan untuk mulai mengobrol.
Gunakan Python SDK
from openai import OpenAI import os # Jika Anda belum mengonfigurasi variabel lingkungan, ganti baris berikut dengan token layanan EAS Anda: token = 'YTA1NTEzMzY3ZTY4Z******************' token = os.environ.get("Token") # Jangan hapus "/v1" di akhir URL layanan. client = OpenAI( api_key=token, base_url=f'Your service URL/v1', ) if token is None: print("Harap konfigurasikan variabel lingkungan Token atau tetapkan langsung nilai token ke variabel token.") exit() query = 'Hello, who are you?' messages = [{'role': 'user', 'content': query}] resp = client.chat.completions.create(model='Qwen3-0.6B', messages=messages, max_tokens=512, temperature=0) query = messages[0]['content'] response = resp.choices[0].message.content print(f'query: {query}') print(f'response: {response}')
Pengingat penting
Layanan model dalam panduan ini dibuat menggunakan Sumber daya publik, yang dikenai biaya berdasarkan skema bayar sesuai penggunaan. Untuk menghindari biaya tambahan, hentikan atau hapus layanan setelah selesai digunakan.

Penyempurnaan model
Untuk meningkatkan kinerja model dalam domain tertentu, Anda dapat melakukan fine-tuning pada dataset dari domain tersebut. Bagian ini menggunakan skenario berikut untuk menunjukkan tujuan dan langkah-langkah penyempurnaan model.
Kasus penggunaan
Di industri logistik, Anda sering perlu mengekstraksi informasi terstruktur (seperti penerima, alamat, dan nomor telepon) dari bahasa alami. Model besar, seperti Qwen3-235B-A22B, berkinerja baik dalam tugas ini tetapi mahal dan memiliki latensi tinggi. Untuk menyeimbangkan kinerja dan biaya, Anda dapat terlebih dahulu menggunakan model berparameter besar untuk memberi label data, lalu menggunakan data tersebut untuk menyempurnakan model yang lebih kecil, seperti Qwen3-0.6B. Proses ini juga dikenal sebagai distilasi model.
Untuk tugas ekstraksi informasi terstruktur yang sama, model Qwen3-0.6B asli mencapai akurasi 50%. Setelah fine-tuning, akurasinya dapat melebihi 90%.
Contoh informasi alamat penerima | Contoh informasi terstruktur |
Amina Patel - Nomor telepon (474) 598-1543 - 1425 S 5th St, Apt 3B, Allentown, Pennsylvania 18104 | |
Siapkan data
Untuk menyuling pengetahuan dari model guru (Qwen3-235B-A22B) ke model Qwen3-0.6B untuk tugas ini, Anda pertama-tama perlu menggunakan API model guru untuk mengekstraksi informasi alamat penerima ke dalam data JSON terstruktur. Menghasilkan data ini bisa memakan waktu. Oleh karena itu, topik ini menyediakan training datasettrain.json contoh dan validation seteval.json yang dapat Anda unduh dan gunakan langsung.
Dalam distilasi model, model yang lebih besar dikenal sebagai model guru. Data yang digunakan dalam panduan ini dihasilkan secara sintetis oleh model besar dan tidak mengandung informasi pengguna sensitif apa pun.
Mulai produksi
Penyempurnaan model
Di panel navigasi sebelah kiri, klik Model Gallery. Cari model Qwen3-0.6B dan klik Train.

Konfigurasi parameter tugas pelatihan. Konfigurasikan parameter kunci berikut dan biarkan parameter lainnya pada nilai default.
Training Mode: Default adalah SFT (Supervised Fine-Tuning), yang menggunakan metode fine-tuning LoRA.
LoRA adalah teknik fine-tuning efisien yang menghemat sumber daya pelatihan dengan hanya memodifikasi sebagian kecil parameter model.
Training dataset: Pertama, unduh dataset pelatihan contoh train.json. Lalu, di halaman konfigurasi, pilih OSS file Or directory dan klik ikon
untuk memilih bucket. Klik Upload file untuk mengunggah dataset ke Object Storage Service (OSS). Terakhir, pilih file tersebut.
Validation dataset: Pertama, unduh dataset validasi eval.json. Lalu, klik Add validation dataset dan ikuti prosedur yang sama seperti untuk dataset pelatihan untuk mengunggah dan memilih file.
Dataset validasi digunakan selama pelatihan untuk mengevaluasi kinerja model pada data yang belum pernah dilihat.
ModelOutput Path: Secara default, model yang telah disempurnakan disimpan ke OSS. Jika direktori OSS kosong, klik Create folder dan tentukan direktori.
Resource Type: Pilih Public Resources. Tugas fine-tuning ini memerlukan sekitar 5 GB Memori GPU. Konsol telah memfilter spesifikasi sumber daya yang tersedia untuk memenuhi persyaratan ini. Pilih spesifikasi seperti
ecs.gn7i-c16g1.4xlarge.Hyperparameter Configuration:
learning_rate: Setel ke 0.0005
num_train_epochs: Setel ke 4
per_device_train_batch_size: Setel ke 8
seq_length: Setel ke 512
Klik Train > OK. Status tugas pelatihan berubah menjadi Creating. Saat status berubah menjadi Running, proses fine-tuning model dimulai.
Lihat tugas pelatihan dan tunggu hingga selesai. Proses fine-tuning model memerlukan waktu sekitar 10 menit. Selama fine-tuning, halaman detail tugas menampilkan log dan kurva metrik. Setelah pelatihan selesai, model yang telah disempurnakan disimpan ke direktori OSS yang ditentukan.
Untuk melihat detail tugas pelatihan nanti, klik Model Gallery > Task Management > Training Tasks di panel navigasi sebelah kiri, lalu klik nama tugas.

Terapkan model yang disempurnakan
Di halaman detail pekerjaan pelatihan, klik tombol Deploy untuk membuka halaman konfigurasi penerapan. Atur Resource Type ke Public Resources. Menerapkan model 0.6B memerlukan sekitar 5 GB Memori GPU. Dropdown Resource Specification telah difilter untuk menampilkan spesifikasi yang memenuhi persyaratan ini. Pilih spesifikasi seperti ecs.gn7i-c8g1.2xlarge. Pertahankan parameter lainnya pada pengaturan default, lalu klik Deploy > OK.
Proses penerapan memerlukan waktu sekitar 5 menit. Saat status berubah menjadi Running, penerapan berhasil.
Untuk melihat detail tugas pelatihan nanti, klik Model Gallery > Task Management > Training Tasks di panel navigasi sebelah kiri lalu klik nama tugas.

Jika tombol Deploy dinonaktifkan setelah tugas pelatihan berhasil, artinya model keluaran masih dalam proses pendaftaran. Tunggu sekitar 1 menit.

Langkah-langkah selanjutnya untuk memanggil model sama seperti yang dijelaskan di bagian Panggil model.
Verifikasi performa model yang disempurnakan
Sebelum menerapkan model yang telah disempurnakan ke lingkungan produksi, evaluasi kinerjanya secara sistematis untuk memastikan stabilitas dan akurasi serta menghindari masalah tak terduga setelah penerapan.
Siapkan data uji
Persiapkan dataset uji yang tidak tumpang tindih dengan data pelatihan untuk menguji kinerja model. Topik ini menyediakan set data uji yang diunduh otomatis saat Anda menjalankan kode uji akurasi di bawah ini.
Data uji tidak boleh tumpang tindih dengan data pelatihan. Ini memastikan refleksi yang lebih akurat terhadap kemampuan generalisasi model pada data baru dan menghindari skor yang terlalu tinggi karena memorisasi sampel.
Rancang metrik evaluasi
Kriteria evaluasi harus selaras erat dengan tujuan bisnis aktual Anda. Dalam contoh solusi ini, selain memeriksa apakah string JSON yang dihasilkan valid, Anda juga harus memeriksa apakah pasangan kunci-nilai yang sesuai benar.
Anda perlu mendefinisikan metrik evaluasi secara terprogram. Untuk implementasi metrik evaluasi dalam contoh ini, lihat metode compare_address_info dalam kode uji akurasi di bawah ini.Verifikasi performa model yang disempurnakan
Jalankan kode uji berikut, yang akan menghasilkan akurasi model pada set data uji.
Keluaran:
Semua prediksi selesai! Hasil telah disimpan ke predicted_labels.jsonl
Jumlah sampel: 400
Tanggapan benar: 382
Tanggapan salah: 18
Akurasi: 95.5 %Karena seed acak dalam fine-tuning model dan sifat stokastik keluaran model besar, akurasi yang Anda capai mungkin berbeda dari hasil dalam topik ini. Hal ini normal.
Akurasinya 95.5%, peningkatan signifikan dibandingkan akurasi 50% model Qwen3-0.6B asli. Ini menunjukkan bahwa model yang telah disempurnakan secara signifikan meningkatkan kemampuannya untuk mengekstraksi informasi terstruktur di bidang logistik.
Untuk mengurangi waktu pelatihan, panduan ini hanya menggunakan 4 epoch pelatihan, yang sudah meningkatkan akurasi menjadi lebih dari 90%. Anda dapat lebih meningkatkan akurasi dengan meningkatkan jumlah epoch pelatihan.
Pengingat penting
Layanan model dalam panduan ini dibuat menggunakan Sumber daya publik, yang dikenai biaya berdasarkan skema bayar sesuai penggunaan. Untuk menghindari biaya tambahan, hentikan atau hapus layanan setelah selesai digunakan.

Referensi
Untuk informasi lebih lanjut tentang fitur Model Gallery seperti evaluasi dan kompresi, lihat Model Gallery.
Untuk informasi lebih lanjut tentang fitur EAS seperti Penyesuaian Skala Otomatis, uji stres, dan pemantauan serta peringatan, lihat Ikhtisar EAS.

