Model Gallery mengintegrasikan PAI-DLC dan PAI-EAS untuk membantu Anda menerapkan dan melatih model besar open source secara efisien tanpa perlu menulis kode. Topik ini menggunakan model Qwen3-0.6B sebagai contoh untuk menunjukkan cara menggunakan Model Gallery. Proses yang sama berlaku untuk model lainnya.
Prasyarat
Gunakan akun root untuk mengaktifkan PAI dan membuat ruang kerja. Masuk ke Konsol PAI, pilih Wilayah di pojok kiri atas, lalu gunakan otorisasi satu klik untuk mengaktifkan produk.
Deskripsi penagihan
Contoh dalam topik ini menggunakan Sumber daya publik untuk membuat Pekerjaan DLC dan layanan EAS. Layanan ini menggunakan metode penagihan bayar sesuai pemakaian. Untuk informasi lebih lanjut tentang aturan penagihan, lihat Deskripsi penagihan DLC dan Deskripsi penagihan EAS.
Penerapan model
Terapkan model
Masuk ke Konsol PAI. Di panel navigasi sebelah kiri, klik Model Gallery. Temukan tab Qwen3-0.6B dan klik Deploy.

Konfigurasikan parameter penerapan. Halaman konfigurasi penerapan telah diisi dengan parameter default. Klik Deploy > OK. Proses penerapan membutuhkan waktu sekitar 5 menit. Penerapan berhasil ketika status berubah menjadi In operation.
Secara default, model diterapkan menggunakan Sumber daya publik dengan metode penagihan bayar sesuai pemakaian.

Panggil model
Lihat informasi pemanggilan API. Di halaman detail layanan, klik View API Call Information untuk mendapatkan call endpoint dan Token.
Untuk melihat detail tugas penerapan nanti, di panel navigasi kiri, klik Model Gallery > Job Management > Deployment Jobs, lalu klik Service name.

Coba layanan model. Metode umum untuk memanggil layanan adalah sebagai berikut:
Debugging online
Buka halaman Online Debugging, tempat layanan LLM mendukung Conversation Debugging dan API Debugging.

Gunakan klien Cherry Studio
Cherry Studio adalah klien populer untuk berinteraksi dengan model bahasa besar dan mencakup fitur MCP. Anda dapat menggunakannya untuk dengan mudah mengobrol dengan LLM Anda.
Sambungkan ke model Qwen3 yang diterapkan di PAI
Instal klien
Kunjungi Cherry Studio untuk mengunduh dan menginstal klien.
Anda juga dapat mengakses
https://github.com/CherryHQ/cherry-studio/releasesuntuk mengunduh.Tambahkan penyedia.
Klik tombol
Settings di pojok kiri bawah. Di bagian Model Service, klik Add.Untuk Provider Name, masukkan nama kustom, seperti Platform for AI. Atur tipe penyedia ke OpenAI.
Klik OK.
Untuk API Key, masukkan token yang Anda peroleh. Untuk API Endpoint, masukkan URL endpoint yang Anda peroleh.
Klik Add dan masukkan
Qwen3-0.6Bdi bidang Model ID (peka huruf besar/kecil).Anda dapat mengklik Test di samping API Key untuk memeriksa konektivitas.
Klik
untuk kembali ke halaman obrolan. Di bagian atas jendela, alihkan ke model Qwen3-0.6B yang telah Anda tambahkan untuk mulai mengobrol.
Gunakan Python SDK
from openai import OpenAI import os # Jika Anda belum mengonfigurasi variabel lingkungan, ganti baris berikut dengan token dari layanan EAS Anda: token = 'YTA1NTEzMzY3ZTY4Z******************' token = os.environ.get("Token") # Jangan hapus "/v1" di akhir YOUR_ENDPOINT_URL. client = OpenAI( api_key=token, base_url=f'YOUR_ENDPOINT_URL/v1', ) if token is None: print("Konfigurasikan variabel lingkungan Token, atau tetapkan token langsung ke variabel token.") exit() query = 'Hello, who are you?' messages = [{'role': 'user', 'content': query}] resp = client.chat.completions.create(model='Qwen3-0.6B', messages=messages, max_tokens=512, temperature=0) query = messages[0]['content'] response = resp.choices[0].message.content print(f'query: {query}') print(f'response: {response}')
Pengingat penting
Topik ini menggunakan Sumber daya publik untuk membuat layanan model, yang ditagih berdasarkan metode bayar sesuai pemakaian. Ketika Anda tidak lagi memerlukan layanan tersebut, hentikan atau hapus layanan tersebut untuk menghindari biaya tambahan.

Penyempurnaan model
Jika Anda ingin model berkinerja lebih baik dalam domain tertentu, Anda dapat melakukan fine-tuning pada set data dari domain tersebut. Bagian ini menggunakan skenario contoh untuk menjelaskan tujuan dan langkah-langkah penyempurnaan model.
Skenario contoh
Di bidang logistik, sering kali diperlukan ekstraksi informasi terstruktur (seperti penerima, alamat, dan nomor telepon) dari bahasa alami. Menggunakan model berparameter besar (seperti Qwen3-235B-A22B) menghasilkan hasil yang baik tetapi mahal dan lambat. Untuk menyeimbangkan kinerja dan biaya, Anda dapat terlebih dahulu menggunakan model berparameter besar untuk menganotasi data. Kemudian, gunakan data ini untuk melakukan fine-tuning pada model yang lebih kecil (seperti Qwen3-0.6B) agar mencapai kinerja serupa pada tugas yang sama. Proses ini juga dikenal sebagai distilasi model.
Untuk tugas ekstraksi informasi terstruktur yang sama, akurasi model Qwen3-0.6B asli adalah 50%, dan setelah fine-tuning, akurasinya mencapai lebih dari 90%.
Contoh informasi alamat penerima | Contoh informasi terstruktur |
Amina Patel - Nomor telepon (474) 598-1543 - 1425 S 5th St, Apt 3B, Allentown, Pennsylvania 18104 | |
Persiapan Data
Untuk menyuling pengetahuan dari model guru (Qwen3-235B-A22B) ke Qwen3-0.6B untuk tugas ini, Anda harus terlebih dahulu menggunakan API model guru untuk mengekstraksi informasi alamat penerima sebagai data terstruktur berformat JSON. Proses pembuatan data ini bisa memakan waktu lama. Oleh karena itu, topik ini menyediakan training dataset contoh train.json dan validation set eval.json, yang dapat Anda unduh dan gunakan langsung.
Dalam distilasi model, model berparameter besar juga disebut model guru. Data yang digunakan dalam topik ini dihasilkan oleh model besar dan tidak mengandung informasi pengguna sensitif apa pun.
Tayang
Lakukan fine-tuning pada model
Di panel navigasi kiri, klik Model Gallery. Cari tab Qwen3-0.6B, lalu klik Fine-tune.

Konfigurasikan parameter tugas pelatihan. Anda hanya perlu mengonfigurasi parameter kunci berikut. Anda dapat mempertahankan nilai default untuk parameter lainnya.
Training Mode: Default-nya adalah SFT Supervised Fine-tuning dengan metode fine-tuning LoRA.
LoRA adalah teknik fine-tuning model yang efisien yang hanya memodifikasi sebagian parameter model untuk menghemat sumber daya pelatihan.
Training dataset: Pertama, klik untuk mengunduh set data pelatihan contoh train.json. Kemudian, di halaman konfigurasi, pilih OSS file or directory. Klik ikon
untuk memilih bucket. Klik Upload File untuk mengunggah set data pelatihan yang telah diunduh ke OSS. Lalu, pilih file tersebut.
Validate dataset: Pertama, unduh file set data validasi dan eval.json. Kemudian, klik Add validation dataset dan unggah file tersebut dengan mengikuti langkah-langkah yang sama seperti saat mengonfigurasi set data pelatihan.
Set validasi digunakan selama pelatihan untuk mengevaluasi kinerja model dan membantu menilai kinerjanya pada data yang belum pernah dilihat sebelumnya.
Model output path: Secara default, model yang telah disempurnakan disimpan di OSS. Jika jalur folder OSS kosong, Anda harus Create A Folder dan menentukannya.
Resource Group Type: Pilih Public Resource Group. Tugas fine-tuning ini memerlukan sekitar 5 GB VRAM. Konsol secara otomatis memfilter daftar untuk hanya menampilkan tipe instans yang sesuai, seperti
ecs.gn7i-c16g1.4xlarge.Hyperparameters:
learning_rate: Atur ke 0.0005
num_train_epochs: Atur ke 4
per_device_train_batch_size: Atur ke 8
seq_length: Atur ke 512
Kemudian, klik Train > OK. Tugas pelatihan memasuki status Creating. Saat status berubah menjadi In operation, fine-tuning model dimulai.
Lihat tugas pelatihan dan tunggu hingga selesai. Fine-tuning model membutuhkan waktu sekitar 10 menit. Selama proses berlangsung, halaman detail tugas menampilkan log tugas dan kurva metrik. Setelah pelatihan selesai, model yang telah disempurnakan disimpan ke direktori OSS yang ditentukan.
Untuk melihat detail tugas pelatihan nanti, di panel navigasi kiri, klik Model Gallery > Job Management > Training Jobs, lalu klik nama tugas.

Terapkan model yang telah disempurnakan
Di halaman detail tugas pelatihan, klik tombol Deploy untuk membuka halaman konfigurasi penerapan. Untuk Resource Type, pilih Public Resources. Menerapkan model 0.6B memerlukan sekitar 5 GB VRAM. Konsol telah memfilter daftar Resource Specification untuk hanya menampilkan tipe instans yang memenuhi persyaratan ini. Pilih tipe instans seperti ecs.gn7i-c8g1.2xlarge. Pertahankan nilai default untuk parameter lainnya, lalu klik Deploy > OK.
Proses penerapan membutuhkan waktu sekitar 5 menit. Saat status berubah menjadi Running, layanan berhasil diterapkan.
Untuk melihat detail tugas pelatihan nanti, klik Model Gallery > Job Management > Training Jobs di panel navigasi kiri lalu klik nama tugas.

Setelah tugas pelatihan menunjukkan status berhasil, jika tombol Deploy tidak dapat diklik, artinya model output masih dalam proses pendaftaran. Anda perlu menunggu sekitar 1 menit.

Langkah-langkah selanjutnya untuk memanggil model sama seperti pada Panggil model.
Validasi kinerja model yang telah disempurnakan
Sebelum menerapkan model yang telah disempurnakan ke lingkungan produksi, kami merekomendasikan agar Anda mengevaluasi kinerjanya secara sistematis untuk memastikan stabilitas dan akurasinya serta menghindari masalah tak terduga setelah online.
Siapkan data uji
Siapkan data uji yang tidak tumpang tindih dengan data pelatihan untuk menguji kinerja model. Solusi ini telah menyiapkan set data uji untuk Anda, yang akan diunduh secara otomatis saat Anda menjalankan kode uji akurasi di bawah ini.
Sampel data uji sebaiknya tidak tumpang tindih dengan data pelatihan. Hal ini memberikan gambaran yang lebih akurat tentang kemampuan generalisasi model pada data baru dan menghindari skor yang terlalu tinggi akibat "sampel yang pernah dilihat sebelumnya."
Metrik Evaluasi Desain
Kriteria evaluasi harus selaras erat dengan tujuan bisnis aktual. Dalam solusi ini, misalnya, selain menentukan apakah string JSON yang dihasilkan valid, Anda juga harus memeriksa apakah pasangan kunci-nilai yang sesuai benar.
Anda perlu mendefinisikan metrik evaluasi secara programatis. Untuk implementasi metrik evaluasi dalam contoh ini, lihat metode compare_address_info dalam kode uji akurasi di bawah ini.Validasi kinerja setelah fine-tuning
Jalankan kode uji berikut untuk menghasilkan akurasi model pada set data uji.
Output:
Semua prediksi selesai! Hasil telah disimpan ke predicted_labels.jsonl
Jumlah sampel: 400
Tanggapan benar: 382
Tanggapan salah: 18
Akurasi: 95.5 %Karena seed acak dalam fine-tuning model dan keacakan output model besar, akurasi yang Anda uji mungkin berbeda dari hasil dalam solusi ini. Hal ini normal.
Akurasinya 95.5%, peningkatan signifikan dibandingkan akurasi model Qwen3-0.6B asli sebesar 50%. Hal ini menunjukkan bahwa model yang telah disempurnakan telah sangat meningkatkan kemampuannya dalam mengekstraksi informasi terstruktur di bidang pengisian formulir logistik.
Untuk mengurangi waktu pelatihan dalam tutorial ini, kami mengatur epoch pelatihan hanya menjadi 4, dan akurasinya sudah meningkat menjadi 95.5%. Anda dapat lebih meningkatkan akurasi dengan menambahkan jumlah epoch pelatihan secara tepat.
Pengingat penting
Topik ini menggunakan Sumber daya publik untuk membuat layanan model, yang ditagih berdasarkan metode bayar sesuai pemakaian. Ketika Anda tidak lagi memerlukan layanan tersebut, hentikan atau hapus layanan tersebut untuk menghindari biaya tambahan.

Referensi
Untuk informasi lebih lanjut tentang fitur Model Gallery seperti evaluasi dan kompresi, lihat Model Gallery.
Untuk informasi lebih lanjut tentang fitur EAS seperti Auto Scaling, uji stres, dan Pemantauan Peringatan, lihat Ikhtisar EAS.

