Topik ini menjelaskan cara menggunakan LangStudio di Konsol PAI untuk membangun aplikasi chat cerdas dengan kemampuan pencarian web secara cepat. Dengan mengikuti tutorial ini, Anda akan mempelajari proses pengembangan end-to-end—mulai dari membuat aplikasi, membangun dan menguji alur kerja, mengevaluasi kinerja, menerapkannya sebagai layanan online, hingga memantau operasinya.
Langkah 1: Buat aplikasi dan runtime
Pertama, Anda perlu membuat aplikasi dan menyiapkan lingkungan runtime untuk pengembangan dan debugging.
Login ke Konsol PAI. Di bilah navigasi atas, pilih wilayah tujuan, seperti China (Hangzhou).
Di panel navigasi sebelah kiri, pilih Model Application > Application Development (LangStudio), lalu pilih ruang kerja target Anda.
Di tab Applications, klik Create Application dan pilih Workflow dari daftar drop-down.
Di halaman Create Application, konfigurasikan parameter berikut:
Creation Method: Pilih Create by Type, lalu pilih Chat Type.
Name: Masukkan nama aplikasi Anda, misalnya Web Search Chat Assistant.
Select Runtime: Runtime menyediakan lingkungan komputasi yang diperlukan untuk menjalankan dan mendebug alur kerja. Anda harus menyiapkan runtime sebelum dapat melakukan debugging.
Existing runtime: Pilih runtime dari daftar drop-down.
No available runtime: Klik New Runtime untuk membuat runtime dengan konfigurasi default. Perhatikan bahwa runtime hanya digunakan untuk pengembangan dan debugging, dan tidak memengaruhi layanan yang diterapkan nantinya.
Working Path: Jalur Bucket OSS untuk menyimpan konfigurasi alur kerja, log, dan file sementara yang dihasilkan selama debugging. Direktori ini dimuat secara otomatis saat Anda memilih runtime.
Description (opsional): Masukkan deskripsi singkat mengenai tujuan aplikasi.
Klik Confirm. Anda akan dialihkan secara otomatis ke kanvas pengeditan alur kerja.
Langkah 2: Bangun alur kerja
Di kanvas, Anda akan melihat alur kerja default yang terdiri dari Start node, Large Language Model (LLM) node, dan End node. Untuk mengaktifkan kemampuan pencarian web, tambahkan node pencarian ke alur kerja ini.
Alur kerja terdiri dari beberapa node yang dihubungkan secara berurutan. Setiap node menjalankan tugas tertentu.
2.1 Tambahkan dan hubungkan node
Di bagian bawah kanvas, klik ikon tambah node dan pilih SerpAPI - Web Search.

Hapus koneksi antara Start node dan LLM node.
Hubungkan node dalam urutan berikut: Start node → SerpAPI - Web Search → LLM node.
2.2 Konfigurasi node
Start node: Ini adalah titik masuk alur kerja dan tidak memerlukan konfigurasi khusus. Secara default, node ini menyediakan dua parameter input—
chat_historydanquestion—untuk menerima kueri pengguna.SerpAPI - Web Search: Node ini menggunakan pertanyaan pengguna sebagai kata kunci pencarian, memanggil SerpAPI untuk melakukan pencarian web, lalu meneruskan hasilnya ke node berikutnya.
SerpAPI Connection: Pilih koneksi yang telah dikonfigurasi sebelumnya. Jika belum ada, pilih . Di Custom Key, masukkan
api_key. Di Custom Value, masukkan Kunci API yang diberikan oleh SerpAPI, lalu pilih Private untuk menyimpannya secara aman.SerpAPI menyediakan kuota gratis. Anda dapat mendaftar akun jika belum memilikinya.

Search Keywords: Pilih variabel
questiondari Start node.
LLM node: Node ini menerima pertanyaan asli dan hasil pencarian, lalu menggunakan prompt yang dirancang secara cermat untuk menghasilkan respons yang lebih akurat dan mutakhir.
Model settings: Pilih connection layanan model, seperti
qwen3-maxdari Alibaba Cloud Model Studio.CatatanConnection menyimpan dan mengelola kredensial yang diperlukan untuk mengakses layanan eksternal, seperti API LLM, secara aman. Jika Anda belum mengonfigurasi koneksi, Anda harus membuatnya terlebih dahulu. Untuk informasi lebih lanjut, lihat Connection Configuration.
Input Variable: Klik Add Variable. Atur nama variabel menjadi
search_resultdan nilai menjadi variabeloutputdari node SerpAPI - Web Search.System Prompt: Modifikasi templat prompt untuk
useragar menyertakan output dari node pencarian.PentingTemplat prompt harus mereferensikan variabel input yang didefinisikan di node LLM.
## Berikut adalah hasil pencarian terkait pertanyaan pengguna: {% for item in search_result %} ### Judul: {{ item.title }} ### Konten: {{ item.summary }} ### Tautan: {{ item.link }} {% endfor %} ## Pertanyaan pengguna: {{ query }}

Langkah 3: Debug dan lihat jejak
Setelah membangun alur kerja, uji menggunakan fitur debugging dan analisis eksekusinya melalui Analisis Tracing.
Di pojok kanan atas kanvas alur aplikasi, klik Run untuk membuka panel debug.
Di panel debug, masukkan pertanyaan dan kirimkan. Contohnya: Apa saja terobosan AI besar yang terjadi pada Januari 2026? Batasi jawaban Anda hingga 100 karakter.

Setelah respons muncul, klik View Traces di bawah respons untuk melihat detail jejak atau topologinya. Di halaman Detail Jejak, Anda dapat menganalisis seluruh proses eksekusi:
Periksa input dan output node: Buka setiap node untuk melihat konten input dan output spesifiknya.
Tips debugging: Buka detail LLM node untuk melihat rendered prompt. Ini adalah permintaan lengkap yang dikirim ke LLM setelah substitusi variabel. Meninjau konten ini merupakan cara paling efektif untuk memecahkan masalah terkait prompt.
Analisis kinerja: Periksa durasi eksekusi setiap node untuk mengidentifikasi bottleneck kinerja.
Pecahkan error: Periksa adanya error atau anomali selama eksekusi alur kerja.

Langkah 4: Evaluasi kinerja
Untuk menilai kinerja aplikasi secara objektif, gunakan fitur evaluasi untuk menjalankan serangkaian pertanyaan uji dan menghitung metrik yang mengukur efektivitasnya.
Siapkan set data evaluasi. Anda dapat menyiapkan set data dalam format
.jsonldan mengunggahnya ke OSS. Setiap baris harus berupa objek JSON yang berisi contoh pertanyaan dan ground truth-nya. Contoh file: langstudio_eval_demo.jsonl.Buat tugas evaluasi.
Di pojok kanan atas kanvas alur aplikasi, klik Evaluation.
Di halaman Create Evaluation Task, konfigurasikan parameter inti berikut:
Evaluation Dataset: Pilih jalur OSS ke file
.jsonlyang telah Anda unggah.Workflow Input Mapping: Petakan input alur kerja (
question) ke bidangquerydalam set data evaluasi Anda.
Evaluation Configuration: Pilih metrik evaluasi, seperti Answer Consistency Rate.
Evaluation Template Input Mapping:
reference: Menentukan bidang ground truth
referencedari set data evaluasi Anda.response: Pilih bidang output alur kerja.

Klik Confirm untuk mengirimkan tugas evaluasi.
Lihat hasil evaluasi. Setelah mengirimkan tugas, Anda akan dialihkan ke halaman Overview tugas tersebut. Beralihlah ke tab Metrics untuk melihat skor metrik seperti Answer Consistency Rate dan menilai kinerja aplikasi Anda.
Langkah 5: Terapkan sebagai layanan online
Setelah pengembangan dan evaluasi selesai, terapkan alur kerja Anda sebagai layanan online standar PAI-EAS untuk integrasi API.
Terapkan layanan
Di pojok kanan atas kanvas alur aplikasi, klik Deploy.
Di halaman penerapan, konfigurasikan parameter seperti nama layanan, kelompok sumber daya, dan pengaturan jaringan (VPC, vSwitch), lalu klik Confirm.
PentingAlur kerja Anda menggunakan layanan yang memerlukan akses jaringan publik, seperti layanan LLM dari Alibaba Cloud Model Studio dan layanan pencarian web. Secara default, layanan EAS tidak memiliki akses jaringan publik. Oleh karena itu, Anda harus mengonfigurasi VPC dan vSwitch yang dapat mengakses jaringan publik. Misalnya, Anda dapat mengaitkannya dengan Gateway NAT. Jika tidak, pemanggilan layanan akan gagal. Untuk informasi lebih lanjut, lihat Access Public or Private Network Resources from EAS.
Di halaman progres penerapan, klik Submit deployment.
Klik Go to EAS di pojok kanan atas untuk membuka halaman detail layanan EAS. Tunggu hingga status layanan berubah menjadi Running. Proses ini dapat memakan waktu 5 hingga 10 menit.
Panggil layanan
Layanan aplikasi LangStudio mendukung pemanggilan dalam mode dasar maupun mode lengkap. Contoh berikut menunjukkan pemanggilan dalam mode dasar. Untuk informasi lebih lanjut, lihat Call a Deployed Application Flow.
Deskripsi body permintaan: Objek JSON di mana key harus sesuai dengan parameter input yang didefinisikan di Start node alur aplikasi (misalnya, question).
Debugging online
Kami menyarankan Anda menguji pemanggilan di tab Online Debugging pada halaman detail layanan EAS.

Pemanggilan curl
Di tab Overview pada halaman detail layanan EAS, klik Basic Information, lalu klik View Endpoint Information untuk mendapatkan titik akhir dan Token otentikasi.
# Ganti <EAS_ENDPOINT> dan <EAS_TOKEN> dengan titik akhir layanan dan token otentikasi Anda
curl -X POST '<EAS_ENDPOINT>' \
-H 'Authorization: <EAS_TOKEN>' \
-H 'Content-Type: application/json' \
-d '{
"question":"Dapatkan 3 berita AI penting dari Januari 2026"
}'Langkah 6: Pantau dan amati
Setelah penerapan, Anda dapat melakukan operasi berikut:
Lihat metrik utama—seperti jumlah permintaan, laju keberhasilan, laju error, dan latensi respons P95/P99—di tab Monitoring pada halaman detail layanan EAS.
Anda dapat menemukan log error dan mengidentifikasi node bermasalah di tab Logs di EAS.
Anda dapat melihat jejak pemanggilan untuk menilai kinerja aplikasi di tab Tracing Analysis di EAS.
Bersihkan sumber daya
Untuk menghindari biaya yang tidak perlu, bersihkan semua sumber daya yang telah dibuat setelah eksperimen selesai:
Layanan online PAI-EAS: Hentikan dan hapus layanan aplikasi yang diterapkan di konsol PAI-EAS.
Runtime LangStudio: Di tab Runtime di LangStudio, Anda dapat menghentikan dan menghapus instans runtime.
File yang disimpan di Bucket OSS tidak dihapus secara otomatis saat Anda menghapus aplikasi. Anda harus mengelola file-file ini secara manual untuk menghindari biaya penyimpanan.
Langkah selanjutnya
Anda dapat menjelajahi fitur-fitur berikut:
Tambahkan lebih banyak node ke alur kerja Anda, seperti penguraian dokumen atau cabang kondisional, untuk mendukung logika bisnis yang lebih kompleks. Untuk informasi lebih lanjut, lihat Node Types and Configuration.
Fitur lanjutan LangStudio, seperti Knowledge Base Management.