全部产品
Search
文档中心

Platform For AI:Memulai: Membuat Aplikasi Alur Kerja

更新时间:Jan 30, 2026

Topik ini menjelaskan cara menggunakan LangStudio di Konsol PAI untuk membangun aplikasi chat cerdas dengan kemampuan pencarian web secara cepat. Dengan mengikuti tutorial ini, Anda akan mempelajari proses pengembangan end-to-end—mulai dari membuat aplikasi, membangun dan menguji alur kerja, mengevaluasi kinerja, menerapkannya sebagai layanan online, hingga memantau operasinya.

Langkah 1: Buat aplikasi dan runtime

Pertama, Anda perlu membuat aplikasi dan menyiapkan lingkungan runtime untuk pengembangan dan debugging.

  1. Login ke Konsol PAI. Di bilah navigasi atas, pilih wilayah tujuan, seperti China (Hangzhou).

  2. Di panel navigasi sebelah kiri, pilih Model Application > Application Development (LangStudio), lalu pilih ruang kerja target Anda.

  3. Di tab Applications, klik Create Application dan pilih Workflow dari daftar drop-down.

  4. Di halaman Create Application, konfigurasikan parameter berikut:

    • Creation Method: Pilih Create by Type, lalu pilih Chat Type.

    • Name: Masukkan nama aplikasi Anda, misalnya Web Search Chat Assistant.

    • Select Runtime: Runtime menyediakan lingkungan komputasi yang diperlukan untuk menjalankan dan mendebug alur kerja. Anda harus menyiapkan runtime sebelum dapat melakukan debugging.

      • Existing runtime: Pilih runtime dari daftar drop-down.

      • No available runtime: Klik New Runtime untuk membuat runtime dengan konfigurasi default. Perhatikan bahwa runtime hanya digunakan untuk pengembangan dan debugging, dan tidak memengaruhi layanan yang diterapkan nantinya.

    • Working Path: Jalur Bucket OSS untuk menyimpan konfigurasi alur kerja, log, dan file sementara yang dihasilkan selama debugging. Direktori ini dimuat secara otomatis saat Anda memilih runtime.

    • Description (opsional): Masukkan deskripsi singkat mengenai tujuan aplikasi.

  5. Klik Confirm. Anda akan dialihkan secara otomatis ke kanvas pengeditan alur kerja.

Langkah 2: Bangun alur kerja

Di kanvas, Anda akan melihat alur kerja default yang terdiri dari Start node, Large Language Model (LLM) node, dan End node. Untuk mengaktifkan kemampuan pencarian web, tambahkan node pencarian ke alur kerja ini.

Alur kerja terdiri dari beberapa node yang dihubungkan secara berurutan. Setiap node menjalankan tugas tertentu.

2.1 Tambahkan dan hubungkan node

  1. Di bagian bawah kanvas, klik ikon tambah node dan pilih SerpAPI - Web Search.image

  2. Hapus koneksi antara Start node dan LLM node.

  3. Hubungkan node dalam urutan berikut: Start nodeSerpAPI - Web SearchLLM node.

2.2 Konfigurasi node

  • Start node: Ini adalah titik masuk alur kerja dan tidak memerlukan konfigurasi khusus. Secara default, node ini menyediakan dua parameter input—chat_history dan question—untuk menerima kueri pengguna.

  • SerpAPI - Web Search: Node ini menggunakan pertanyaan pengguna sebagai kata kunci pencarian, memanggil SerpAPI untuk melakukan pencarian web, lalu meneruskan hasilnya ke node berikutnya.

    • SerpAPI Connection: Pilih koneksi yang telah dikonfigurasi sebelumnya. Jika belum ada, pilih New Connection. Di Custom Key, masukkan api_key. Di Custom Value, masukkan Kunci API yang diberikan oleh SerpAPI, lalu pilih Private untuk menyimpannya secara aman.

      SerpAPI menyediakan kuota gratis. Anda dapat mendaftar akun jika belum memilikinya.

      image

    • Search Keywords: Pilih variabel question dari Start node.

      image

  • LLM node: Node ini menerima pertanyaan asli dan hasil pencarian, lalu menggunakan prompt yang dirancang secara cermat untuk menghasilkan respons yang lebih akurat dan mutakhir.

    • Model settings: Pilih connection layanan model, seperti qwen3-max dari Alibaba Cloud Model Studio.

      Catatan

      Connection menyimpan dan mengelola kredensial yang diperlukan untuk mengakses layanan eksternal, seperti API LLM, secara aman. Jika Anda belum mengonfigurasi koneksi, Anda harus membuatnya terlebih dahulu. Untuk informasi lebih lanjut, lihat Connection Configuration.

    • Input Variable: Klik Add Variable. Atur nama variabel menjadi search_result dan nilai menjadi variabel output dari node SerpAPI - Web Search.

    • System Prompt: Modifikasi templat prompt untuk user agar menyertakan output dari node pencarian.

      Penting

      Templat prompt harus mereferensikan variabel input yang didefinisikan di node LLM.

      ## Berikut adalah hasil pencarian terkait pertanyaan pengguna:
      {% for item in search_result %}
      ### Judul:
      {{ item.title }}
      ### Konten:
      {{ item.summary }}
      ### Tautan:
      {{ item.link }}
      {% endfor %}
      
      ## Pertanyaan pengguna: {{ query }}

    image

Langkah 3: Debug dan lihat jejak

Setelah membangun alur kerja, uji menggunakan fitur debugging dan analisis eksekusinya melalui Analisis Tracing.

  1. Di pojok kanan atas kanvas alur aplikasi, klik Run untuk membuka panel debug.

  2. Di panel debug, masukkan pertanyaan dan kirimkan. Contohnya: Apa saja terobosan AI besar yang terjadi pada Januari 2026? Batasi jawaban Anda hingga 100 karakter.image

  3. Setelah respons muncul, klik View Traces di bawah respons untuk melihat detail jejak atau topologinya. Di halaman Detail Jejak, Anda dapat menganalisis seluruh proses eksekusi:

    • Periksa input dan output node: Buka setiap node untuk melihat konten input dan output spesifiknya.

      Tips debugging: Buka detail LLM node untuk melihat rendered prompt. Ini adalah permintaan lengkap yang dikirim ke LLM setelah substitusi variabel. Meninjau konten ini merupakan cara paling efektif untuk memecahkan masalah terkait prompt.
    • Analisis kinerja: Periksa durasi eksekusi setiap node untuk mengidentifikasi bottleneck kinerja.

    • Pecahkan error: Periksa adanya error atau anomali selama eksekusi alur kerja.

    image

Langkah 4: Evaluasi kinerja

Untuk menilai kinerja aplikasi secara objektif, gunakan fitur evaluasi untuk menjalankan serangkaian pertanyaan uji dan menghitung metrik yang mengukur efektivitasnya.

  1. Siapkan set data evaluasi. Anda dapat menyiapkan set data dalam format .jsonl dan mengunggahnya ke OSS. Setiap baris harus berupa objek JSON yang berisi contoh pertanyaan dan ground truth-nya. Contoh file: langstudio_eval_demo.jsonl.

  2. Buat tugas evaluasi.

    1. Di pojok kanan atas kanvas alur aplikasi, klik Evaluation.

    2. Di halaman Create Evaluation Task, konfigurasikan parameter inti berikut:

      • Evaluation Dataset: Pilih jalur OSS ke file .jsonl yang telah Anda unggah.

      • Workflow Input Mapping: Petakan input alur kerja (question) ke bidang query dalam set data evaluasi Anda.image

      • Evaluation Configuration: Pilih metrik evaluasi, seperti Answer Consistency Rate.

      • Evaluation Template Input Mapping:

        • reference: Menentukan bidang ground truth reference dari set data evaluasi Anda.

        • response: Pilih bidang output alur kerja.image

    3. Klik Confirm untuk mengirimkan tugas evaluasi.

  3. Lihat hasil evaluasi. Setelah mengirimkan tugas, Anda akan dialihkan ke halaman Overview tugas tersebut. Beralihlah ke tab Metrics untuk melihat skor metrik seperti Answer Consistency Rate dan menilai kinerja aplikasi Anda.

Langkah 5: Terapkan sebagai layanan online

Setelah pengembangan dan evaluasi selesai, terapkan alur kerja Anda sebagai layanan online standar PAI-EAS untuk integrasi API.

Terapkan layanan

  1. Di pojok kanan atas kanvas alur aplikasi, klik Deploy.

  2. Di halaman penerapan, konfigurasikan parameter seperti nama layanan, kelompok sumber daya, dan pengaturan jaringan (VPC, vSwitch), lalu klik Confirm.

    Penting

    Alur kerja Anda menggunakan layanan yang memerlukan akses jaringan publik, seperti layanan LLM dari Alibaba Cloud Model Studio dan layanan pencarian web. Secara default, layanan EAS tidak memiliki akses jaringan publik. Oleh karena itu, Anda harus mengonfigurasi VPC dan vSwitch yang dapat mengakses jaringan publik. Misalnya, Anda dapat mengaitkannya dengan Gateway NAT. Jika tidak, pemanggilan layanan akan gagal. Untuk informasi lebih lanjut, lihat Access Public or Private Network Resources from EAS.

  3. Di halaman progres penerapan, klik Submit deployment.

  4. Klik Go to EAS di pojok kanan atas untuk membuka halaman detail layanan EAS. Tunggu hingga status layanan berubah menjadi Running. Proses ini dapat memakan waktu 5 hingga 10 menit.

Panggil layanan

Layanan aplikasi LangStudio mendukung pemanggilan dalam mode dasar maupun mode lengkap. Contoh berikut menunjukkan pemanggilan dalam mode dasar. Untuk informasi lebih lanjut, lihat Call a Deployed Application Flow.

Deskripsi body permintaan: Objek JSON di mana key harus sesuai dengan parameter input yang didefinisikan di Start node alur aplikasi (misalnya, question).

Debugging online

Kami menyarankan Anda menguji pemanggilan di tab Online Debugging pada halaman detail layanan EAS.

image

Pemanggilan curl

Di tab Overview pada halaman detail layanan EAS, klik Basic Information, lalu klik View Endpoint Information untuk mendapatkan titik akhir dan Token otentikasi.

# Ganti <EAS_ENDPOINT> dan <EAS_TOKEN> dengan titik akhir layanan dan token otentikasi Anda
curl -X POST '<EAS_ENDPOINT>' \
-H 'Authorization: <EAS_TOKEN>' \
-H 'Content-Type: application/json' \
-d '{
  "question":"Dapatkan 3 berita AI penting dari Januari 2026"
}'

Langkah 6: Pantau dan amati

Setelah penerapan, Anda dapat melakukan operasi berikut:

  • Lihat metrik utama—seperti jumlah permintaan, laju keberhasilan, laju error, dan latensi respons P95/P99—di tab Monitoring pada halaman detail layanan EAS.

  • Anda dapat menemukan log error dan mengidentifikasi node bermasalah di tab Logs di EAS.

  • Anda dapat melihat jejak pemanggilan untuk menilai kinerja aplikasi di tab Tracing Analysis di EAS.

Bersihkan sumber daya

Untuk menghindari biaya yang tidak perlu, bersihkan semua sumber daya yang telah dibuat setelah eksperimen selesai:

  1. Layanan online PAI-EAS: Hentikan dan hapus layanan aplikasi yang diterapkan di konsol PAI-EAS.

  2. Runtime LangStudio: Di tab Runtime di LangStudio, Anda dapat menghentikan dan menghapus instans runtime.

File yang disimpan di Bucket OSS tidak dihapus secara otomatis saat Anda menghapus aplikasi. Anda harus mengelola file-file ini secara manual untuk menghindari biaya penyimpanan.

Langkah selanjutnya

Anda dapat menjelajahi fitur-fitur berikut:

  • Tambahkan lebih banyak node ke alur kerja Anda, seperti penguraian dokumen atau cabang kondisional, untuk mendukung logika bisnis yang lebih kompleks. Untuk informasi lebih lanjut, lihat Node Types and Configuration.

  • Fitur lanjutan LangStudio, seperti Knowledge Base Management.