全部产品
Search
文档中心

Alibaba Cloud Model Studio:Aplikasi alur kerja

更新时间:Nov 18, 2025

Aplikasi alur kerja menyederhanakan tugas kompleks dengan memecahnya menjadi serangkaian langkah. Di Alibaba Cloud Model Studio, Anda dapat membuat aplikasi alur kerja yang mengintegrasikan model bahasa besar (LLM), API, dan node lainnya untuk mengurangi kebutuhan pengkodean ekstensif. Topik ini menjelaskan cara membuat aplikasi alur kerja.

Penting

Pengenalan aplikasi

Mengapa menggunakan aplikasi alur kerja

Alur kerja sangat penting dalam pengembangan perangkat lunak modern dan manajemen bisnis. Alur kerja menyederhanakan tugas kompleks menjadi langkah-langkah yang dapat dikelola untuk meningkatkan efisiensi. Aplikasi alur kerja di Alibaba Cloud Model Studio menentukan urutan eksekusi tugas, menetapkan tanggung jawab, dan menetapkan ketergantungan antarlangkah. Hal ini memungkinkan otomatisasi dan penyederhanaan proses.

Aplikasi alur kerja berguna dalam skenario berikut:

  • Perencanaan perjalanan: Anda dapat menggunakan plugin alur kerja untuk memilih parameter seperti tujuan guna menghasilkan rencana perjalanan secara otomatis, termasuk penerbangan, akomodasi, dan rekomendasi atraksi.

  • Analisis laporan: Untuk kumpulan data kompleks, Anda dapat menggabungkan plugin pemrosesan data, analisis, dan visualisasi untuk menghasilkan laporan analisis terstruktur dan terformat sesuai berbagai kebutuhan bisnis.

  • Dukungan pelanggan: Anda dapat menggunakan alur kerja otomatis untuk memproses pertanyaan pelanggan, termasuk klasifikasi masalah, guna meningkatkan kecepatan respons dan akurasi layanan pelanggan.

  • Pembuatan konten: Anda dapat menghasilkan konten seperti artikel dan salinan pemasaran. Pengguna hanya perlu memasukkan topik dan persyaratan, lalu sistem secara otomatis menghasilkan konten yang sesuai.

  • Pendidikan dan pelatihan: Anda dapat merancang rencana pembelajaran yang dipersonalisasi melalui alur kerja, termasuk pelacakan kemajuan belajar dan penilaian, untuk mendukung pembelajaran mandiri siswa.

  • Konsultasi medis: Berdasarkan gejala yang dimasukkan pasien, Anda dapat menggabungkan berbagai alat analisis untuk menghasilkan diagnosis awal atau merekomendasikan pemeriksaan terkait guna membantu dokter membuat penilaian lebih lanjut.

Model yang didukung

Untuk informasi lebih lanjut tentang model-model tersebut, lihat Daftar model dan harga.

Untuk informasi lebih lanjut tentang batas laju pemanggilan API setiap model, lihat Batas laju.

Catatan

Daftar model yang didukung dalam aplikasi agen bersifat definitif.

Kasus penggunaan

Bagian ini menggunakan contoh pembuatan aplikasi alur kerja untuk menentukan apakah pesan teks melibatkan penipuan telekomunikasi.

  1. Buka halaman Application Management, klik Create Application, pilih Workflow Application, lalu klik Create Task-based Workflow untuk membuka halaman konfigurasi alur kerja.

  1. Konfigurasikan node Start: Hapus parameter kota dan tanggal default. Node input memiliki parameter default bawaan query, sehingga tidak diperlukan parameter tambahan di sini.

  1. Tambahkan node LLM untuk mengidentifikasi informasi penipuan:

    Seret node LLM dari panel sebelah kiri ke kanvas, hubungkan node Start ke node LLM, lalu konfigurasikan parameter yang sesuai. Anda dapat menggunakan pengaturan default untuk parameter yang tidak disebutkan.

    • Model Configuration: Qwen-Plus

    • System Prompt:

      Analisis dan tentukan apakah informasi yang diberikan dicurigai sebagai penipuan. Berikan jawaban pasti mengenai apakah ada kecurigaan penipuan.
       Persyaratan pemrosesan: Tinjau dengan cermat isi pesan, fokus pada kata kunci dan pola penipuan khas, seperti permintaan transfer mendesak, pemberian informasi pribadi, dan janji manfaat yang tidak realistis. 
      Prosedur: 
      1. Identifikasi elemen kunci dalam pesan, termasuk namun tidak terbatas pada identitas pengirim, permintaan yang diajukan, imbalan yang dijanjikan, dan ekspresi urgensi apa pun. 
      2. Bandingkan dengan karakteristik kasus penipuan yang diketahui untuk memeriksa apakah ada taktik atau pola bahasa serupa dalam pesan tersebut. 
      3. Evaluasi kewajaran keseluruhan pesan, dengan mempertimbangkan apakah permintaan yang diajukan sesuai dengan logika dan proses konvensional. 
      4. Jika pesan berisi tautan atau lampiran, jangan mengklik atau mengunduhnya secara langsung untuk menghindari risiko keamanan potensial, dan ingatkan pengguna tentang bahaya konten tersebut. 
      Format keluaran: Secara jelas nyatakan apakah pesan menunjukkan karakteristik penipuan dan jelaskan secara singkat dasar penilaian tersebut. Jika terdapat kecurigaan penipuan, berikan beberapa saran atau langkah pencegahan untuk melindungi keamanan pengguna.
    • User Prompt:

      Tentukan apakah "${sys.query}" dicurigai sebagai informasi penipuan.

p910525

  1. Hubungkan node LLM dan node End, lalu konfigurasikan variabel node End. Anda dapat menggunakan pengaturan default untuk parameter yang tidak disebutkan.

    • Input: Masukkan / untuk memasukkan variabel: LLM.result

p910524

  1. Klik Test di pojok kanan atas, masukkan Paket Anda telah disimpan di stasiun pengambilan selama beberapa hari. Silakan ambil secepatnya, lalu klik Execute. Setelah alur kerja selesai berjalan, node keluaran menampilkan Run Result.

image

  1. Klik Test di pojok kanan atas lagi, masukkan Anda memiliki pesan tentang memenangkan 1 juta. Silakan periksa, lalu klik Execute. Setelah alur kerja selesai berjalan, node keluaran menampilkan Run Result.

image

  1. Jika aplikasi alur kerja berfungsi sebagaimana mestinya, klik Publish di pojok kanan atas untuk memublikasikan aplikasi guna pemanggilan selanjutnya.

Deskripsi node

Node adalah unit fungsional inti dari aplikasi alur kerja. Setiap node bertanggung jawab atas tugas tertentu, seperti mengeksekusi operasi, memicu kondisi, memproses data, atau menentukan alur proses. Node merupakan blok bangunan fleksibel yang dapat dirakit untuk membangun proses otomatis yang efisien dan cerdas.

Start/End

  • Kapan digunakan

    • Saat merancang alur kerja, Anda harus menentukan struktur dan konten parameter input dan output di node Start dan End.

  • Cara menggunakan

    • Node Mulai

      Komponen

      Deskripsi

      Nama variabel

      Nama parameter input. Node selanjutnya dapat memanggil variabel berdasarkan namanya.

      Tipe

      Tipe data parameter input. Saat ini, hanya String, Boolean, dan Number yang didukung. Untuk meneruskan Array atau Objek, Anda harus menguraikannya sendiri sebelum memasuki alur kerja.

      Deskripsi

      Deskripsi parameter input, digunakan untuk menjelaskan tujuan parameter tersebut.

      Catatan

      Selain variabel kustom, aplikasi memiliki beberapa variabel utilitas bawaan:

      • query

        Variabel kueri pengguna. Digunakan untuk menerima variabel prompt dari pemanggilan API atau teks yang dikirim pengguna di jendela uji.

      • historyList (hanya tersedia di alur kerja percakapan)

        Daftar riwayat percakapan. Aplikasi menggunakannya untuk secara otomatis mempertahankan catatan riwayat percakapan dan memberikan pengalaman percakapan multi-putaran.

      • imageList (hanya tersedia di alur kerja percakapan)

        Daftar gambar. Menyimpan gambar yang diunggah pengguna di jendela uji. Saat ini, hanya satu gambar yang dapat disimpan.

    • Node Akhir

      Komponen

      Deskripsi

      Mode output

      Format parameter output. Output Teks dan Output JSON didukung.

      Kotak Teks (dalam mode output teks)

      Anda dapat mengatur format paragraf konten output. Bidang ini mendukung input teks dan referensi variabel, cocok untuk konten tak terstruktur.

      Nama variabel/Nilai variabel (hanya berlaku dalam mode JSON)

      Anda harus mengatur konten output dalam format JSON. Anda dapat menyesuaikan nama variabel. Bidang ini mendukung input teks dan referensi variabel, cocok untuk konten terstruktur.

      Hasil kembali

      Parameter ini hanya berlaku saat aplikasi dipanggil menggunakan API. Parameter ini menentukan apakah akan mengeluarkan konten node. Untuk informasi lebih lanjut tentang tujuan komponen ini, lihat Mengontrol konten node menggunakan Hasil Kembali.

Basis Pengetahuan

  • Mengapa menggunakannya

    Node ini membantu Anda mengekstrak konten yang paling relevan dari sumber informasi besar, seperti repositori dokumen, FAQ, dan informasi produk. Hal ini mempersiapkan data untuk tanya jawab AI selanjutnya.

  • Fungsi dan fitur serta penggunaan

    • Anda dapat mencari satu atau beberapa basis pengetahuan untuk mengambil segmen dokumen yang relevan. Hal ini memungkinkan AI mengakses lebih banyak konteks dan memberikan jawaban yang lebih profesional atau akurat. Node ini sering digunakan bersama node LLM.

    • Sangat berguna untuk membangun alur kerja percakapan dan sistem layanan pelanggan cerdas.

  • Konfigurasi parameter

    Nama parameter

    Deskripsi parameter

    Input

    content: Anda dapat langsung memasukkan teks atau mereferensikan variabel yang dihasilkan dari node sebelumnya.

    imageList: Mendukung pencarian gambar. Anda dapat langsung memasukkan tautan gambar atau mereferensikan variabel yang dihasilkan dari node sebelumnya.

    Pilih basis pengetahuan

    Tentukan basis pengetahuan yang akan dicari. Pemilihan ganda didukung.

    Output

    Beri nama variabel hasil node ini, seperti kbResult.

  • Struktur output contoh:

    {
      "rewriteQuery": "...",
      "chunkList": [
        {
          "score": 0.36,
          "documentName": "Nama Dokumen",
          "title": "Judul Dokumen",
          "content": "Segmen Konten Terkait",
          "imagesUrl": "URL Gambar"
        }
      ]
    }

    chunkList adalah bagian yang paling sering digunakan dari output. Bagian ini berisi segmen dokumen dan skor kemiripannya.

Catatan

Skor hasil pencarian yang lebih tinggi menunjukkan kecocokan yang lebih kuat. Anda dapat memfilter, mengurutkan, atau menggabungkan hasil di node selanjutnya.

Basis data vektor lokal tidak didukung. Anda harus mengunggah file ke basis pengetahuan untuk menggunakan fitur ini.

LLM

  • Mengapa menggunakannya

    Ini adalah "otak cerdas" dari seluruh alur kerja. LLM dapat memahami bahasa, menghasilkan teks, menganalisis gambar, dan berpartisipasi dalam percakapan multi-putaran. Anda dapat menggunakannya untuk menulis salinan, meringkas teks, atau bahkan menganalisis konten gambar jika menggunakan model seri VL.

  • Fungsi dan fitur

    • Mendukung pemrosesan satu input dalam satu waktu atau pemrosesan sejumlah besar data secara batch.

    • Anda dapat mengonfigurasi LLM yang berbeda, seperti Qwen-Plus. Pilih model yang sesuai berdasarkan kinerja, kecepatan, atau fitur lainnya.

  • Konfigurasi parameter node

    Nama parameter

    Deskripsi parameter

    Pemilihan mode

    Mode pemrosesan tunggal: Mode ini melakukan pencarian cepat menggunakan rasio pencarian yang lebih rendah dan tidak menggunakan penulisan ulang kueri.

    Mode pemrosesan batch: Dalam mode pemrosesan batch, node dijalankan beberapa kali. Setiap kali dijalankan, satu item dari daftar secara berurutan ditetapkan ke variabel pemrosesan batch. Proses ini berlanjut hingga semua item dalam daftar telah diproses atau jumlah maksimum pemrosesan batch yang ditentukan tercapai.

    Konfigurasi pemrosesan batch:

    • Jumlah maksimum pemrosesan batch (rentang: 1–100, default untuk pengguna biasa: 100): Batas atas untuk eksekusi pemrosesan batch.

      Catatan

      Jumlah aktual pemrosesan batch adalah panjang minimum dari array yang dimasukkan pengguna. Jika tidak ada variabel input yang ditentukan, jumlah kali ditentukan oleh jumlah batch dalam konfigurasi.

    • Jumlah eksekusi paralel (rentang: 1–10): Batas konkurensi untuk pemrosesan batch. Jika parameter ini diatur ke 1, semua tugas dieksekusi secara berurutan.

    Konfigurasi model

    Pilih LLM yang sesuai dan sesuaikan parameter modelnya. Untuk informasi lebih lanjut tentang model yang didukung, lihat Model yang didukung.

    Saat memilih model VL:

    • Parameter input model: vlImageUrl dapat mereferensikan parameter atau memasukkan tautan gambar.

    • Sumber gambar: Anda dapat memilih Set Gambar atau Bingkai Video.

      • Set Gambar: Model menganggap gambar yang diunggah sebagai independen dan mencocokkan gambar yang sesuai untuk pemahaman berdasarkan pertanyaan.

      • Bingkai Video: Model menganggap gambar yang diunggah berasal dari video yang sama dan memahami gambar secara keseluruhan secara berurutan. Diperlukan minimal empat bingkai video.

    Konfigurasi parameter

    Koefisien suhu: Digunakan untuk menyesuaikan keragaman konten yang dihasilkan. Nilai suhu yang lebih tinggi meningkatkan keacakan teks yang dihasilkan, menghasilkan output yang lebih unik. Nilai suhu yang lebih rendah membuat konten yang dihasilkan lebih konservatif dan konsisten.

    Model DeepSeek R1 tidak mendukung konfigurasi ini.

    Panjang balasan maksimum: Membatasi panjang maksimum teks yang dihasilkan model, tidak termasuk prompt. Batas ini bervariasi berdasarkan jenis model, dan nilai maksimum spesifik dapat berbeda.

    Prompt Sistem

    Anda dapat menggunakan parameter ini untuk menentukan peran, tugas, dan format output model. Misalnya: "Anda adalah ahli matematika yang berspesialisasi dalam menyelesaikan soal matematika. Keluarkan proses penyelesaian soal dan hasilnya dalam format yang ditentukan."

    Prompt Pengguna

    Konfigurasikan templat prompt. Penyisipan variabel didukung. LLM memproses dan menghasilkan konten berdasarkan konfigurasi prompt.

    Output

    Nama variabel untuk hasil pemrosesan node ini. Node selanjutnya menggunakan variabel ini untuk mengidentifikasi dan memproses hasilnya.

    Model DeepSeek R1 mendukung pengeluaran proses berpikir mendalam (reasoningContent).
    Catatan

    Untuk mengintegrasikan aplikasi ke bisnis Anda menggunakan API, lihat Pemanggilan aplikasi.

  • Node LLM dalam alur kerja percakapan

    • Berbeda dengan node LLM dalam alur kerja berbasis tugas, node ini mendukung konfigurasi percakapan multi-putaran. Model dapat menggunakan informasi percakapan historis yang dipilih sebagai input.

      Konfigurasi percakapan multi-putaran: Aplikasi percakapan mengumpulkan variabel yang diperlukan dalam "Konteks" dari putaran percakapan sebelumnya dan meneruskannya sebagai parameter input ke LLM.

      image

    • Konteks: Mendeklarasikan input konteks yang dibutuhkan LLM. ${System Variable.historyList} default mewakili input dan output aplikasi dari putaran percakapan sebelumnya. Parameter lain merujuk pada parameter aplikasi dari putaran percakapan sebelumnya.

      image

  • Contoh node model teks

    Pada antarmuka Test, masukkan insinyur chip di parameter query:

    image

    Output node End:

    image

  • Contoh node model gambar

    LLM mendukung satu atau beberapa gambar sebagai input dalam format URL dan base64.

    Catatan

    Gambar tunggal dapat diteruskan secara langsung. Misalnya: https://****.com/****.jpg.

    Beberapa gambar dapat diteruskan sebagai daftar. Misalnya: ["URL","URL","URL"].

    Pada antarmuka Test, masukkan https://****.com/****.jpg di parameter query.

    image

    Output node End:

    image

API

Catatan
  • Waktu tunggu default untuk node API adalah 5.000 ms dan tidak dapat disesuaikan.

  • Untuk memastikan node API dapat mengakses layanan target dengan sukses, tambahkan alamat IP layanan aplikasi Model Studio (47.93.216.17 dan 39.105.109.77) ke daftar putih aturan masuk grup keamanan atau firewall server target Anda.

  • Definisi

    Anda dapat memanggil layanan API kustom menggunakan metode POST, GET, PUT, PATCH, dan DELETE serta mengeluarkan hasil pemanggilan API.

    Metode panggilan

    Tujuan

    POST

    Digunakan untuk mengirimkan data ke server guna membuat sumber daya baru.

    GET

    Digunakan untuk mengambil representasi sumber daya tanpa memodifikasi data di server.

    PUT

    Digunakan untuk memperbarui representasi sumber daya tertentu di server atau membuat sumber daya baru di server.

    PATCH

    Digunakan untuk memperbarui sebagian sumber daya di server.

    DELETE

    Digunakan untuk menghapus sumber daya tertentu dari server.

  • Konfigurasi parameter

    Nama parameter

    Deskripsi parameter

    Alamat API

    Masukkan alamat API yang akan dipanggil. Anda dapat memilih POST, GET, PUT, PATCH, atau DELETE.

    Pengaturan Header

    Atur parameter Header dengan menetapkan KEY dan VALUE.

    Pengaturan Param

    Atur parameter Param dengan menetapkan KEY dan VALUE.

    Pengaturan Body

    Anda dapat memilih none, form-data, raw, atau JSON.

    Output

    Nama variabel untuk hasil pemrosesan node ini, digunakan oleh node selanjutnya untuk mengidentifikasi dan memproses hasil node ini.

    Catatan

    Untuk mengintegrasikan aplikasi ke bisnis Anda menggunakan API, lihat Pemanggilan aplikasi.

  • Contoh node

    Gunakan metode POST untuk memanggil API.

    image

Klasifikasi Intent

  • Definisi

    Mengklasifikasikan dan mencocokkan input pengguna secara cerdas berdasarkan deskripsi intent dan memilih cabang untuk dieksekusi.

  • Konfigurasi parameter

    Nama parameter

    Deskripsi parameter

    Input

    Variabel yang akan diproses oleh node ini, digunakan untuk mengidentifikasi konten yang akan diproses. Anda dapat mereferensikan variabel dari node leluhur atau node Start atau langsung memasukkan nilai variabel.

    Konfigurasi model

    Pemilihan model: Qwen-Plus.

    Konfigurasi intent

    Konfigurasikan intent yang berbeda dan masukkan deskripsi intent. Model mencocokkan tautan selanjutnya berdasarkan deskripsi intent, seperti "Untuk menghitung soal matematika" dan "Untuk tanya jawab tentang pengetahuan terkait cuaca".

    Intent lainnya

    Jika tidak ada intent yang cocok, tautan ini akan dicocokkan.

    Mode intent

    • Mode pemilihan tunggal: LLM memilih intent yang paling sesuai dari konfigurasi intent yang ada sebagai output.

    • Mode pemilihan ganda: LLM memilih semua intent yang cocok dari konfigurasi intent yang ada sebagai output.

    Mode berpikir

    • Mode cepat: Mode ini dapat menghindari pengeluaran proses inferensi yang kompleks, sehingga meningkatkan kecepatan pemrosesan. Cocok untuk skenario sederhana.

    • Mode efek: Mode ini berpikir langkah demi langkah untuk mencocokkan klasifikasi yang sesuai dengan lebih akurat.

    Konfigurasi lanjutan

    Konten konfigurasi lanjutan disediakan ke model sebagai prompt tambahan. Di sini, Anda dapat memasukkan lebih banyak kondisi atau memberikan lebih banyak contoh agar hasil klasifikasi model lebih sesuai dengan kebutuhan Anda.

    Contoh

    Anggaplah Anda sedang mengembangkan sistem layanan pelanggan untuk platform e-commerce, dan pengguna mungkin mengajukan berbagai pertanyaan tentang pertanyaan pesanan, pengembalian dan penukaran, serta pembayaran. Untuk memastikan model mengklasifikasikan secara akurat, Anda dapat menambahkan prompt dan contoh yang relevan dalam konfigurasi lanjutan.

    Harap klasifikasikan intent berdasarkan contoh berikut:
    Kasus 1: Pengguna memasukkan "Saya ingin mengembalikan mantel yang baru saja saya beli", diklasifikasikan sebagai "Pengembalian/Penukaran".
    Kasus 2: Pengguna memasukkan "Tolong bantu saya memeriksa status pengiriman pesanan saya", diklasifikasikan sebagai "Pertanyaan Pesanan".
    Kondisi: Hanya proses kueri yang terkait pesanan, dan abaikan masalah pembayaran dan teknis.

    Efek:

    Input pengguna: "Kapan buku yang saya pesan di situs web Anda minggu lalu dapat dikirim ke rumah saya?"

    Hasil klasifikasi: "Pertanyaan Pesanan"

    Dalam contoh ini, konfigurasi lanjutan membimbing model untuk mengklasifikasikan "menanyakan waktu pengiriman" sebagai intent "Pertanyaan Pesanan" dengan memberikan kasus klasifikasi spesifik, sekaligus membatasi cakupan klasifikasi dan mengecualikan pertanyaan lain yang tidak relevan.

    Konteks

    Setelah kemampuan konteks diaktifkan, sistem secara otomatis mencatat informasi percakapan historis dalam format Pesan. Saat model dipanggil, konteks diteruskan, dan model menghasilkan konten berdasarkan konteks tersebut.

    Item konfigurasi ini hanya tersedia di node Klasifikasi Intent alur kerja percakapan.
    Catatan

    Jika Anda mengaktifkan konteks, tipe variabel yang Anda teruskan ke node ini harus berupa Daftar.

    Output

    Nama variabel untuk hasil pemrosesan node ini, digunakan oleh node selanjutnya untuk mengidentifikasi dan memproses hasil node ini.

    Catatan
    • Node ini mendukung konteks dalam alur kerja percakapan.

    • Menjalankan node ini mengonsumsi token, dan jumlah konsumsi ditampilkan saat runtime.

Konversi Teks

  • Definisi

    Node ini digunakan untuk konversi dan pemrosesan konten teks, seperti mengekstrak konten tertentu dan mengonversi format. Node ini mendukung mode templat.

  • Konfigurasi parameter

    Nama parameter

    Deskripsi parameter

    Mode output

    Output Teks dan Output JSON didukung.

    Input

    Gunakan LLM untuk menentukan metode pemrosesan guna mengonversi konten yang akan diproses ke format tertentu untuk node selanjutnya. Anda dapat mereferensikan hasil pemrosesan node leluhur melalui konfigurasi variabel.

    • Text Output: Masukkan / untuk memasukkan variabel.

    • JSON Output: Nama Variabel | Referensi/Input | Variabel.

  • Contoh node

    Berikut adalah contoh sederhana node Konversi Teks. Logika alur kerja adalah sebagai berikut: Pertama, pengguna memasukkan kata kunci. Kemudian, kata kunci ini diteruskan ke node Konversi Teks, di mana diproses secara internal untuk menghasilkan balasan output yang sesuai. Akhirnya, balasan dikeluarkan melalui node End, menyelesaikan seluruh proses.

    Pada antarmuka Test, masukkan matematika di parameter query:

    image

    Output node End:

    image

Konversi Skrip

  • Definisi

    Node ini memproses konten input menggunakan kode skrip dan mengonversinya ke templat atau format output tertentu. Proses ini mencakup penguraian, konversi, dan pemformatan data input untuk memastikan konsistensi dan keterbacaan.

  • Contoh node

    Ini adalah contoh konversi skrip Python: Variabel kota dan tanggal diteruskan dari node leluhur dan disimpan dalam pasangan kunci-nilai params. Setelah konversi, objek JSON dikeluarkan, berisi result, result.key0, dan result.key1. Skema JSON dari nilai kembali kode harus konsisten dengan output yang ditentukan node.

    Catatan

    Apa itu Skema JSON?

    Skema JSON adalah spesifikasi struktur data. Skema ini memungkinkan node lain di platform memahami dengan jelas bidang (seperti result dan key1) dan tipe data yang akan dikeluarkan node ini. Hal ini memudahkan Anda mereferensikannya di node turunan.

    image

  • Konfigurasi parameter

    Nama parameter

    Deskripsi parameter

    Input

    Menentukan data input untuk node ini. Anda dapat memberikan input dengan dua cara:

    • Nilai statis (Input): Langsung isi nilai tetap di panel input sebelah kiri, seperti Beijing.

    • Variabel dinamis (Referensi): Referensikan output dari node leluhur. Misalnya, jika node sebelumnya bernama node_a dan outputnya memiliki bidang bernama city_name, Anda dapat memilih node_a.output.city_name untuk mereferensikannya.

    Output

    Hasil yang dihasilkan oleh logika kode node ini. Kamus yang dikembalikan oleh pernyataan return dalam kode akan menjadi output node ini.

    Misalnya, jika {'result': 'Pemrosesan berhasil'} dikembalikan, node turunan dapat memperoleh string "Pemrosesan berhasil" menggunakan this_node_name.result.

    Kode

    Tulis logika kode inti.

    • Memperoleh input: Gunakan objek params bawaan untuk memperoleh parameter input.

    • Mengembalikan output: Fungsi pemrosesan main harus return kamus/objek, yang pasangan kunci-nilainya akan membentuk output node.

Penilaian Kondisional

  • Definisi

    Node ini menetapkan cabang kondisional. Saat variabel memenuhi suatu kondisi, alur berlanjut ke cabang selanjutnya yang sesuai. Node ini mendukung konfigurasi kondisi AND/OR. Beberapa kondisi dieksekusi secara berurutan dari atas ke bawah.

  • Konfigurasi parameter

    Nama parameter

    Deskripsi parameter

    Cabang kondisional

    Masukkan pernyataan penilaian kondisional.

    Lainnya

    Output yang tidak memerlukan penilaian kondisional dapat dikeluarkan dari sini.

  • Contoh node

    Berikut adalah contoh sederhana node Penilaian Kondisional. Logika alur kerja adalah sebagai berikut: Pengguna pertama kali memasukkan dua parameter, yang kemudian diteruskan ke node Penilaian Kondisional. Node melakukan penilaian kondisional pada parameter dan kemudian menghasilkan balasan output melalui cabang berbeda dari node Konversi Teks. Akhirnya, node End mengeluarkan balasan yang dihasilkan.

    Pada antarmuka Test, masukkan 12345 di parameter scert dan admin di parameter admin:

    image

    Output node End:

    image

Function Compute

  • Definisi

    Node ini mengotorisasi layanan Function Compute Alibaba Cloud dan memanggil layanan kustom di Function Compute.

  • Konfigurasi parameter

    Nama parameter

    Deskripsi parameter

    Input

    Variabel yang akan diproses oleh node ini, digunakan untuk mengidentifikasi konten yang akan diproses. Anda dapat mereferensikan variabel dari node leluhur atau node Start atau langsung memasukkan nilai variabel.

    Wilayah

    Pilih wilayah: Singapore, Kuala Lumpur, Jakarta.

    Konfigurasi layanan

    Pilih konfigurasi layanan.

    Output

    Nama variabel untuk hasil pemrosesan node ini, digunakan oleh node selanjutnya untuk mengidentifikasi dan memproses hasil node ini.

Plugin

  • Definisi

    Anda dapat mengonfigurasi node plugin di aplikasi alur kerja Anda untuk memperluas kemampuannya dan melakukan tugas yang lebih kompleks. Alibaba Cloud Model Studio menyediakan serangkaian plugin resmi, seperti Quark Search, Calculator, dan Python Code Interpreter. Anda juga dapat membuat plugin kustom berdasarkan kebutuhan spesifik.

    Untuk informasi lebih lanjut, lihat Ikhtisar Plugin.

Publikasikan aplikasi

Setelah mempublikasikan aplikasi, aplikasi tersebut dapat dipanggil menggunakan API atau dibagikan dengan pengguna RAM di bawah akun Alibaba Cloud yang sama melalui halaman web. Anda dapat mengklik tombol Publish di pojok kanan atas halaman manajemen aplikasi agen.

Panggil menggunakan API

Di tab Sharing Channels aplikasi alur kerja, Anda dapat mengklik API Call untuk melihat metode pemanggilan aplikasi agen menggunakan API.

Catatan: Anda harus mengganti YOUR_API_KEY dengan kunci API Anda untuk memulai pemanggilan.

image

Bagian berikut menjawab pertanyaan umum tentang pemanggilan API:

  • Untuk informasi lebih lanjut tentang metode pemanggilan (HTTP/SDK), lihat Pemanggilan aplikasi.

  • Untuk informasi lebih lanjut tentang parameter detail antarmuka pemanggilan, lihat Informasi parameter pemanggilan aplikasi.

  • Untuk informasi lebih lanjut tentang masalah penerusan parameter pemanggilan, lihat Penerusan parameter aplikasi.

  • Untuk informasi lebih lanjut tentang pesan kesalahan pemanggilan, lihat Pesan kesalahan untuk solusinya.

  • Aplikasi itu sendiri tidak memiliki batas konkurensi. Batas terutama terkait dengan model yang Anda panggil secara internal. Untuk informasi lebih lanjut tentang model, lihat Daftar model.

  • Saat ini, Anda tidak dapat memanggil layanan Xiyan dalam alur kerja. Anda dapat memanggil layanan API kustom menggunakan node API.

Catatan

Waktu tunggu pemanggilan API adalah 300 detik dan tidak dapat dimodifikasi.

Metode pemanggilan lain (aplikasi alur kerja percakapan)

Untuk informasi lebih lanjut tentang metode berbagi lainnya, lihat Berbagi aplikasi.

Lihat versi aplikasi alur kerja

  1. Klik Publikasikan di pojok kanan atas halaman konfigurasi alur kerja. Di kotak dialog publikasi, masukkan informasi versi, seperti 1.0.0, lalu klik OK.

image

  1. Klik ikon image di bagian atas halaman. Di panel Riwayat, Anda dapat melihat atau menggunakan versi berbeda dari aplikasi alur kerja saat ini sesuai kebutuhan dengan mengklik Gunakan versi ini atau Kembali ke kanvas saat ini.

    Anda juga dapat mengklik Ekspor versi ini dalam DSL di bagian atas untuk mengekspor DSL versi historis yang dipilih dari alur kerja.

image

  1. Opsional: Lihat atau cari node kanvas saat ini di bilah alat.

image

Hapus dan salin aplikasi alur kerja

Anda dapat menemukan kartu aplikasi yang dipublikasikan di Application Management dan melakukan operasi seperti menghapus dan menyalin alur kerja, serta memodifikasi nama aplikasi di bawah More > Copy Application/Delete Application.

image

FAQ

Terkait aplikasi alur kerja

Bagaimana cara menulis hasil eksekusi alur kerja ke database?

Anda dapat menggunakan node Konversi Skrip untuk menulis konten node sebelumnya ke database.

Bagaimana cara mengunggah file saat membangun aplikasi alur kerja di Alibaba Cloud Model Studio?

Anda dapat menambahkan node API ke aplikasi alur kerja untuk mengimplementasikan fitur unggah file.

Bagaimana cara mengunggah gambar?

Anda dapat menggunakan model VL dan meneruskan URL gambar di parameter tertentu.

Dapatkah saya menggunakan API tugas asinkron di aplikasi alur kerja?

Waktu tunggu untuk aplikasi alur kerja adalah 300 detik. Kami tidak merekomendasikan penggunaan API tugas asinkron di alur.

Bagaimana antarmuka depan memanggil API dan mengalirkan output di alur kerja Alibaba Cloud Model Studio?

Pemanggilan antarmuka depan saat ini tidak didukung.

Mengapa saya tidak dapat mengimpor file .yaml mandiri ke alur kerja Alibaba Cloud Model Studio?

Mengimpor file .yaml mandiri tidak didukung. Anda harus menyediakan paket terkompresi yang berisi file md5. Kami merekomendasikan Anda membuat ulang MD5.

Dapatkah nama variabel di alur kerja Alibaba Cloud Model Studio menggunakan bahasa Tionghoa?

Nama variabel tidak boleh dalam bahasa Tionghoa.

Bagaimana riwayat percakapan disimpan?

Aplikasi alur kerja hanya menyimpan data selama satu bulan. Anda harus menyimpan catatan percakapan sendiri. session_id berlaku selama satu jam.

Terkait node

Mengapa terjadi kesalahan saat menjalankan node Klasifikasi Intent dengan konteks diaktifkan?

Jika node Klasifikasi Intent memiliki konteks diaktifkan, variabel yang Anda teruskan ke node ini harus bertipe Daftar.

Mengapa terjadi kesalahan saat saya menggunakan node pemanggilan API dengan output streaming?

Node API di alur kerja tidak mendukung output streaming, tetapi API HTTP itu sendiri mendukung. Kami merekomendasikan Anda menggunakan aplikasi orkestrasi agen untuk memanggil aplikasi agen lain guna mencapai hasil pengembalian streaming.

Bagaimana cara menangani kecepatan respons lambat dari node Penilaian Kondisional di alur kerja Alibaba Cloud Model Studio?

  1. Periksa konfigurasi alur kerja. Pastikan setiap node di alur kerja dikonfigurasi dengan benar, terutama node Penilaian Kondisional. Hindari perhitungan atau pemrosesan data yang tidak perlu kompleks, yang dapat meningkatkan waktu respons.

  2. Optimalkan logika kode. Jika skrip kustom digunakan untuk penilaian kondisi, coba optimalkan logika skrip dan kurangi loop atau pemrosesan data yang tidak perlu untuk meningkatkan efisiensi eksekusi.

  3. Lakukan pengujian batch. Uji waktu respons rata-rata alur kerja saat ini untuk menentukan apakah ada hambatan kinerja dalam kondisi tertentu.

Bagaimana node LLM mengalirkan proses berpikir?

Anda harus menambahkan node Konversi Teks setelah node LLM, mengonfigurasi variabel reasoning_content, dan mengaktifkan sakelar hasil kembali. Kondisi kembali harus diterima oleh node End.

Mengapa saya tidak dapat menyesuaikan parameter output node LLM?

  1. Gunakan node skrip untuk memproses output. Tambahkan node skrip setelah node LLM untuk memproses outputnya. Hal ini memungkinkan Anda mengonversi output ke format yang Anda butuhkan atau menambahkan parameter output.

  2. Konfigurasikan node Batch: Jika Anda menggunakan node LLM di node Batch, Anda dapat memilih output node LLM sebagai output akhir dalam konfigurasi node Batch. Langkah-langkah spesifiknya adalah sebagai berikut:

    • Tambahkan node LLM ke node Batch.

    • Di konfigurasi node Batch, pilih output node LLM sebagai output akhir resultList.

Untuk informasi lebih lanjut, lihat Penerusan parameter aplikasi.

Mengapa node pemanggilan API alur kerja tidak memiliki hasil kembali dan mengalami masalah penerusan parameter?

Konfirmasi bahwa kunci API dan URL dasar benar. Konfirmasi bahwa parameter input dikonfigurasi dengan benar, sesuaikan tipe input bidang, dan gunakan pengamatan model untuk melihat detail penggunaan model.

Mengapa saya mengalami masalah memanggil data Excel dari basis pengetahuan?

Anda tidak dapat langsung memanggil file lokal. Anda dapat mengimplementasikan panggilan lokal menggunakan MCP. Anda harus memproses konten teks dari output node basis pengetahuan sendiri. Kami merekomendasikan Anda menambahkan LLM untuk mengonversi tabel sebelum meneruskannya ke skrip untuk diproses.