全部产品
Search
文档中心

Platform For AI:Gunakan LangStudio dan DeepSeek untuk menerapkan chatbot berbasis RAG dan pencarian web

更新时间:Jul 06, 2025

Topik ini menjelaskan cara menggunakan LangStudio untuk menerapkan alur aplikasi "Retrieval-Augmented Generation (RAG) dan pencarian web berbasis chatbot". Alur ini mengintegrasikan pencarian web real-time dengan kemampuan RAG, memberikan model akses ke basis pengetahuan domain spesifik serta hasil pencarian terbaru. Hal ini memungkinkan model memberikan jawaban lebih akurat bagi pengguna. Pengembang dapat memperluas dan menyesuaikan template alur aplikasi sesuai kebutuhan skenario tertentu.

Informasi Latar Belakang

Dalam teknologi informasi modern yang berkembang pesat, alur aplikasi "RAG dan pencarian web berbasis chatbot" menggabungkan keunggulan pencarian web real-time dan kecerdasan buatan generatif untuk memberikan jawaban komprehensif dan akurat kepada pengguna. Dengan mengintegrasikan pencarian web real-time dan kemampuan RAG, model dapat memanfaatkan informasi dari basis pengetahuan domain spesifik serta data web terbaru untuk pembaruan real-time. Kombinasi dua sumber informasi ini membuat aplikasi sangat efektif di bidang seperti keuangan dan perawatan kesehatan, di mana informasi yang sangat akurat diperlukan. Pengembang dapat secara fleksibel memperluas dan menyesuaikan template alur aplikasi ini untuk memenuhi kebutuhan berbagai skenario, meningkatkan pengalaman pengguna dan dukungan keputusan.

Prasyarat

  • Anda telah mendaftarkan akun di Situs Resmi SerpApi dan mendapatkan Kunci API (versi gratis menyediakan 100 pencarian per bulan).

  • LangStudio mendukung Faiss atau Milvus sebagai database vektor. Jika Anda ingin menggunakan Milvus, Anda harus membuat instance database Milvus terlebih dahulu.

    Catatan

    Faiss biasanya digunakan dalam lingkungan pengujian dan tidak memerlukan pembuatan database tambahan. Di lingkungan produksi, kami sarankan menggunakan Milvus, yang mendukung volume data yang lebih besar.

  • Anda telah mengunggah korpus basis pengetahuan RAG ke Object Storage Service (OSS).

1. (Opsional) Terapkan LLM dan model penyematan

Alur aplikasi "RAG dan pencarian web berbasis chatbot" memerlukan layanan model bahasa besar (LLM) dan penyematan. Bagian ini menjelaskan cara dengan cepat menerapkan model yang diperlukan di Model Gallery. Jika Anda sudah memiliki layanan model yang memenuhi persyaratan dan mendukung OpenAI API, lewati langkah ini dan gunakan layanan yang ada.

Pilih Panduan Cepat Mulai > Model Gallery dan terapkan model untuk dua skenario berikut. Untuk informasi lebih lanjut tentang penerapan, lihat Terapkan dan Latih Model.

Penting

Pastikan Anda menggunakan LLM yang mendukung fine-tuning instruksi. Model dasar tidak dapat mengikuti instruksi pengguna dengan benar untuk menjawab pertanyaan.

  • Pilih large-language-model untuk Scenarios. Dalam contoh ini, DeepSeek-R1 digunakan. Untuk informasi lebih lanjut, lihat Penyebaran Satu Klik DeepSeek-V3 dan DeepSeek-R1.

    image

  • Pilih embedding untuk Scenarios. Dalam contoh ini, bge-m3 embedding model digunakan.

    image

2. Buat koneksi

Dalam topik ini, layanan Elastic Algorithm Service (EAS) yang diterapkan menggunakan LLM dan model penyematan di QuickStart > Model Gallery digunakan untuk membuat koneksi. Untuk informasi tentang jenis koneksi lainnya dan detailnya, lihat Konfigurasikan Koneksi.

2.1 Buat koneksi layanan LLM

Pergi ke LangStudio, pilih ruang kerja, lalu klik Enter LangStudio. Kemudian, klik tab Connection. Pada tab Model Service dari tab Connection, klik New Connection.

image

Tabel berikut menjelaskan parameter utama.

Parameter

Deskripsi

Nama Model

Jika Anda menerapkan model di Model Gallery, klik model untuk masuk ke halaman detail model dan kemudian lihat metode untuk mendapatkan nama model. Untuk informasi lebih lanjut, lihat Layanan model.

Penyedia Layanan

  • Layanan model EAS: Dalam topik ini, layanan model EAS digunakan. Dalam hal ini, Anda dapat memilih layanan LLM yang diterapkan di 1. (Opsional) Terapkan LLM dan model penyematan untuk parameter EAS Service. Setelah Anda memilih layanan EAS, sistem secara otomatis mengonfigurasi parameter base_url dan api_key. base_url menunjukkan alamat akses layanan. api_key menunjukkan token layanan.

  • Layanan model pihak ketiga: Jika Anda menggunakan layanan model pihak ketiga, seperti layanan DeepSeek, nilai base_url adalah https://api.deepseek.com, dan nilai api_key dapat diperoleh dari Situs Resmi DeepSeek.

2.2 Buat koneksi layanan model penyematan

Metode untuk membuat koneksi layanan model penyematan mirip dengan membuat koneksi layanan LLM. Bagian ini menjelaskan cara membuat koneksi layanan model penyematan umum.

image

2.3 Buat koneksi SerpApi

Pada tab Model Service dari tab Connection, klik tab Koneksi Kustom. Kemudian, klik Koneksi Baru. Pada halaman New Connection, atur parameter Custom Key ke api_key dan parameter Custom Value ke Kunci API yang Anda peroleh di Prasyarat.

image

3. Buat indeks basis pengetahuan

Buat indeks basis pengetahuan untuk menyimpan korpus yang dianalisis, dipecah, dan diubah menjadi vektor ke database vektor, sehingga membangun basis pengetahuan. Tabel berikut menjelaskan parameter utama. Untuk informasi tentang parameter lainnya, lihat Kelola Indeks Basis Pengetahuan.

Parameter

Deskripsi

Konfigurasi Dasar

Jalur Sumber Data OSS

Jalur OSS korpus basis pengetahuan RAG yang Anda unggah di Prasyarat.

Jalur Keluaran OSS

Konfigurasikan jalur untuk menyimpan hasil antara dan informasi indeks yang dihasilkan oleh penguraian dokumen.

Penting

Saat Anda menggunakan FAISS sebagai database vektor, alur aplikasi menyimpan file indeks yang dihasilkan ke OSS. Jika Anda menggunakan peran PAI default, nilai Instance RAM Role yang dikonfigurasi saat Anda memulai waktu proses untuk pengembangan alur aplikasi), alur aplikasi mengakses Bucket OSS default ruang kerja pengguna. Oleh karena itu, kami sarankan Anda mengonfigurasi parameter ini ke direktori di Bucket OSS tempat jalur penyimpanan default ruang kerja saat ini berada. Jika Anda menggunakan peran kustom, Anda harus memberikan izin akses OSS ke peran tersebut. Kami sarankan Anda melampirkan kebijakan AliyunOSSFullAccess ke peran kustom. Untuk informasi lebih lanjut, lihat Berikan izin ke Peran RAM.

Model Penyematan dan Database

Tipe Penyematan

Pilih General Embedding Model.

Koneksi Penyematan

Pilih koneksi layanan model penyematan yang dibuat di 2.2 Buat koneksi layanan model penyematan.

Tipe Database Vektor

Pilih FAISS. Topik ini menggunakan FAISS sebagai contoh.

4. Buat dan jalankan alur aplikasi

  1. Pergi ke LangStudio, pilih ruang kerja, lalu klik Enter LangStudio. Pada tab Application Flow, klik Create Application Flow untuk membuat alur aplikasi "RAG dan pencarian web berbasis chatbot".

    image

  2. Di halaman detail alur aplikasi, klik Create Runtime di sudut kanan atas. Di panel Create Runtime, konfigurasikan parameter. Catatan: Untuk mengurai node Python atau melihat lebih banyak alat, pastikan waktu proses dimulai.

    image

    Perhatikan parameter berikut:

    VPC: Jika Anda mengatur tipe database vektor ke Milvus di 3. Buat Indeks Basis Pengetahuan, Anda harus memilih VPC tempat instance Milvus berada, atau memastikan bahwa VPC yang dipilih dan VPC tempat instance Milvus berada saling terhubung. Jika Anda mengatur tipe database vektor ke Faiss, VPC tidak perlu dikonfigurasi.

  3. Kembangkan alur aplikasi.

    image

    Dalam alur aplikasi, konfigurasikan node utama sebagai berikut. Pertahankan konfigurasi default untuk node lainnya atau konfigurasikan node berdasarkan kebutuhan bisnis Anda.

    • Pengambilan Pengetahuan: Ambil teks terkait dengan pertanyaan pengguna dari basis pengetahuan.

    • Pencarian Serp: Gunakan SerpApi untuk pencarian web dan kembalikan sejumlah hasil pencarian tertentu.

      • Koneksi SerpApi: Pilih koneksi SerpApi yang Anda buat di 2.3 Buat Koneksi SerpApi.

      • Mesin: Mendukung mesin pencari umum seperti Bing, Google, Baidu, Yahoo, dan juga mendukung input kustom. Untuk informasi lebih lanjut tentang mesin pencari dan deskripsi parameter lainnya, lihat Situs Resmi SerApi.

    • LLM: Gunakan dokumen yang diambil dan hasil pencarian Serp sebagai konteks, dan kirimkan mereka ke LLM bersama dengan pertanyaan pengguna untuk menghasilkan jawaban.

      • Konfigurasi Model: Pilih koneksi yang Anda buat di 2.1 Buat Koneksi Layanan LLM.

      • Riwayat Obrolan: Tentukan apakah akan mengaktifkan fitur riwayat obrolan untuk menggunakan riwayat obrolan sebagai variabel input.

    Untuk informasi lebih lanjut tentang setiap node, lihat Lampiran: Deskripsi Komponen Bawaan.

  4. Klik Run di sudut kanan atas untuk mengeksekusi alur aplikasi. Untuk informasi tentang masalah umum terkait runtime alur aplikasi, lihat FAQ.

    image

  5. Klik View Logs di bagian jawaban yang dihasilkan untuk melihat detail jejak atau topologi.

    image

5. Terapkan alur aplikasi

Di halaman detail alur aplikasi, klik Deploy di sudut kanan atas untuk menerapkan alur aplikasi sebagai layanan EAS. Bagian berikut menjelaskan parameter utama. Pertahankan konfigurasi default untuk parameter penerapan lainnya atau konfigurasikan mereka berdasarkan kebutuhan bisnis Anda.

  • Informasi Sumber Daya > Instance: Konfigurasikan jumlah instance layanan. Penerapan dalam topik ini hanya untuk tujuan pengujian, jadi jumlah instance diatur ke 1. Dalam lingkungan produksi, kami sarankan Anda mengonfigurasi beberapa instance layanan untuk mengurangi risiko kegagalan titik tunggal.

  • VPC > VPC (VPC): Layanan SerpApi perlu mengakses Internet, jadi Anda harus mengonfigurasi VPC yang dapat diakses melalui Internet (layanan EAS tidak dapat mengakses Internet secara default). Untuk informasi lebih lanjut, lihat Konfigurasikan Akses Internet. Selain itu, jika tipe database vektor di 3. Buat Indeks Basis Pengetahuan diatur ke Milvus, Anda harus memastikan bahwa VPC yang Anda pilih adalah VPC tempat instance Milvus berada, atau VPC yang dipilih dan VPC tempat instance Milvus berada saling terhubung.

Untuk informasi lebih lanjut, lihat Terapkan Alur Aplikasi.

6. Panggil layanan

Setelah penyebaran berhasil, tab Overview pada halaman detail layanan EAS akan muncul. Kemudian, klik tab Online Debugging untuk mengonfigurasi dan mengirim permintaan. Nilai Kunci dalam badan permintaan harus sama dengan nilai parameter Input Chat di Start Node dari alur aplikasi. Dalam topik ini, bidang default question digunakan.

image

Untuk informasi lebih lanjut tentang metode pemanggilan (seperti pemanggilan API) dan instruksi rinci, lihat Panggil Layanan.

Referensi