Elastic Algorithm Service (EAS) menyediakan gerbang bersama dan gerbang khusus yang mendukung pemanggilan layanan melalui internet maupun jaringan internal. Proses pemanggilannya serupa untuk kedua jenis gerbang. Anda dapat memilih jenis gerbang dan endpoint yang paling sesuai dengan kebutuhan Anda.
Pilih gerbang
EAS menawarkan dua jenis gerbang: gerbang bersama dan gerbang khusus. Perbedaan utama antara keduanya dirangkum sebagai berikut:
Perbandingan | Gerbang bersama | Gerbang khusus |
Pemanggilan Internet | Didukung secara default. | Didukung, namun harus diaktifkan terlebih dahulu. |
Pemanggilan jaringan internal | Didukung secara default. | Didukung, namun harus diaktifkan terlebih dahulu. |
Biaya | Tidak dikenakan biaya. | Menghasilkan biaya tambahan. |
Kasus Penggunaan | Bandwidth bersama, cocok untuk layanan dengan lalu lintas rendah yang tidak memerlukan kebijakan akses kustom. Direkomendasikan untuk skenario pengujian. | Bandwidth khusus, ideal untuk layanan dengan lalu lintas tinggi yang memerlukan keamanan, stabilitas, dan performa lebih baik. Direkomendasikan untuk lingkungan produksi. |
Konfigurasi | Konfigurasi default. Siap digunakan langsung dari kotak. | Buat gerbang terlebih dahulu, lalu pilih saat menerapkan layanan. Untuk informasi lebih lanjut, lihat Gunakan gerbang khusus. |
Pilih endpoint
Endpoint Internet: Gunakan ini di lingkungan apa pun dengan akses internet. Permintaan diteruskan melalui gerbang bersama EAS ke layanan Anda.
Endpoint VPC: Gunakan ini ketika aplikasi klien dan layanan EAS berada di Wilayah yang sama. Anda dapat membuat koneksi antara dua VPC dalam Wilayah yang sama.
Memanggil layanan melalui VPC lebih cepat dibandingkan melalui internet karena menghilangkan latensi jaringan publik. Selain itu, ini lebih hemat biaya karena lalu lintas intra-VPC biasanya gratis.
Cara memanggil layanan
Untuk memanggil layanan, Anda memerlukan endpoint dan token terlebih dahulu. Kemudian, bangun permintaan berdasarkan spesifikasi model yang telah diterapkan.
1. Dapatkan endpoint dan token
Setelah menerapkan layanan, sistem akan secara otomatis menghasilkan endpoint dan token yang diperlukan.
Endpoint yang disediakan di Konsol adalah alamat dasar. Anda harus menambahkan Path Permintaan yang benar ke alamat dasar ini untuk membangun URL permintaan lengkap. Kesalahan path merupakan penyebab paling umum dari kesalahan 404 Not Found.
Pada tab Inference Services, klik nama layanan target untuk masuk ke halaman Overview-nya. Di bagian Basic Information, klik View Invocation Information.
Di panel Invocation Information, dapatkan endpoint dan token. Pilih endpoint Internet atau VPC berdasarkan kebutuhan Anda. Contoh-contoh berikut menggunakan
<EAS_ENDPOINT>dan<EAS_TOKEN>sebagai placeholder untuk nilai-nilai tersebut.
2. Bangun dan kirim permintaan
Untuk endpoint Internet dan VPC, pembuatan permintaan sama; hanya URL yang berbeda. Permintaan pemanggilan standar biasanya mencakup empat komponen inti:
Metode: Metode yang paling umum adalah POST dan GET.
URL: Basis
<EAS_ENDPOINT>dengan Path Permintaan spesifik ditambahkan.Header Permintaan: Minimal, ini harus mencakup token otentikasi Anda, seperti
Authorization: <EAS_TOKEN>.Badan Permintaan: API dari model yang diterapkan menentukan formatnya, seperti JSON.
PentingSaat memanggil layanan melalui gerbang, badan permintaan tidak boleh melebihi 1 MB.
Skenario
Skenario 1: Panggil model yang diterapkan dari Model Gallery
Rujuk langsung ke halaman Model Introduction di Model Gallery. Halaman ini memberikan contoh panggilan API yang paling akurat, biasanya dalam cURL atau Python, termasuk path URL lengkap dan format Badan Permintaan.
Perintah cURL
Sintaks dasar untuk perintah cURL adalah curl [options] [URL]:
optionsadalah parameter opsional. Opsi umum termasuk-Xuntuk menentukan metode permintaan,-Huntuk Header Permintaan, dan-duntuk Badan Permintaan.URLadalah endpoint HTTP yang ingin Anda akses.

Kode Python
Contoh kode Python ini menggunakan model Qwen3-Reranker-8B. Perhatikan bahwa URL dan Badan Permintaannya berbeda dari contoh cURL. Selalu rujuk ke halaman Pengantar Model yang sesuai.

Skenario 2: Panggil model bahasa besar
Layanan Model Bahasa Besar (LLM) biasanya menyediakan endpoint API yang kompatibel dengan OpenAI, seperti endpoint chat completions (/v1/chat/completions) dan endpoint completions (/v1/completions).
Sebagai contoh, untuk memanggil endpoint chat completions dari layanan model DeepSeek-R1-Distill-Qwen-7B yang diterapkan dengan vLLM, Anda memerlukan komponen-komponen berikut. Untuk informasi lebih lanjut, lihat Panggil LLM:
Metode: POST
URI: <EAS_ENDPOINT>/v1/chat/completions
Header Permintaan:
Authorization: <EAS_TOKEN>danContent-Type: application/jsonRequest Body:
{ "model": "DeepSeek-R1-Distill-Qwen-7B", "messages": [ { "role": "system", "content": "Anda adalah asisten yang membantu." }, { "role": "user", "content": "halo!" } ] }
Contoh: Panggil dengan cURL dan Python
Asumsikan bahwa <EAS_ENDPOINT> adalah http://16********.cn-hangzhou.pai-eas.aliyuncs.com/api/predict/test.
curl http://16********.cn-hangzhou.pai-eas.aliyuncs.com/api/predict/test/v1/chat/completions
-H "Content-Type: application/json" \
-H "Authorization: *********5ZTM1ZDczg5OT**********" \
-X POST \
-d '{
"model": "DeepSeek-R1-Distill-Qwen-7B",
"messages": [
{
"role": "system",
"content": "Anda adalah asisten yang membantu."
},
{
"role": "user",
"content": "halo!"
}
]
}' import requests
# Ganti dengan endpoint aktual.
url = 'http://16********.cn-hangzhou.pai-eas.aliyuncs.com/api/predict/test/v1/chat/completions'
# Nilai Authorization di header adalah token aktual.
headers = {
"Content-Type": "application/json",
"Authorization": "*********5ZTM1ZDczg5OT**********",
}
# Bangun permintaan layanan berdasarkan format data yang diperlukan oleh model tertentu.
data = {
"model": "DeepSeek-R1-Distill-Qwen-7B",
"messages": [
{
"role": "system",
"content": "Anda adalah asisten yang membantu."
},
{
"role": "user",
"content": "halo!"
}
]
}
# Kirim permintaan.
resp = requests.post(url, json=data, headers=headers)
print(resp)
print(resp.content)Lebih banyak skenario
Untuk layanan yang diterapkan dengan Processor universal (termasuk TensorFlow, Caffe, dan PMML): Lihat Bangun permintaan layanan berdasarkan processor universal.
Model yang Anda latih sendiri: Metode pemanggilannya sama dengan model aslinya.
Layanan kustom lainnya: Format input data yang Anda tentukan dalam gambar kustom atau kode menentukan format permintaan.
FAQ
Untuk informasi lebih lanjut, lihat FAQ pemanggilan layanan.