全部产品
Search
文档中心

Platform For AI:Memanggil layanan melalui Internet atau jaringan internal melalui gerbang

更新时间:Nov 05, 2025

Elastic Algorithm Service (EAS) menyediakan gerbang bersama dan gerbang khusus yang mendukung pemanggilan layanan melalui internet maupun jaringan internal. Proses pemanggilannya serupa untuk kedua jenis gerbang. Anda dapat memilih jenis gerbang dan endpoint yang paling sesuai dengan kebutuhan Anda.

Pilih gerbang

EAS menawarkan dua jenis gerbang: gerbang bersama dan gerbang khusus. Perbedaan utama antara keduanya dirangkum sebagai berikut:

Perbandingan

Gerbang bersama

Gerbang khusus

Pemanggilan Internet

Didukung secara default.

Didukung, namun harus diaktifkan terlebih dahulu.

Pemanggilan jaringan internal

Didukung secara default.

Didukung, namun harus diaktifkan terlebih dahulu.

Biaya

Tidak dikenakan biaya.

Menghasilkan biaya tambahan.

Kasus Penggunaan

Bandwidth bersama, cocok untuk layanan dengan lalu lintas rendah yang tidak memerlukan kebijakan akses kustom. Direkomendasikan untuk skenario pengujian.

Bandwidth khusus, ideal untuk layanan dengan lalu lintas tinggi yang memerlukan keamanan, stabilitas, dan performa lebih baik. Direkomendasikan untuk lingkungan produksi.

Konfigurasi

Konfigurasi default. Siap digunakan langsung dari kotak.

Buat gerbang terlebih dahulu, lalu pilih saat menerapkan layanan. Untuk informasi lebih lanjut, lihat Gunakan gerbang khusus.

Pilih endpoint

  • Endpoint Internet: Gunakan ini di lingkungan apa pun dengan akses internet. Permintaan diteruskan melalui gerbang bersama EAS ke layanan Anda.

  • Endpoint VPC: Gunakan ini ketika aplikasi klien dan layanan EAS berada di Wilayah yang sama. Anda dapat membuat koneksi antara dua VPC dalam Wilayah yang sama.

Penting

Memanggil layanan melalui VPC lebih cepat dibandingkan melalui internet karena menghilangkan latensi jaringan publik. Selain itu, ini lebih hemat biaya karena lalu lintas intra-VPC biasanya gratis.

Cara memanggil layanan

Untuk memanggil layanan, Anda memerlukan endpoint dan token terlebih dahulu. Kemudian, bangun permintaan berdasarkan spesifikasi model yang telah diterapkan.

1. Dapatkan endpoint dan token

Setelah menerapkan layanan, sistem akan secara otomatis menghasilkan endpoint dan token yang diperlukan.

Penting

Endpoint yang disediakan di Konsol adalah alamat dasar. Anda harus menambahkan Path Permintaan yang benar ke alamat dasar ini untuk membangun URL permintaan lengkap. Kesalahan path merupakan penyebab paling umum dari kesalahan 404 Not Found.

  1. Pada tab Inference Services, klik nama layanan target untuk masuk ke halaman Overview-nya. Di bagian Basic Information, klik View Invocation Information.

  2. Di panel Invocation Information, dapatkan endpoint dan token. Pilih endpoint Internet atau VPC berdasarkan kebutuhan Anda. Contoh-contoh berikut menggunakan <EAS_ENDPOINT> dan <EAS_TOKEN> sebagai placeholder untuk nilai-nilai tersebut.

    image

2. Bangun dan kirim permintaan

Untuk endpoint Internet dan VPC, pembuatan permintaan sama; hanya URL yang berbeda. Permintaan pemanggilan standar biasanya mencakup empat komponen inti:

  • Metode: Metode yang paling umum adalah POST dan GET.

  • URL: Basis <EAS_ENDPOINT> dengan Path Permintaan spesifik ditambahkan.

  • Header Permintaan: Minimal, ini harus mencakup token otentikasi Anda, seperti Authorization: <EAS_TOKEN>.

  • Badan Permintaan: API dari model yang diterapkan menentukan formatnya, seperti JSON.

    Penting

    Saat memanggil layanan melalui gerbang, badan permintaan tidak boleh melebihi 1 MB.

Skenario

Skenario 1: Panggil model yang diterapkan dari Model Gallery

Rujuk langsung ke halaman Model Introduction di Model Gallery. Halaman ini memberikan contoh panggilan API yang paling akurat, biasanya dalam cURL atau Python, termasuk path URL lengkap dan format Badan Permintaan.

Perintah cURL

Sintaks dasar untuk perintah cURL adalah curl [options] [URL]:

  • options adalah parameter opsional. Opsi umum termasuk -X untuk menentukan metode permintaan, -H untuk Header Permintaan, dan -d untuk Badan Permintaan.

  • URL adalah endpoint HTTP yang ingin Anda akses.

image

Kode Python

Contoh kode Python ini menggunakan model Qwen3-Reranker-8B. Perhatikan bahwa URL dan Badan Permintaannya berbeda dari contoh cURL. Selalu rujuk ke halaman Pengantar Model yang sesuai.

image

Skenario 2: Panggil model bahasa besar

Layanan Model Bahasa Besar (LLM) biasanya menyediakan endpoint API yang kompatibel dengan OpenAI, seperti endpoint chat completions (/v1/chat/completions) dan endpoint completions (/v1/completions).

Sebagai contoh, untuk memanggil endpoint chat completions dari layanan model DeepSeek-R1-Distill-Qwen-7B yang diterapkan dengan vLLM, Anda memerlukan komponen-komponen berikut. Untuk informasi lebih lanjut, lihat Panggil LLM:

  • Metode: POST

  • URI: <EAS_ENDPOINT>/v1/chat/completions

  • Header Permintaan: Authorization: <EAS_TOKEN> dan Content-Type: application/json

  • Request Body:

    {
        "model": "DeepSeek-R1-Distill-Qwen-7B",
        "messages": [
        {
            "role": "system",
            "content": "Anda adalah asisten yang membantu."
        },
        {
            "role": "user",
            "content": "halo!"
        }
        ]
    }

Contoh: Panggil dengan cURL dan Python

Asumsikan bahwa <EAS_ENDPOINT> adalah http://16********.cn-hangzhou.pai-eas.aliyuncs.com/api/predict/test.

curl http://16********.cn-hangzhou.pai-eas.aliyuncs.com/api/predict/test/v1/chat/completions
-H "Content-Type: application/json" \
-H "Authorization: *********5ZTM1ZDczg5OT**********" \
-X POST \
-d '{
    "model": "DeepSeek-R1-Distill-Qwen-7B",
    "messages": [
    {
        "role": "system",
        "content": "Anda adalah asisten yang membantu."
    },
    {
        "role": "user",
        "content": "halo!"
    }
    ]
}' 
import requests

# Ganti dengan endpoint aktual.
url = 'http://16********.cn-hangzhou.pai-eas.aliyuncs.com/api/predict/test/v1/chat/completions'
# Nilai Authorization di header adalah token aktual.
headers = {
    "Content-Type": "application/json",
    "Authorization": "*********5ZTM1ZDczg5OT**********",
}
# Bangun permintaan layanan berdasarkan format data yang diperlukan oleh model tertentu.
data = {
    "model": "DeepSeek-R1-Distill-Qwen-7B",
    "messages": [
        {
            "role": "system",
            "content": "Anda adalah asisten yang membantu."
        },
        {
            "role": "user",
            "content": "halo!"
        }
    ]
}
# Kirim permintaan.
resp = requests.post(url, json=data, headers=headers)
print(resp)
print(resp.content)

Lebih banyak skenario

FAQ

Untuk informasi lebih lanjut, lihat FAQ pemanggilan layanan.