All Products
Search
Document Center

Cloud Config:Aktifkan AI Guardrails untuk Serangan Prompt pada Output Alibaba Cloud Model Studio

Last Updated:Nov 22, 2025

Sumber daya dianggap patuh jika AI Guardrails diaktifkan untuk melindungi terhadap serangan prompt pada output Alibaba Cloud Model Studio.

Threat level

Tingkat ancaman default: Tinggi.

Anda dapat menyesuaikan tingkat ancaman sesuai kebutuhan.

Detection logic

Sumber daya dianggap patuh jika AI Guardrails diaktifkan untuk melindungi terhadap serangan prompt pada output Alibaba Cloud Model Studio.

Rule details

Parameter

Description

Rule name

Enable AI Guardrails for prompt attacks on Alibaba Cloud Model Studio outputs

Rule identifier

bailian-response-guard-prompt-attack-enabled

Tag

[]

Automatic remediation

Not supported

Rule trigger

Periode 24 jam

Supported resource types

[ACS::::Account]

Input parameters

None

Remediation guide

None.