全部产品
Search
文档中心

大模型服务平台百炼:千问模型调优

更新时间:Mar 16, 2026

本文档以千问模型的调优操作为例进行说明,通过 API (HTTP)的方式,使用阿里云百炼提供的模型调优(微调)功能。

重要

本文档仅适用于国际版(新加坡地域)。

前提条件

  • 了解模型调优(微调)的基本概念、流程及数据格式要求。

  • 已开通服务并配置了 API-KEY, 请参考获取API Key

模型调优介绍

模型调优作为重要的模型效果优化方式,可以:

  • 提升模型在特定行业/业务表现

  • 降低模型输出延迟

  • 抑制模型幻觉

  • 对齐人类的价值观或偏好

  • 使用调优后的轻量级模型替代规模更大的模型

模型在调优过程中,会学习训练数据中的知识、语气、表达习惯、自我认知等业务/场景特征。也由于已经在训练过程中学习到了大量特定行业/场景的样例,训练后模型 One-Shot 或者 Zero-Shot 的 Prompt 效果会比训练前 Few-Shot 效果更好,这样可以节省大量输入 token,从而降低模型输出延迟。

整体流程

image

支持的模型

文本生成

模型名称

模型代码

SFT全参训练

(sft)

SFT高效训练

(efficient_sft)

千问3-32B

qwen3-32b

支持

支持

千问3-14B

qwen3-14b

支持

支持

千问3-VL-8B-Instruct

qwen3-vl-8b-instruct

支持

支持

千问3-VL-8B-Thinking

qwen3-vl-8b-thinking

支持

支持

训练模式对比

全参训练

高效训练 (LoRA,推荐)

适用场景

• 需要模型学习新能力

• 追求全局效果最优

• 优化模型特定场景下的效果

• 对训练时间和成本敏感的场景

训练时间

较长,收敛速度较慢。

较短,收敛速度快。

模型调优计费说明

计费方式

按训练的数据量计费

计费公式

模型训练费用 = (训练数据 Token 总数 + 混合训练数据 Token 总数)× 循环次数 × 训练单价(最小计费单位:1 token)

训练单价

以下为预置模型的训练单价,自定义模型的训练单价与对应的预置模型单价相同。

千问

模型服务

模型规格

价格

千问3-32B

qwen3-32b

$0.008/千Token

千问3-14B

qwen3-14b

$0.0016/千Token

千问 VL

模型服务

模型规格

价格

千问3-VL-8B-Instruct

qwen3-vl-8b-instruct

$0.002/千Token

千问3-VL-8B-Thinking

qwen3-vl-8b-thinking

$0.002/千Token

数据集构建技巧

数据集的规模要求

对于 SFT 来说,数据集最少需要上千条优质调优数据。如果数据调优后的模型评测结果不佳,最简单的改进方法是收集更多数据进行训练。

如果您缺乏数据,建议构建智能体应用,使用知识库索引来增强模型能力。当然在很多复杂的业务场景,可以综合采用模型调优和知识库检索结合的技术方案。

以客服场景为例,可以借助模型调优解决客服回答的语气、表达习惯、自我认知等问题,场景涉及的专业知识可以结合知识库,动态引入到模型上下文中。

阿里云百炼推荐您可以先构建 RAG 应用试运行,在收集到足够的应用数据后再通过模型调优继续提升模型表现。

您也可以采用以下策略扩充数据集:

  1. 让大模型模拟生成特定业务/场景的相关内容,辅助您生成更多用于调优数据。(生成模型建议选取表现优异、规模更大的模型)

  2. 通过应用场景收集、网络爬虫、社交媒体和在线论坛、公开数据集、合作伙伴与行业资源、用户贡献等各种方式,人工获取更多数据。

数据的多样性与均衡性

模型调优有不同场景,针对具体业务场景时,专业性更重要;而针对问答场景时通用性更重要。您需要根据模型负责的业务模块或使用场景进行数据用例设计。因此训练效果好坏并不是仅取决于数据量,更需要考虑针对场景的专业性和多样性。

这里以智能 AI 对话场景为例,介绍一个专业、多样的数据集应该包含的各种业务场景:

具体业务

多样化场景/业务

电商客服

活动推送、售前咨询、售中引导、售后服务、售后回访、投诉处理等。

金融服务

贷款咨询、投资理财顾问、信用卡服务、银行账户管理等。

在线医疗

病症咨询、挂号预约、就诊须知、药品信息查询、健康小建议等。

AI 秘书

IT 信息、行政信息、HR 信息、员工福利解答、公司日历查询等。

旅游出行助手

旅行规划、出入境指南、旅行保险咨询、目的地风土人情介绍等。

企业法律顾问

合同审核、知识产权保护、合规性检查、劳动法律答疑、跨境交易咨询、个案法律分析等。

还请特别注意的是各个场景/业务的数据数量应相对均衡,数据比例符合实际场景比例,避免某一类数据过多导致模型偏向于学习该类特征,影响模型的泛化能力。

上传训练数据集

准备数据集

SFT 训练集

SFT ChatML(Chat Markup Language)格式训练数据,支持多轮对话和多种角色设置。

不支持OpenAI 的nameweight参数,所有的 assistant 输出都会被训练。
# 一行训练数据(json 格式),展开后典型结构如下:
{"messages": [
  {"role": "system", "content": "系统输入1"}, 
  {"role": "user", "content": "用户输入1"}, 
  {"role": "assistant", "content": "期望的模型输出1"}, 
  {"role": "user", "content": "用户输入2"}, 
  {"role": "assistant", "content": "期望的模型输出2"}
  ...
]}

system/user/assistant 区别请参见文本生成模型概述,训练数据集样例:SFT-ChatML格式示例.jsonlSFT-ChatML格式示例.xlsx(xls、xlsx 格式只支持单轮对话)。

单条训练数据的所有 assistant 行都支持"loss_weight"参数,用于设置该行在训练时的相对重要性。(设置范围0.0 ~ 1.0,数值越大,重要性越高)

该参数属于邀测参数,如需使用,请联系您的商务经理。
 {"role": "assistant", "content": "期望的模型输出1", "loss_weight": 1.0}, 
 {"role": "assistant", "content": "期望的模型输出2", "loss_weight": 0.5}

SFT 思考模型(thinking)

训练数据支持多轮对话和多种角色设置,但只能针对最后的 assistant 输出进行训练:

思考标签前后的若干个\n必须要保留。
# 一行训练数据(json 格式),展开后典型结构如下:
{"messages": [
  {"role": "system", "content": "系统输入1"}, 
  {"role": "user", "content": "用户输入1"}, 
  {"role": "assistant", "content": "模型输出1"}, --中间的 assitant 输出不应添加 <think> 标签
   ...
  {"role": "user", "content": "用户输入2"}, 
  {"role": "assistant", "content": "<think>\n期望的思考内容2\n</think>\n\n期望的输出2"} --思考内容只能包含在最后一个 assistant 输出中。 
]}

system/user/assistant 区别请参见文本生成模型概述,训练数据集样例:SFT- 深度思考内容示例.jsonl

也可以在训练样本中设置模型不输出<think>标签, 如果使用这种输出方式,模型训练完成后不建议再开启思考模式进行调用

{"role": "assistant", "content": "期望的模型输出2"}  --告诉模型不开启思考

单条训练数据最后的 assistant 行支持"loss_weight"参数,用于设置该条数据在训练时的相对重要性。(设置范围0.0 ~ 1.0,数值越大,重要性越高)

该参数属于邀测参数,如需使用,请联系您的商务经理。
 {"role": "assistant", "content": "<think>\n期望的思考内容2\n</think>\n\n期望的输出2", "loss_weight": 1.0}

SFT 图像理解(千问VL)

不支持OpenAI 的nameweight参数,所有的 assistant 输出都会被训练。

system/user/assistant 区别请参见文本生成模型概述。ChatML 格式训练数据样例:

# 一行训练数据(json 格式),展开后典型结构如下:
{"messages":[
  {"role":"user",
    "content":[
      {"text":"用户输入1"},
      {"image":"图像文件名1"}]},
  {"role":"assistant",
    "content":[
      {"text":"模型期望输出1"}]},
  {"role":"user",
    "content":[
      {"text":"用户输入2"}]},
  {"role":"assistant",
    "content":[
      {"text":"模型期望输出2"}]},
  ...
  ...
  ...
 ]}
说明

如果训练思考模型(Thinking),也需要遵循SFT 思考模型(thinking)的数据格式要求。

压缩包要求:

  1. 压缩包格式:ZIP。最大支持 2 GB, ZIP 包内文件夹、文件名仅支持 ASCII 字符集中的字母 (a-z, A-Z)、数字 (0-9)、下划线 (_)、连字符 (-)。

  2. 训练文本数据固定为 data.jsonl,并且位于压缩包的根目录下,应确保压缩后打开 zip 文件,直接就能看到 data.jsonl 文件。

  3. 图片单张尺寸的宽度和高度均不得超过 1024px,最大不超过10MB,支持 .bmp.jpeg /.jpg.png.tif /.tiff.webp 格式。

  4. 图片文件的名称不能重复,即使分布在不同的文件夹中。

  5. 压缩包目录结构:

    单层目录(推荐)

    图片文件与 data.jsonl 文件均位于压缩包根目录下。

    Trainingdata_vl.zip
       |--- data.jsonl #注意:外层不能再包裹文件夹
       |--- image1.png
       |--- image2.jpg

    多层目录

    1. data.jsonl 必须在压缩包根目录下。

    2. data.jsonl 内只需要声明图像文件名,不需要声明文件路径。例如:

      正确示例image1.jpg错误示例jpg_folder/image1.jpg

    3. 图像文件名应在压缩包内全局唯一。

    Trainingdata_vl.zip
        |--- data.jsonl #注意:外层不能再包裹文件夹
        |--- jpg_folder
        |   └── image1.jpg
        |--- png_folder
            └── image2.png

将调优文件上传至阿里云百炼

HTTP

Windows CMD 请将${DASHSCOPE_API_KEY}替换为 %DASHSCOPE_API_KEY%,PowerShell 请替换为 $env:DASHSCOPE_API_KEY
curl -X POST https://dashscope-intl.aliyuncs.com/compatible-mode/v1/files \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
--form 'file=@"path/to/your/sample.jsonl"' \
--form 'purpose="fine-tune"'
说明

使用限制:

  • 单个文件大小最大为 1GB

  • 所有有效文件(未删除)总使用空间配额为5GB

  • 所有有效文件(未删除)总数量配额为100个

  • 文件存储没有时间限制

更多 API 使用详细信息请参见 OpenAI兼容-File

返回结果:

{
    "id": "file-ft-e73cafa11cef43a0ab75fb8e",
    "object": "file",
    "bytes": 23149,
    "filename": "qwen-fine-tune-sample.jsonl",
    "purpose": "fine-tune",
    "status": "processed",
    "created_at": 1769138847
}

模型调优

创建调优任务

HTTP

Windows CMD 请将${DASHSCOPE_API_KEY}替换为 %DASHSCOPE_API_KEY%,PowerShell 请替换为 $env:DASHSCOPE_API_KEY
curl --location "https://dashscope-intl.aliyuncs.com/api/v1/fine-tunes" \
--header "Authorization: Bearer ${DASHSCOPE_API_KEY}" \
--header 'Content-Type: application/json' \
--data '{
    "model":"qwen3-14b",
    "training_file_ids":[
        "<替换为训练数据集的file_id1>",
        "<替换为训练数据集的file_id2>"
    ],
    "hyper_parameters":
    {
        "n_epochs": 1,
        "batch_size": 16,
        "learning_rate": "1.6e-5",
        "split": 0.9,
        "warmup_ratio": 0.0,
        "eval_steps": 1,
        "save_strategy": "epoch",
        "save_total_limit": 10
    },
    "training_type":"sft"
}'

输入参数

字段

必选

类型

传参方式

描述

training_file_ids

Array

Body

训练集文件列表。

validation_file_ids

Array

Body

验证集文件列表。

model

String

Body

用于调优的基础模型 ID,或其他调优任务产出的模型 ID。

hyper_parameters

Map

Body

用于调优模型的超参数,缺失该参数时系统会使用默认值进行调优。

training_type

String

Body

调优方法,可选值为:

sft

efficient_sft

job_name

String

Body

调优任务名称

model_name

String

Body

调优产生的模型名称(并非模型 ID,模型 ID 由系统统一生成)

返回样例

{
    "request_id": "635f7047-003e-4be3-b1db-6f98e239f57b",
    "output":
    {
        "job_id": "ft-202511272033-8ae7",
        "job_name": "ft-202511272033-8ae7",
        "status": "PENDING",
        "finetuned_output": "qwen3-14b-ft-202511272033-8ae7",
        "model": "qwen3-14b",
        "base_model": "qwen3-14b",
        "training_file_ids":
        [
            "9e9ffdfa-c3bf-436e-9613-6f053c66aa6e"
        ],
        "validation_file_ids":
        [],
        "hyper_parameters":
        {
            "n_epochs": 1,
            "batch_size": 16,
            "learning_rate": "1.6e-5",
            "split": 0.9,
            "warmup_ratio": 0.0,
            "eval_steps": 1,
            "save_strategy": "epoch",
            "save_total_limit": 10
        },
        "training_type": "sft",
        "create_time": "2025-11-27 20:33:15",
        "workspace_id": "llm-8v53etv3hwb8orx1",
        "user_identity": "1654290265984853",
        "modifier": "1654290265984853",
        "creator": "1654290265984853",
        "group": "llm",
        "max_output_cnt": 10
    }
}

hyper_parameters支持的设置

参数名称

默认设置

推荐设置

类型

超参作用

n_epochs

(循环次数)

1

结合调优效果调整

Integer

模型遍历训练的次数,请根据模型调优实际使用经验进行调整。

模型训练循环次数越多,训练时间越长,训练费用越高。

learning_rate

(学习率)

  • sft: 1e-5 量级

  • efficient_sft:1e-4 量级

具体数值随模型选择变化。

使用百炼推荐的默认值

Float

控制模型修正权重的强度。

  • 学习率设置得太高,模型参数会剧烈变化,导致调优后的模型表现不一定更好,甚至变差;

  • 学习率太低,调优后的模型表现不会有太大变化。

freeze_vit

(是否冻结视觉主干网络)

true

根据需求调整

Boolean

用于冻结视觉主干网络的参数,使其在训练过程中不更新权重。仅适用于 千问-VL(视觉理解)模型。

batch_size

(批次大小)

具体数值随模型选择变化。模型越大,默认 batch_size 越小。

使用百炼推荐的默认值

Integer

一次性送入模型进行训练的数据条数,参数过小会显著延长训练时间,推荐使用默认值。

eval_steps

(验证步数)

50

根据需求调整

Integer

训练阶段针对模型的验证间隔步长,用于阶段性评估模型训练准确率、训练损失。

该参数影响模型调优进行时的 Validation Loss 和 Validation Token Accuracy 的显示频率。

logging_steps

(日志显示步数)

5

根据需求调整

Integer

调优日志打印的步数。

lr_scheduler_type

(学习率调整策略)

cosine

推荐linear/Inverse_sqrt

String

在模型训练中动态调整学习率的策略。

支持设置为:

max_length

(序列长度)

2048

8192

Integer

指的是单条训练数据 token 支持的最大长度。如果单条数据 token 长度超过设定值,调优会直接丢弃该条数据,不进行训练。

max_split_val_dataset_sample

(验证集数据最大数量)

1000

使用百炼推荐的默认值

Integer

当不设置"validation_file_ids"时,阿里云百炼自动分割的验证集最多只有1000条。

当设置了"validation_file_ids"时,该参数无效。

split

(训练集在训练文件中占比)

0.8

使用百炼推荐的默认值

Float

当不设置"validation_file_ids"时,阿里云百炼会自动把训练文件中的80%作为训练集,20%作为验证集。

当设置了"validation_file_ids"时,该参数无效。

warmup_ratio

(学习率预热比例)

0.05

使用百炼推荐的默认值

Float

学习率预热占用总的训练过程的比例。学习率预热是指学习率在训练开始后由一个较小值线性递增至学习率设定值。

该参数主要是限制模型参数在训练初始阶段的变化幅度,从而帮助模型更稳定地进行训练。

比例过大效果与过低的学习率相同,会导致调优后的模型表现不会有太大变化。

比例过小效果与过高的学习率相同,可能导致调优后的模型表现不一定更好,甚至变差。

该参数仅对学习率调整策略“Constant”无效。

weight_decay

(权重衰减)

0.1

使用百炼推荐的默认值

Float

L2正则化强度。L2正则化能在一定程度上保持模型的通用能力。数值过大会导致模型调优效果不明显。

高效微调(支持efficient_sft)参数

说明

当对一个已经高效微调后的模型进行二次高效微调时,lora_ranklora_alphalora_dropout三个参数必须保持一致。

lora_rank

(LoRA秩值)

8

64

Integer

LoRA训练中的低秩矩阵的秩大小。秩越大调优效果越好,但训练会略慢。

lora_alpha

(LoRA阿尔法)

32

使用百炼推荐的默认值

Integer

用于控制原模型权重与LoRA的低秩修正项之间的结合缩放系数。

较大的Alpha值会给予LoRA修正项更多权重,使得模型更加依赖于微调任务的特定信息;

而较小的Alpha值则会让模型更倾向于保留原始预训练模型的知识。

lora_dropout

(LoRA丢弃率)

0.1

使用百炼推荐的默认值

Float

LoRA训练中的低秩矩阵值的丢弃率。

使用推荐数值能增强模型通用化能力。

数值过大会导致模型微调效果不明显。

模型参数快照发布参数

save_strategy

(快照存储策略)

epoch

可以设置为 epochsteps

  • 设置为steps时,可以通过设置save_steps参数,调整保存间隔。

String

设置调优过程中,保存模型参数快照(Checkpoint)的保存间隔和保存数量上限。

save_steps

(存储步数)

50

如果需要手动修改,建议设置为eval_steps参数的整数倍。

Integer

设置每训练多少步保存一次模型参数快照(Checkpoint)。

save_total_limit

(快照存储数量上限)

1

10

Integer

限制最多保存多少个模型参数快照(Checkpoint)用于导出。

查询调优任务详情

使用创建任务时返回的job_id来查询任务状态。

HTTP

curl 'https://dashscope-intl.aliyuncs.com/api/v1/fine-tunes/<job_id>' \
--header 'Authorization: Bearer '${DASHSCOPE_API_KEY} \
--header 'Content-Type: application/json'

输入参数

字段

类型

传参方式

必选

描述

job_id

String

Path Parameter

要查询的调优任务的ID。

返回成功样例

{
    "request_id": "d100cddb-ac85-4c82-bd5c-9b5421c5e94d",
    "output":
    {
        "job_id": "ft-202511272033-8ae7",
        "job_name": "ft-202511272033-8ae7",
        "status": "RUNNING",
        "finetuned_output": "qwen3-14b-ft-202511272033-8ae7",
        "model": "qwen3-14b",
        "base_model": "qwen3-14b",
        "training_file_ids":
        [
            "9e9ffdfa-c3bf-436e-9613-6f053c66aa6e"
        ],
        "validation_file_ids":
        [],
        "hyper_parameters":
        {
            "n_epochs": 1,
            "batch_size": 16,
            "learning_rate": "1.6e-5",
            "split": 0.9,
            "warmup_ratio": 0.0,
            "eval_steps": 1,
            "save_strategy": "epoch",
            "save_total_limit": 10
        },
        "training_type": "sft",
        "create_time": "2025-11-27 20:33:15",
        "workspace_id": "llm-8v53etv3hwb8orx1",
        "user_identity": "1654290265984853",
        "modifier": "1654290265984853",
        "creator": "1654290265984853",
        "group": "llm",
        "max_output_cnt": 10
    }
}

任务状态

含义

PENDING

训练待开始。

QUEUING

训练正在排队(同时只有一个训练任务可以进行)

RUNNING

训练正在进行中。

CANCELING

训练正在取消中。

SUCCEEDED

训练成功。

FAILED

训练失败。

CANCELED

训练已经取消。

说明

训练成功后,finetuned_output指的是调优成功后的模型 ID,可用于模型部署。

获取调优任务日志

HTTP

curl 'https://dashscope-intl.aliyuncs.com/api/v1/fine-tunes/<job_id>/logs?offset=0&line=1000' \
--header 'Authorization: Bearer '${DASHSCOPE_API_KEY} \
--header 'Content-Type: application/json' 
可通过 offset 和 line 两个参数获取特定行数区间的日志。 Offset 用于设置日志输出开始的位置;line 用于设置日志最多输出多少行。

返回结果样例:

{
    "request_id":"1100d073-4673-47df-aed8-c35b3108e968",
    "output":{
        "total":57,
        "logs":[
            "{输出调优日志1}",
            "{输出调优日志2}",
            ...
            ...
            ...
        ]
    }
}

查询与发布模型参数快照

仅 SFT微调训练(efficient_sftsft)支持保存和发布其中间状态的模型参数快照(Checkpoint)。

查询调优任务的参数快照列表

curl 'https://dashscope-intl.aliyuncs.com/api/v1/fine-tunes/<job_id>/checkpoints' \
--header 'Authorization: Bearer '${DASHSCOPE_API_KEY} \
--header 'Content-Type: application/json'

输入参数

字段

类型

传参方式

必选

描述

job_id

String

Path Parameter

要查询的调优任务的ID。

返回成功样例

{
    "request_id": "c11939b5-efa6-4639-97ae-ed4597984647",
    "output":
    [
        {
            "create_time": "2025-11-11T16:25:42",
            "full_name": "ft-202511272033-8ae7-checkpoint-20",
            "job_id": "ft-202511272033-8ae7",
            "checkpoint": "checkpoint-20",
            "model_name": "qwen3-14b-instruct-ft-202511272033-8ae7",
            "status": "SUCCEEDED"
        }
    ]
}

快照发布状态 (status)

含义

PENDING

快照(Checkpoint)待导出。

PROCESSING

快照(Checkpoint)导出中。

SUCCEEDED

快照(Checkpoint)导出成功。

FAILED

快照(Checkpoint)导出失败。

说明

checkpoint指的是 Checkpoint ID,用于在模型发布 API 中指定要导出的快照;model_name指的是模型 ID,可用于模型部署。(finetuned_output 输出的是最后一个 checkpoint 的 model_name

模型发布

说明

在百炼平台上,模型调优完成后可以导出参数快照,导出后才能基于此版本的参数快照在百炼上进行模型部署。

导出的参数快照保存在云存储中,暂不支持访问或下载。

curl --request GET 'https://dashscope-intl.aliyuncs.com/api/v1/fine-tunes/<job_id>/export/<checkpoint_id>?model_name=<model_name>' \
--header 'Authorization: Bearer '${DASHSCOPE_API_KEY} \
--header 'Content-Type: application/json'

输入参数

字段

类型

传参方式

必选

描述

job_id

String

Path Parameter

要查询的调优任务的 ID。

checkpoint_id

String

Path Parameter

要导出的 Checkpoint ID。

model_name

String

Path Parameter

导出后期望的模型 ID。

导出任务成功返回样例

{
    "request_id": "ed3faa41-6be3-4271-9b83-941b23680537",
    "output": true
}

由于导出任务是异步执行的,请使用查询快照列表 API 观察快照导出状态。

模型调优的更多操作

列举调优任务列表

curl 'https://dashscope-intl.aliyuncs.com/api/v1/fine-tunes' \
--header 'Authorization: Bearer '${DASHSCOPE_API_KEY} \
--header 'Content-Type: application/json' 

中止调优任务

智能终止正在训练中的调优任务
curl --request POST 'https://dashscope-intl.aliyuncs.com/api/v1/fine-tunes/<job_id>/cancel' \
--header 'Authorization: Bearer '${DASHSCOPE_API_KEY} \
--header 'Content-Type: application/json' 

删除调优任务

无法删除正在训练中的调优任务
curl --request DELETE 'https://dashscope-intl.aliyuncs.com/api/v1/fine-tunes/<job_id>' \
--header 'Authorization: Bearer '${DASHSCOPE_API_KEY} \
--header 'Content-Type: application/json' 

模型部署

说明

调优后模型仅支持模型单元部署方式。

请前往模型部署控制台(新加坡)进行模型部署,计费等更多详情请参考按使用时长计费(模型单元)

模型调用

模型部署成功后,支持通过 OpenAI 兼容DashscopeAssistant SDK进行调用。

在调用已部署成功的模型时,model的取值应为模型部署成功后的模型code。请前往模型部署控制台(新加坡)界面获取模型code

curl 'https://dashscope-intl.aliyuncs.com/api/v1/services/aigc/text-generation/generation' \
--header 'Authorization: Bearer '${DASHSCOPE_API_KEY}  \
--header 'Content-Type: application/json' \
--data '{
    "model": "<替换为部署任务成功后的模型实例 Code>",
    "input":{
        "messages":[
            {
                "role": "user",
                "content": "你是谁?"
            }
        ]
    },
    "parameters": {
        "result_format": "message"
    }
}'

常见问题

可以上传和部署自己的模型吗?

暂不支持上传和部署自有模型,建议您持续关注阿里云百炼最新动态。

此外,阿里云人工智能平台 PAI 提供了部署自有模型的功能,您可以参考PAI-LLM大语言模型部署了解部署方法。