定价概述 | 开通百炼不会产生费用,调用大模型实现文本生成任务时,会产生模型推理(调用)费用。 查看账单:请访问明细账单和成本分析页面。 查看模型调用统计:请访问模型观测(新加坡或北京)页面。 |
计费项 | 模型推理(调用)计费方式 | 按模型调用量 | 计费公式 | 费用 = 调用消耗量 × 单价 | 计费说明 | 免费额度:仅新加坡地域提供免费额度。在免费额度内,实时调用不收费。查看剩余额度数据按小时更新,高峰期可能有小时级延迟。 计费单价:查看价格 |
|
模型推理(调用)计费 | 计费概述&免费额度模型调用价格请参考模型列表。详细的 RPM、TPM 等性能信息请参考限流。
说明 仅新加坡地域提供免费额度,如何获取免费额度以及如何查看剩余免费额度请参考新人免费额度。 在模型观测(新加坡或北京)页面查看具体模型的调用次数和消耗Token数。 预付费(节省计划)您可以购买节省计划(预付费),用于抵扣模型推理超出免费额度后产生的推理费用。节省计划用完后,系统会开始使用账户余额扣费,您也可以购买多个节省计划进行抵扣。 大语言模型购买方式 | 单击此处购买大语言模型推理节省计划。 | 档位 | 阿里云百炼提供以下的购买档位:$10、$50、$100、$500、$1000、$5000、$50000。 | 有效期 | | 适用模型 | 新加坡地域和北京地域的所有文本生成模型(包括:通义千问商业版、通义千问开源版、DeepSeek、Kimi)。请前往模型列表查看这些模型及其调用价格。 | 使用说明 | 使用百炼时,将优先消耗节省计划的额度。如果购买了多个节省计划,抵扣时将按节省计划到期时间的先后顺序抵扣。如果到期时间相同,先购买的节省计划将优先抵扣。 | 查询节省计划账单 | 请参见如何查询节省计划账单。 |
通义万相模型购买方式 | 单击此处购买通义万相模型节省计划。 | 购买说明 | 阿里云百炼提供五个购买档位,分别为: $10:无折扣 $50:无折扣 $100:无折扣 $500:享9.8折优惠 $1,000:享9.5折优惠 $5,000:享9折优惠
优惠示例:以 $500 档位为例,假设生成某个视频消费 $1,实际将从节省计划中抵扣$1*0.98=$0.98。 | 有效期 | 对于$10、$50、$100 三档,有效期三个月。 对于$500、$1,000和$5,000 三档,有效期六个月。
| 使用说明 | 使用百炼时,将优先消耗节省计划的额度。如果购买了多个节省计划,抵扣时将按节省计划到期时间的先后顺序抵扣。 | 查询节省计划账单 | 请参见如何查询节省计划账单。 | 适用模型 | 图像生成:wan2.5-t2i-preview、wan2.5-i2i-preview、wan2.2-t2i-plus、wan2.2-t2i-flash、wanx2.1-imageedit、wan2.1-t2i-plus、wan2.1-t2i-turbo、wanx2.0-t2i-turbo 视频生成:wan2.5-t2v-preview、wan2.5-i2v-preview、wan2.2-i2v-flash、wan2.2-i2v-plus、wan2.2-t2v-plus、wan2.1-vace-plus、wan2.1-kf2v-plus、wan2.1-i2v-plus、wan2.1-i2v-turbo、wan2.1-t2v-plus、wan2.1-t2v-turbo 请前往模型列表查看所有模型及其调用价格。 |
Batch 调用减免(仅新加坡地域支持Batch调用)对于无需实时响应的推理场景,批量推理(Batch API)能异步处理大批量的数据请求,成本仅为实时推理的 50%,且接口兼容OpenAI,适合执行模型评测、数据标注等批量作业。 |
常见问题 | 通用如何续费?2024年3月15日之后,大模型服务平台百炼商业化升级后统一将预付费服务改成后付费服务,因此用户无需手动续费,直接使用后付费计费逻辑即可。 如何关闭计费?您可以设置月度消费预警,将预警阈值设置为一个较低值,阿里云将在产生意外扣费时通知您,避免您产生更多损失。 如何查看调用次数和消耗Token数(文本消耗量等)?您可以在模型观测(新加坡或北京)页面查看某个业务空间下,某个具体模型的调用次数和消耗Token数。(暂不支持基于 API Key 粒度) 如何计算 Token 数?Token是模型用来表示自然语言文本的基本单位,可以直观地理解为“字”或“词”。 对于中文文本,1个Token通常对应一个汉字或词语。例如,“你好,我是通义千问”会被转换成['你好', ',', '我是', '通', '义', '千', '问']。 对于英文文本,1个Token通常对应3至4个字母或1个单词。例如,"Nice to meet you."会被转换成['Nice', ' to', ' meet', ' you', '.']。
不同的大模型切分Token的方法可能不同。您可以使用SDK在本地查看经过通义千问模型切分后的Token数据。 查看经过通义千问模型切分后的Token数据: # 请确保已经安装了DashScope Python SDK
from dashscope import get_tokenizer
# 获取tokenizer对象,目前只支持通义千问系列模型
tokenizer = get_tokenizer('qwen-turbo')
input_str = '通义千问具有强大的能力。'
# 将字符串切分成token并转换为token id
tokens = tokenizer.encode(input_str)
print(f"经过切分后的token id为:{tokens}。")
print(f"经过切分后共有{len(tokens)}个token")
# 将token id转化为字符串并打印出来
for i in range(len(tokens)):
print(f"token id为{tokens[i]}对应的字符串为:{tokenizer.decode(tokens[i])}")
// Copyright (c) Alibaba, Inc. and its affiliates.
// dashscope SDK版本 >= 2.13.0
import java.util.List;
import com.alibaba.dashscope.exception.NoSpecialTokenExists;
import com.alibaba.dashscope.exception.UnSupportedSpecialTokenMode;
import com.alibaba.dashscope.tokenizers.Tokenizer;
import com.alibaba.dashscope.tokenizers.TokenizerFactory;
public class Main {
public static void testEncodeOrdinary(){
Tokenizer tokenizer = TokenizerFactory.qwen();
String prompt ="如果现在要你走十万八千里路,需要多长的时间才能到达? ";
// encode string with no special tokens
List<Integer> ids = tokenizer.encodeOrdinary(prompt);
System.out.println(ids);
String decodedString = tokenizer.decode(ids);
assert decodedString == prompt;
}
public static void testEncode() throws NoSpecialTokenExists, UnSupportedSpecialTokenMode{
Tokenizer tokenizer = TokenizerFactory.qwen();
String prompt = "<|im_start|>system\nYour are a helpful assistant.<|im_end|>\n<|im_start|>user\nSanFrancisco is a<|im_end|>\n<|im_start|>assistant\n";
// encode string with special tokens <|im_start|> and <|im_end|>
List<Integer> ids = tokenizer.encode(prompt, "all");
// 24 tokens [151644, 8948, 198, 7771, 525, 264, 10950, 17847, 13, 151645, 198, 151644, 872, 198, 23729, 80328, 9464, 374, 264, 151645, 198, 151644, 77091, 198]
String decodedString = tokenizer.decode(ids);
System.out.println(ids);
assert decodedString == prompt;
}
public static void main(String[] args) {
try {
testEncodeOrdinary();
testEncode();
} catch (NoSpecialTokenExists | UnSupportedSpecialTokenMode e) {
e.printStackTrace();
}
}
}
本地运行的tokenizer可以用来估计文本的Token量,但是得到的结果不保证与模型服务端完全一致,仅供参考。如果您对通义千问的tokenizer细节感兴趣,请参考: tokenizer参考。 计费规则调用模型后免费额度为什么没有减少?(仅新加坡地域提供免费额度)免费额度数据按小时更新,高峰期可能有小时级延迟。因此,您需要在模型调用完一小时后再查看剩余额度。 超出免费额度的Token如何计费?(仅新加坡地域提供免费额度)按实际消耗的Token数计费。由于单价(输入成本或输出成本)为每百万Token的价格,因此计算公式为: 费用=实际消耗的Token数/1,000,000 × 单价。 例如,qwen-vl-max的输入成本为 $0.8/每百万Token,剩余免费额度为5万Token。在某次调用时,输入Token为50400,则超出免费额度的Token费用为 400/1,000,000 x $0.8。 多轮对话怎么计费?在多轮对话中,历史对话的输入输出都会作为新一轮的模型输入 token 进行计费。 大模型应用会收费吗?只创建应用不会收费。但如果调用应用进行了问答,则会根据调用的模型类型收取模型调用费用。 为什么大语言模型推理节省计划没有进行抵扣?如果免费额度没有使用完的话是不会出账产生费用,未出账的情况下也是不需要节省计划抵扣的,免费额度使用完了产生账单扣费后会通过节省计划抵扣。 欠费欠费有什么影响?如果账户欠费,即使有免费额度(仅新加坡地域)、资源包等,也无法进行模型调用。您可以前往充值汇款页面进行充值。 百炼API调用报错:如何快速处理服务未开通或账户欠费问题?1. 服务未开通 使用阿里云主账号前往百炼控制台(新加坡或北京),开通百炼的模型服务。 
2. 账户余额不足 余额核查:登录费用与成本页面,确认余额是否充足。 充值操作:点击充值按钮,输入所需金额并完成支付。
3. 设置消费预警(防止重复报错) 账单进行模型推理、模型调优及模型部署后,为什么在明细账单页面查不到相关账单? 如何查看百炼所有服务的费用支出?在成分分析页面,成本类型选择应付金额,时间粒度选择月,选择时间范围(假设为2024年12月),产品选择大模型服务平台百炼,即可查看所选时间范围内百炼的成本支出。 
如何查看百炼的模型推理服务的费用支出?在成分分析页面,成本类型选择应付金额,时间粒度选择月,选择时间范围(假设为2024年07月~12月),产品明细选择ModelStudio大模型推理,即可查看所选时间范围内模型推理总花费。 
如何查看百炼的具体模型的推理费用支出?以模型 qwen-max 为例。在明细账单页面,选择账期,再选择产品明细为ModelStudio大模型推理,单击搜索。 在实例ID列找到所有与qwen-max相关的实例。将这些实例对应的应付金额相加,即可得出所选账期内调用qwen-max模型进行模型推理所支付的费用。 
如何在明细账单中导出和查看消耗Token数?在账单详情页面费用中心账单明细账单页签中,统计项选择计费项进行导出,可在账单中查看到Token用量。 
如何对大模型相关明细账单进行账单核对?自2024年9月7日以后产生的大模型推理、部署与训练账单,可通过ApiKeyID、业务空间ID、模型名称、输入/输出类型、调用渠道、实例标签进行账单核对。 在明细账单页面,选择账期,再选择产品为大模型服务平台百炼,单击搜索。将搜索结果下载到本地,按照实例ID列的内容进行账单核对。 完整的实例ID,例如text_token;llm-xxx;qwen-max;output_token;app,依次表示计费类型;业务空间ID;模型名称;输入/输出类型;调用渠道。 完整的实例标签,例如key:test value:test,依次表示标签键(key)标签值(value)。当某实例标签数为两个或以上时,标签键值信息将依次排列并以分号划分,例如key:test1 value:test1; key:test2 value:test2。 前往业务空间管理(新加坡或北京)页面,根据业务空间ID 确认对应的业务空间,以完成基于业务空间的账单核对操作。 调用渠道包括app、bmp及assistant-api。app表示通过应用调用模型,bmp表示通过控制台模型体验(新加坡或北京)调用模型。assistant-api表示通过Assistant API调用模型。 
按量后付费账单如何结算?阿里云按量后付费云资源账单结算方式不是实时扣费,而是先从账户可用额度中冻结截止目前已消费但未结清的金额。在次月初,月最终账单完成出账后,才实际扣除上个月的账单费用。 成本控制如何限制模型调用量?希望免费额度用完后不扣费 为避免额外消费,阿里云百炼提供免费额度用完即停功能。 希望限制单位时间内的模型调用量或Token消耗量 为子业务空间设置限流。前往业务空间管理页面,找到目标子业务空间,点击模型权限流控设置,调整各模型的请求数限流和Token限流。 希望对消耗Token数量做告警 为模型开销设置告警规则,详情可参考用量与性能观测。 模型告警仅触发告警通知,不会终止模型调用。
|
| |