全部产品
Search
文档中心

大模型服务平台百炼:模型上下架与更新

更新时间:Apr 01, 2026

模型上架详见下表,模型下线规则及清单请参考模型下线机制说明

全球

全球部署模式下,接入点与数据存储均位于美国(弗吉尼亚)或德国(法兰克福)地域,模型推理计算资源在全球范围内动态调度。

模型类型

时间

模型规格

功能说明

推理模型

2026-03-04

qwen3.5-flash、qwen3.5-flash-2026-02-23、qwen3.5-122b-a10b、qwen3.5-27b、qwen3.5-35b-a3b

阿里巴巴推出的最新模型千问3.5-Flash和开源模型,支持文本、图像和视频输入,响应速度快,综合表现接近qwen3.5-plus,支持内置工具调用文本生成模型概述

推理模型

2026-03-04

qwen3.5-plus、qwen3.5-plus-2026-02-15、qwen3.5-397b-a17b

阿里巴巴推出的最新模型千问3.5-Plus和开源模型,支持文本、图像和视频输入,在语言理解、逻辑推理、代码生成、智能体任务、图像理解、视频理解、图形用户界面(GUI)等多种任务中表现卓越,支持内置工具调用文本生成模型概述

图像生成与编辑

2026-01-04

wan2.6-image

支持图像编辑和图文混合输出。万相-图像生成与编辑2.6

图生视频-基于首帧

2026-01-04

wan2.6-i2v

新增多镜头叙事能力,支持音频能力,支持自动配音,或传入自定义音频文件。万相-图生视频-基于首帧

参考生视频

2026-01-04

wan2.6-r2v

基于参考视频的角色形象和音色,生成多镜头视频,支持自动配音。万相-参考生视频

文生视频

2026-01-04

wan2.6-t2v

新增多镜头叙事能力,支持音频能力,支持自动配音,或传入自定义音频文件。万相-文生视频

视觉理解

2026-01-04

qwen3-vl-flash、qwen3-vl-flash-2025-10-15

Qwen3系列小尺寸视觉理解模型,实现思考模式和非思考模式的有效融合,相较于开源版Qwen3-VL-30B-A3B,效果更优,响应速度更快。图像与视频理解

视觉理解

2026-01-04

qwen3-vl-8b-thinking、qwen3-vl-8b-instruct

Qwen3-VL系列 8B 的Dense开源模型,提供思考和非思考两个版本。占用显存更低,能够完成多模态理解与推理;支持长视频长文档等超长上下文、视觉2D/3D定位;全面空间感知与万物识别能力。图像与视频理解

视觉理解

2026-01-04

qwen3-vl-32b-thinking、qwen3-vl-32b-instruct

Qwen3-VL系列 32B 的Dense模型,综合表现仅次于Qwen3-VL-235B模型,文档识别和理解、空间感知与万物识别、视觉2D检测/空间推理能力均表现出色,适合通用场景下的复杂感知任务。图像与视频理解

视觉理解

2026-01-04

qwen3-vl-plus、qwen3-vl-plus-2025-09-23、qwen3-vl-235b-a22b-thinking、qwen3-vl-235b-a22b-instruct

Qwen3系列视觉理解模型,实现思考模式和非思考模式的有效融合,视觉智能体能力达到世界顶尖水平。此版本在视觉编码、空间感知、多模态思考等方向全面升级;视觉感知与识别能力大幅提升。图像与视频理解

推理模型

2026-01-04

qwen3-next-80b-a3b-thinking、qwen3-next-80b-a3b-instruct

基于Qwen3的新一代开源模型,thinking模型相较于qwen3-235b-a22b-thinking-2507提升了指令遵循能力,总结回复更加精简,详见深度思考。instruct模型相较于qwen3-235b-a22b-instruct-2507增强了中文理解、逻辑推理及文本生成能力,详见文本生成模型概述

推理模型

2026-01-04

qwen3-max、qwen3-max-2025-09-23

相较qwen3-max-preview版本,在智能体编程与工具调用方向进行了专项升级。本次发布的正式版模型达到领域SOTA水平,适配场景更加复杂的智能体需求。千问Max

推理模型

2026-01-04

qwen3-max-preview

基于Qwen3的Qwen-Max模型(预览版),相较Qwen 2.5系列整体通用能力有大幅度提升,中英文通用文本理解能力、复杂指令遵循能力、主观开放任务能力、多语言能力、工具调用能力均显著增强;模型知识幻觉更少。千问Max

代码模型

2026-01-04

qwen3-coder-flash、qwen3-coder-flash-2025-07-28

千问Coder系列速度最快、成本最低的模型。代码能力(Qwen-Coder)

代码模型

2026-01-04

qwen3-coder-plus、qwen3-coder-plus-2025-07-22、qwen3-coder-30b-a3b-instruct、qwen3-coder-480b-a35b-instruct

基于 Qwen3 的代码生成模型,具有强大的Coding Agent能力,擅长工具调用和环境交互,代码能力卓越的同时兼具通用能力。代码能力(Qwen-Coder)

推理模型

2026-01-04

qwen3-30b-a3b-thinking-2507、qwen3-30b-a3b-instruct-2507

是qwen3-30b-a3b的升级版。thinking模型逻辑能力、通用能力、知识增强及创作能力提升,参见深度思考。instruct模型创作能力与模型安全性提升,参见文本生成模型概述

推理模型

2026-01-04

qwen3-235b-a22b-thinking-2507、qwen3-235b-a22b-instruct-2507

是qwen3-235b-a22b的升级版。thinking模型逻辑能力、通用能力、知识增强及创作能力均有大幅提升,适用于高难度强推理场景,参见深度思考。instruct模型创作能力与模型安全性均有提升,参见文本生成模型概述

推理模型

2026-01-04

qwen3-30b-a3b、qwen3-32b、qwen3-14b、qwen3-8b

Qwen3 模型支持思考模式和非思考模式,您可以通过 enable_thinking 参数实现两种模式的切换。除此之外,Qwen3 模型的能力得到了大幅提升:

  1. 推理能力:在数学、代码和逻辑推理等评测中,显著超过 QwQ 和同尺寸的非推理模型,达到同规模业界顶尖水平。

  2. 人类偏好能力:创意写作、角色扮演、多轮对话、指令遵循能力均大幅提升,通用能力显著超过同尺寸模型。

  3. Agent 能力:在推理、非推理两种模式下都达到业界领先水平,能够精准地调用外部工具。

  4. 多语言能力:支持100多种语言和方言,多语言翻译、指令理解、常识推理能力都明显提升。

  5. 回复格式问题修复:修复了之前版本存在的回复格式的问题,如异常 Markdown、中间截断、错误输出 boxed 等问题。

思考模式请参见深度思考,非思考模式请参见文本生成模型概述

文字提取

2026-01-04

qwen-vl-ocr-2025-11-20

千问文字提取模型,该快照版基于Qwen3-VL架构,大幅提升文档解析、文字定位能力。文字提取

文字提取

2026-01-04

qwen-vl-ocr

qwen-vl-ocr是专用于OCR的模型;在表格、试题等类型图像的文字提取能力大幅提升。详情请参见文字提取

推理模型

2026-01-04

qwen-plus-2025-12-01、qwen-plus-2025-09-11

属于 Qwen3 系列模型,相较于qwen-plus-2025-07-28,在思考模式下提升了指令遵循能力、总结回复更加精简,详见深度思考。在非思考模式下中文理解与逻辑推理能力得到增强,详见文本生成模型概述

推理模型

2026-01-04

qwen-plus-2025-07-28

属于 Qwen3 系列模型,相较于上一版模型,将上下文长度提高到了1,000,000。思考模式请参见深度思考,非思考模式请参见文本生成模型概述

推理模型

2026-01-04

qwen-plus

能力均衡,推理效果、成本和速度介于千问Max和千问Flash之间,适合中等复杂任务。模型列表

多语言翻译

2026-01-04

qwen-mt-lite

千问基础级文本翻译大模型,支持31个语种互译,相较于qwen-mt-flash响应更快,成本更低,适用于对延迟敏感的场景。翻译能力(Qwen-MT)

多语言翻译

2026-01-04

qwen-mt-plus、qwen-mt-flash

Qwen-MT模型是基于千问模型优化的机器翻译大语言模型,擅长中英互译、中文与小语种互译、英文与小语种互译,小语种包括日、韩、法、西、德、葡(巴西)、泰、印尼、越、阿等26种。在多语言互译的基础上,提供术语干预、领域提示、记忆库等能力,提升模型在复杂应用场景下的翻译效果。详情请参见翻译能力(Qwen-MT)

文生文

2026-01-04

qwen-flash、qwen-flash-2025-07-28

千问系列速度最快、成本极低的模型,适合简单任务。千问Flash

国际

国际部署模式下,接入点与数据存储均位于新加坡地域,模型推理计算资源在全球范围内动态调度(不含中国内地)。

模型类型

时间

模型规格

功能说明

全模态

2026-03-30

qwen3.5-omni-plus、qwen3.5-omni-plus-2026-03-15、qwen3.5-omni-flash、qwen3.5-omni-flash-2026-03-15

最新一代全模态大模型,支持长视频分析、会议纪要、字幕输出、安全审核、音视频交互;支持音视频内容的深度理解与生成描述,支持 113 种语言识别和 36 种语言的音频生成,可处理 3 小时音频及1 小时视频输入,支持联网搜索及指令来控制输出音频的音量、语速、情绪。非实时(Qwen-Omni)

全模态

2026-03-30

qwen3.5-omni-plus-realtime、qwen3.5-omni-plus-realtime-2026-03-15、qwen3.5-omni-flash-realtime、qwen3.5-omni-flash-realtime-2026-03-15

千问最新推出的实时多模态模型,相比于上一代的 Qwen3-Omni-Flash-Realtime:模型智力大幅提升,与 Qwen3.5-Plus 智能水平相当。原生支持联网搜索(WebSearch),支持语音打断和控制;支持 113 种语种和方言的语音识别,以及 36 种语种和方言的语音生成。实时(Qwen-Omni-Realtime)

推理模型

2026-03-20

deepseek-v3.2

DeepSeek-V3.2是引入DeepSeek Sparse Attention(一种稀疏注意力机制)的正式版模型,也是DeepSeek推出的首个将思考融入工具使用的模型,同时支持思考模式与非思考模式的工具调用。

DeepSeek

图像生成与编辑

2026-03-03

qwen-image-2.0、qwen-image-2.0-2026-03-03、qwen-image-2.0-pro、qwen-image-2.0-pro-2026-03-03

千问-Image2.0系列,同时支持图像生成和编辑。Pro系列文字渲染、真实质感、语义遵循能力更强。;加速版兼顾效果与响应速度。千问-文生图千问-图像编辑

语音识别

2026-03-03

qwen3-asr-flash-2026-02-10

千问录音文件识别新增快照模型,较 qwen3-asr-flash-2025-09-08 效果更优。录音文件识别-千问

推理模型

2026-02-24

qwen3.5-flash、qwen3.5-flash-2026-02-23、qwen3.5-122b-a10b、qwen3.5-27b、qwen3.5-35b-a3b

阿里巴巴推出的最新模型千问3.5-Flash和开源模型,支持文本、图像和视频输入,响应速度快,综合表现接近qwen3.5-plus,支持内置工具调用文本生成模型概述

代码模型

2026-02-20

qwen3-coder-next

Qwen3系列新一代开源代码生成模型,支持多轮工具交互,提升了对仓库级别代码的理解能力和对AI编程工具的适配性。代码能力(Qwen-Coder)

推理模型

2026-02-16

qwen3.5-plus、qwen3.5-plus-2026-02-15、qwen3.5-397b-a17b

阿里巴巴推出的最新模型千问3.5-Plus和开源模型,支持文本、图像和视频输入,在语言理解、逻辑推理、代码生成、智能体任务、图像理解、视频理解、图形用户界面(GUI)等多种任务中表现卓越,支持内置工具调用。文本生成模型概述

语音识别

2026-02-13

qwen3-asr-flash-realtime-2026-02-10

千问实时语音识别新增最新快照模型,较 qwen3-asr-flash-realtime-2025-10-27 效果更优。实时语音识别-千问

语音合成

2026-02-10

cosyvoice-v3-plus、cosyvoice-v3-flash

语音合成 CosyVoice 新增 v3 模型,支持使用系统音色和复刻音色进行语音合成。实时语音合成-CosyVoice

语音合成

2026-02-10

qwen3-tts-instruct-flash、qwen3-tts-instruct-flash-2026-01-26

千问语音合成上线Instruct(指令控制)模型,支持通过自然语言指令精准控制合成效果。语音合成-千问

语音合成

2026-02-10

qwen3-tts-vd-2026-01-26

千问语音合成上线声音设计模型,可通过文本描述创建定制化音色语音合成-千问

语音合成

2026-02-10

qwen3-tts-vc-2026-01-22

千问语音合成上线声音复刻模型,可基于真实音频样本快速复刻音色语音合成-千问

语音合成

2026-02-04

qwen3-tts-instruct-flash-realtime、qwen3-tts-instruct-flash-realtime-2026-01-22

千问实时语音合成新增Instruct(指令控制)模型,支持通过自然语言指令精准控制合成效果。实时语音合成-千问

参考生视频

2026-02-02

wan2.6-r2v-flash

基于参考视频和图像的角色形象,生成多镜头视频,支持自动配音。万相-参考生视频

视觉理解

2026-01-28

qwen3-vl-flash-2026-01-22

千问VL的全新快照版模型,有效融合了思考模式与非思考模式,相较于 2025 年 10 月 15 日的快照版本,显著提升了模型的整体性能,在通用视觉识别、安防、巡店、巡检、拍照解题等业务场景中实现了更高准确率的推理。图像与视频理解

语音识别

2026-01-28

qwen3-asr-flash-filetrans、qwen3-asr-flash-filetrans-2025-11-17

千问3-ASR-Flash-Filetrans系列模型现已支持词级别时间戳,通过设置新参数 enable_words,获取毫秒级的词/字对齐信息,并体验更符合语义的精细化断句。录音文件识别-千问

推理模型

2026-01-27

qwen3-max-2026-01-23

相较于 2025 年 9 月 23 日的快照版本,有效融合了思考模式与非思考模式,显著提升了模型的整体性能。在思考模式下,模型集成了 Web 搜索、网页信息提取和代码解释器三项工具,通过在思考过程中引入外部工具,在复杂问题上实现更高的准确率。OpenAI兼容-Responses

图生视频

2026-01-18

wan2.6-i2v-flash

支持生成有声与无声视频,两类视频按各自计费规则独立计费;同时具备多镜头叙事能力与音频处理能力。万相-图生视频-基于首帧

图像编辑

2026-01-18

qwen-image-edit-max、qwen-image-edit-max-2026-01-16

千问图像编辑模型Max系列,具备更稳定、丰富的编辑能力,增强了工业设计与几何推理能力,并提升了角色一致性与编辑的精准度。图像编辑-千问

语音合成

2026-01-16

qwen3-tts-vc-realtime-2026-01-15

千问实时语音合成新增最新快照模型,声音复刻(Qwen)效果进一步优化,较 qwen3-tts-vc-realtime-2025-11-27 更自然、更贴近原声。实时语音合成-千问

文生图

2026-01-12

qwen-image-plus-2026-01-09

千问图像生成的全新快照版模型,为qwen-image-max的蒸馏加速版,支持快速生成高质量图像。千问-文生图

图生视频

2026-01-08

wan2.2-kf2v-flash

基于输入的首帧和尾帧图片,模型能够根据提示词生成一段丝滑流畅的动态视频。首尾帧生视频

语音识别

2026-01-06

qwen3-asr-flash、qwen3-asr-flash-2025-09-08

千问3-ASR-Flash支持OpenAI兼容模式。录音文件识别-千问

文生图

2025-12-31

qwen-image-max、qwen-image-max-2025-12-30

千问图像生成模型Max系列,相较于Plus系列提升了图像的真实感与自然度,有效降低了AI合成痕迹,在人物质感、纹理细节和文字渲染等方面表现突出。千问-文生图

图像编辑

2025-12-23

qwen-image-edit-plus-2025-12-15

千问图像编辑发布的最新快照模型,相较于上一版本提升了角色一致性、工业设计能力和几何推理能力,并优化了编辑后的图片与原图在空间布局、纹理和风格上的匹配度,编辑效果更精准。图像编辑-千问

文生图

2025-12-22

z-image-turbo

轻量级文生图模型,可快速生成高质量图像,支持中英双语渲染、复杂语义理解和多风格题材,并可灵活适配多种分辨率与宽高比。文生图Z-Image

视觉理解

2025-12-19

qwen3-vl-plus-2025-12-19

千问VL的全新快照版模型,指令遵循能力更强,具有更低的延迟。图像与视频理解

语音识别

2025-12-19

qwen3-asr-flash-filetrans、qwen3-asr-flash-filetrans-2025-11-17、qwen3-asr-flash、qwen3-asr-flash-2025-09-08

新增捷克语、丹麦语等共 9 种语言的语音识别支持。录音文件识别-千问

语音识别

2025-12-17

qwen3-asr-flash-realtime、qwen3-asr-flash-realtime-2025-10-27

新增捷克语、丹麦语等共 9 种语言的语音识别支持。实时语音识别-千问

语音识别

2025-12-17

qwen3-asr-flash、qwen3-asr-flash-2025-09-08

支持任意采样率和声道的音频。录音文件识别-千问

语音识别

2025-12-17

fun-asr-mtl、fun-asr-mtl-2025-08-25

支持对中、英、日、韩等共 31 种语言的语音识别,尤其适合东南亚出海场景。录音文件识别-Fun-ASR/Paraformer

声音设计

2025-12-16

qwen-voice-design

千问发布声音设计模型,通过文本描述生成定制化音色。结合qwen3-tts-vd-realtime-2025-12-16模型使用生成语音,覆盖 10 种语言。声音设计(Qwen)

语音合成

2025-12-16

qwen3-tts-vd-realtime-2025-12-16(快照版)

千问实时语音合成发布全新快照版模型,可使用声音设计(Qwen)生成的音色进行低延迟、高稳定性的实时合成;支持多语言输出;能根据文本自动调节语气,并优化复杂文本的合成表现。实时语音合成-千问

文生图

2025-12-16

wan2.6-t2i

新增同步接口。支持在总像素面积与宽高比约束内,自由选尺寸。万相-文生图V2

图像生成与编辑

2025-12-16

wan2.6-image

支持图像编辑和图文混合输出。万相-图像生成与编辑2.6

图生视频-基于首帧

2025-12-16

wan2.6-i2v

新增多镜头叙事能力,支持音频能力,支持自动配音,或传入自定义音频文件。万相-图生视频-基于首帧

参考生视频

2025-12-16

wan2.6-r2v

基于参考视频的角色形象和音色,生成多镜头视频,支持自动配音。万相-参考生视频

文生视频

2025-12-16

wan2.6-t2v

新增多镜头叙事能力,支持音频能力,支持自动配音,或传入自定义音频文件。文生视频

语音识别

2025-12-12

fun-asr、fun-asr-2025-11-07

录音文件识别-Fun-ASR功能更新:

全模态

2025-12-04

qwen3-omni-flash-2025-12-01

千问Omni发布的最新快照模型,支持的音色增加至49种,模型的指令跟随能力大幅升级,能高效理解文本、图像、音频、视频。非实时(Qwen-Omni)

实时多模态

2025-12-04

qwen3-omni-flash-realtime-2025-12-01

千问Omni 实时版发布的最新快照模型,提供了低延迟的多模态交互能力,支持的音色增加至49种,模型的指令跟随能力和交互体验大幅升级。实时(Qwen-Omni-Realtime)

语音翻译

2025-12-04

qwen3-livetranslate-flash、qwen3-livetranslate-flash-2025-12-01

千问3-LiveTranslate-Flash 是音视频翻译模型,支持 18 种语言(包括中文、英文、俄文、法文等)互译,可结合视觉上下文提升翻译准确性,并输出文本与语音。音视频文件翻译-千问

多语言翻译

2025-12-02

qwen-mt-lite

千问基础级文本翻译大模型,支持31个语种互译,相较于qwen-mt-flash响应更快,成本更低,适用于等对延迟敏感的场景。翻译能力(Qwen-MT)

声音复刻

2025-11-27

qwen-voice-enrollment

千问发布声音复刻模型,仅需 5 秒以上音频即可快速生成高相似度声音。结合qwen3-tts-vc-realtime-2025-11-27模型使用,可高保真复刻并实时输出某人的声音,覆盖 11 种语言。声音复刻(Qwen)

语音合成

2025-11-27

qwen3-tts-vc-realtime-2025-11-27(快照版)

千问实时语音合成发布全新快照版模型,可使用声音复刻(Qwen)生成的音色进行低延迟、高稳定性的实时合成;支持多语言输出;能根据文本自动调节语气,并优化复杂文本的合成表现。实时语音合成-千问

语音合成

2025-11-27

qwen3-tts-flash-realtime-2025-11-27(快照版)

千问实时语音合成发布全新快照版模型,低延迟且稳定性高;音色更丰富,同一音色支持多语言输出;能根据文本自动调节语气,并提升复杂文本的合成表现。实时语音合成-千问

语音合成

2025-11-27

qwen3-tts-flash-2025-11-27(快照版)

千问语音合成发布全新快照版模型,音色更丰富;同一音色支持多语言输出;可自适应文本调节语气,并优化复杂文本的合成能力。语音合成-千问

文字提取

2025-11-21

qwen-vl-ocr-2025-11-20(快照版)

千问文字提取模型,该快照版基于Qwen3-VL架构,大幅提升文档解析、文字定位能力。文字提取

语音识别

2025-11-20

qwen3-asr-flash-filetrans、qwen3-asr-flash-filetrans-2025-11-17(快照版)

千问录音文件识别发布了新模型,专为音频文件的异步转写设计,支持最长12小时录音。录音文件识别-千问

语音识别

2025-11-19

fun-asr-2025-11-07(快照版)

Fun-ASR录音文件识别发布了全新快照版模型,优化远场语音活动检测(VAD)以提升识别准确率与稳定性,并在原有中英文识别基础上新增支持中文多地方言及日语。录音文件识别-Fun-ASR/Paraformer

多语言翻译

2025-11-11

qwen-mt-flash

相较于qwen-mt-turbo支持流式增量输出,整体性能表现有所提升。翻译能力(Qwen-MT)

图生视频

2025-11-10

wan2.2-animate-move

支持将模板视频中角色的动作和表情,迁移至单张静态人物图片上,生成人物动作视频。万相-图生动作

图生视频

2025-11-10

wan2.2-animate-mix

能够依据人物图片和参考视频,将视频中的主角替换为图片中的角色,同时保留原视频的场景、光照和色调,实现无缝人物替换。万相-视频换人

推理模型

2025-11-03

qwen3-max-preview

qwen3-max-preview 模型的思考模式:在整体推理能力上显著提升,尤其在智能体编程、常识推理,以及数学、科学和通用任务方面表现更优。深度思考

图像编辑

2025-10-31

qwen-image-edit-plus、qwen-image-edit-plus-2025-10-30

在qwen-image-edit的基础上优化了推理性能与系统稳定性,大幅缩短图像生成与编辑的响应时间,且支持单次请求返回多张图片。图像编辑-千问

实时语音识别

2025-10-27

qwen3-asr-flash-realtime、qwen3-asr-flash-realtime-2025-10-27

千问实时语音识别大模型具备自动语种识别功能,可识别 11 种语音类型,并能在复杂音频环境下较为准确地转录。实时语音识别-千问

视觉理解

2025-10-21

qwen3-vl-32b-thinking、qwen3-vl-32b-instruct

Qwen3-VL系列 32B 的Dense模型,综合表现仅次于Qwen3-VL-235B模型,文档识别和理解、空间感知与万物识别、视觉2D检测/空间推理能力均表现出色,适合通用场景下的复杂感知任务。图像与视频理解

视觉理解

2025-10-16

qwen3-vl-flash、qwen3-vl-flash-2025-10-15

Qwen3系列小尺寸视觉理解模型,实现思考模式和非思考模式的有效融合,相较于开源版Qwen3-VL-30B-A3B,效果更优,响应速度更快。图像与视频理解

视觉理解

2025-10-14

qwen3-vl-8b-thinking、qwen3-vl-8b-instruct

Qwen3-VL系列 8B 的Dense模型,占用显存更低,能够完成多模态理解与推理;支持长视频长文档等超长上下文、视觉2D/3D定位;全面空间感知与万物识别能力。图像与视频理解

视觉理解

2025-10-03

qwen3-vl-30b-a3b-thinking、qwen3-vl-30b-a3b-instruct

基于Qwen3-VL新一代开源模型,响应速度快,具备更强多模态理解与推理、视觉智能体、长视频长文档等超长上下文支持能力;全面升级空间感知与万物识别能力,胜任复杂现实任务。图像与视频理解

视觉理解

2025-09-23

qwen3-vl-plus、qwen3-vl-plus-2025-09-23、qwen3-vl-235b-a22b-thinking、qwen3-vl-235b-a22b-instruct

Qwen3系列视觉理解模型,实现思考模式和非思考模式的有效融合,视觉智能体能力达到世界顶尖水平。此版本在视觉编码、空间感知、多模态思考等方向全面升级;视觉感知与识别能力大幅提升。图像与视频理解

文生图

2025-09-23

qwen-image-plus

在复杂文本渲染方面表现突出,特别是中英文文本渲染,可实现复杂的图文混合布局,相较于qwen-image更具价格优势。文生图(Qwen-Image)

代码模型

2025-09-23

qwen3-coder-plus-2025-09-23

相较上一版本(7月22日快照)在下游任务效果和工具调用方面鲁棒性有所提升,代码安全性增强。代码能力(Qwen-Coder)

推理模型

2025-09-11

qwen-plus-2025-09-11

属于 Qwen3 系列模型,相较于qwen-plus-2025-07-28,在思考模式下提升了指令遵循能力、总结回复更加精简,详见深度思考。在非思考模式下中文理解与逻辑推理能力得到增强,详见文本生成模型概述

推理模型

2025-09-11

qwen3-next-80b-a3b-thinking、qwen3-next-80b-a3b-instruct

基于Qwen3的新一代开源模型,thinking模型相较于qwen3-235b-a22b-thinking-2507提升了指令遵循能力,总结回复更加精简,详见深度思考。instruct模型相较于qwen3-235b-a22b-instruct-2507增强了中文理解、逻辑推理及文本生成能力,详见文本生成模型概述

文生文

2025-09-05

qwen3-max-preview

基于Qwen3的Qwen-Max模型(预览版),相较Qwen 2.5系列整体通用能力有大幅度提升,中英文通用文本理解能力、复杂指令遵循能力、主观开放任务能力、多语言能力、工具调用能力均显著增强;模型知识幻觉更少。千问Max

图像编辑

2025-08-19

qwen-image-edit

千问图像编辑模型支持精准的中英双语文字编辑、调色、细节增强、风格迁移、增删物体、改变位置和动作等操作,可实现复杂的图文编辑。图像编辑-千问

视觉理解

2025-08-18

qwen-vl-plus-2025-08-15

视觉理解模型。在物体识别与定位、多语言处理的能力上有显著提升。图像与视频理解

文生图

2025-08-14

qwen-image

Qwen-Image模型在复杂文本渲染方面表现突出,特别是中英文文本渲染,可实现复杂的图文混合布局文生图(Qwen-Image)

视觉理解

2025-08-13

qwen-vl-max-2025-08-13

视觉理解模型。视觉理解指标全面提升,数学、推理、物体识别、多语言处理能力显著增强。图像与视频理解

代码模型

2025-08-05

qwen3-coder-flash、qwen3-coder-flash-2025-07-28

千问Coder系列速度最快、成本最低的模型。代码能力(Qwen-Coder)

推理模型

2025-08-05

qwen-flash、qwen-flash-2025-07-28

千问系列速度最快、成本极低的模型,适合简单任务。模型列表

推理模型

2025-07-30

qwen-plus-2025-07-28

属于 Qwen3 系列模型,相较于上一版模型,将上下文长度提高到了1,000,000。思考模式请参见深度思考,非思考模式请参见文本生成模型概述

推理模型

2025-07-30

qwen3-30b-a3b-thinking-2507

qwen3-30b-a3b-instruct-2507

是qwen3-30b-a3b的升级版。thinking模型逻辑能力、通用能力、知识增强及创作能力提升,参见深度思考。instruct模型创作能力与模型安全性提升,参见文本生成模型概述

图生视频

2025-07-28

wan2.2-i2v-plus

相较 2.1 模型,新版本在画面细节表现和运动稳定性方面均有显著提升,生成速度提升达 50%。首帧生视频

文生视频

2025-07-28

wan2.2-t2v-plus

相较 2.1 模型,新版本在画面细节表现和运动稳定性方面均有显著提升,生成速度提升达 50%。文生视频

文生图

2025-07-28

wan2.2-t2i-flash、wan2.2-t2i-plus

相较 2.1 模型,新版本在创意性、稳定性、写实质感上全面升级,生成速度提升达 50%。文生图

推理模型

2025-07-24

qwen3-235b-a22b-thinking-2507、qwen3-235b-a22b-instruct-2507

是qwen3-235b-a22b的升级版。thinking模型逻辑能力、通用能力、知识增强及创作能力均有大幅提升,适用于高难度强推理场景,参见深度思考。instruct模型创作能力与模型安全性均有提升,参见文本生成模型概述

代码模型

2025-07-23

qwen3-coder、qwen3-coder-plus-2025-07-22

基于 Qwen3 的代码生成模型,具有强大的Coding Agent能力,擅长工具调用和环境交互,代码能力卓越的同时兼具通用能力。代码能力(Qwen-Coder)

视觉理解

2025-06-04

qwen-vl-plus-2025-05-07

视觉理解模型。模型在数学、推理、监控视频内容的理解方面的能力有显著提升。图像与视频理解

文生图

2025-05-22

wan2.1-t2i-turbo、wan2.1-t2i-plus

一句话生成图像。模型支持生成任意分辨率、任意比例、最高200万像素的图像,提供极速版(turbo)与专业版(plus)两种版本。文生图

视觉理解

2025-05-16

qwen-vl-max-2025-04-08

视觉理解模型。数学和推理能力有所提升,回复风格面向人类偏好进行调整,模型回复详实程度和格式清晰度明显改善。图像与视频理解

视觉理解

2025-05-16

qwen-vl-plus-2025-01-25

视觉理解模型。属于Qwen2.5-VL系列模型,相较于上一版模型,扩展上下文至128k,显著增强图像和视频的理解能力。

视频编辑

2025-05-19

wan2.1-vace-plus

通用视频编辑模型。模型具备多模态输入能力,融合图片、视频与文本提示词,可执行图生视频(参考图像主体或背景生成视频)、视频重绘(从输入视频中提取运动特征生成视频)等多种任务。通用视频编辑

推理模型

2025-04-28

Qwen3商业版模型

qwen-plus-2025-04-28、qwen-turbo-2025-04-28

Qwen3开源版模型

qwen3-235b-a22b、qwen3-30b-a3b、qwen3-32b、qwen3-14b、qwen3-8b、qwen3-4b、qwen3-1.7b、qwen3-0.6b

Qwen3 模型支持思考模式和非思考模式,您可以通过 enable_thinking 参数实现两种模式的切换。除此之外,Qwen3 模型的能力得到了大幅提升:

  1. 推理能力:在数学、代码和逻辑推理等评测中,显著超过 QwQ 和同尺寸的非推理模型,达到同规模业界顶尖水平。

  2. 人类偏好能力:创意写作、角色扮演、多轮对话、指令遵循能力均大幅提升,通用能力显著超过同尺寸模型。

  3. Agent 能力:在推理、非推理两种模式下都达到业界领先水平,能够精准地调用外部工具。

  4. 多语言能力:支持100多种语言和方言,多语言翻译、指令理解、常识推理能力都明显提升。

  5. 回复格式问题修复:修复了之前版本存在的回复格式的问题,如异常 Markdown、中间截断、错误输出 boxed 等问题。

思考模式请参见深度思考,非思考模式请参见文本生成模型概述

文生视频

2025-04-21

wan2.1-t2v-turbo、wan2.1-t2v-plus

  • 一句话生成视频。

  • 具备强大的指令遵循能力,支持大幅度复杂运动、现实物理规律还原,生成的视频呈现丰富的艺术风格及影视级画面质感。使用方法请参见万相-文生视频

图生视频

2025-04-21

wan2.1-kf2v-plus、wan2.1-i2v-turbo、wan2.1-i2v-plus、

  • 基于输入的首帧和尾帧图片,模型能够根据提示词生成一段丝滑流畅的动态视频。首尾帧生视频

  • 输入图片作为视频首帧,再根据提示词生成视频。使用方法请参见首帧生视频

视觉推理

2025-03-28

qvq-max、qvq-max-latest、qvq-max-2025-03-25

视觉推理模型。支持视觉输入及思维链输出,在数学、编程、视觉分析、创作以及通用任务上都表现出更强的能力。视觉推理

全模态

2025-03-26

qwen2.5-omni-7b

千问全新多模态理解生成大模型,支持文本、图像、语音与视频输入,并输出文本与音频,提供了2种自然对话音色。使用方法请参见非实时(Qwen-Omni)

视觉理解

2025-03-24

qwen2.5-vl-32b-instruct 

视觉理解模型。在数学问题的解答方面达到了接近Qwen2.5VL-72B的水平,回复风格面向人类偏好进行大幅调整,尤其是数学、逻辑推理、知识问答等客观类问题,模型回复详实程度和格式清晰度明显改善。图像与视频理解

推理模型

2025-03-06

qwq-plus

基于 Qwen2.5 模型训练的 QwQ 推理模型,通过强化学习大幅度提升了模型推理能力。模型数学代码等核心指标(AIME 24/25、LiveCodeBench)以及部分通用指标(IFEval、LiveBench等)达到DeepSeek-R1 满血版水平。深度思考

视觉理解

2025-01-27

qwen2.5-vl-3b-instruct

qwen2.5-vl-7b-instruct

qwen2.5-vl-72b-instruct

  • 相对于Qwen2-VL大模型有如下改进:

    • 在指令跟随、数学计算、代码生成、结构化输出(JSON输出)等方面的能力有显著提升。

    • 支持对图像中的文字、图表、布局等视觉内容进行统一解析,并增加了精准定位视觉元素的能力,支持检测框和坐标点的表示方式。

    • 支持对长视频文件(最长10分钟)进行理解,具备秒级别的事件时刻定位能力,能理解时间先后和快慢。

  • 使用方法请参见图像与视频理解

文生文

2025-01-27

qwen-max-2025-01-25

qwen2.5-14b-instruct-1m

qwen2.5-7b-instruct-1m

  • qwen-max-2025-01-25模型(又称为Qwen2.5-Max):千问系列效果最好的模型,代码编写与理解能力、逻辑能力、多语言能力显著提升,回复风格面向人类偏好进行大幅调整,模型回复详实程度和格式清晰度明显改善,内容创作、JSON格式遵循、角色扮演能力定向提升。使用方法请参见:文本生成模型概述

  • qwen2.5-14b-instruct-1m、qwen2.5-7b-instruct-1m模型:相比于qwen2.5-14b-instruct与qwen2.5-7b-instruct模型,将上下文长度提高到了1,000,000。使用方法请参见:文本生成模型概述

文生文

2025-01-17

qwen-plus-2025-01-12

  • 相对于qwen-plus-2024-12-20模型,中英文整体能力有提升,中英常识、阅读理解能力提升较为显著,在不同语言、方言、风格之间自然切换的能力有显著改善,中文指令遵循能力显著提升。使用方法请参见qwen-plus-2025-01-12

多语言翻译

2024-12-25

qwen-mt-plus

qwen-mt-turbo

  • Qwen-MT模型是基于千问模型优化的机器翻译大语言模型,擅长中英互译、中文与小语种互译、英文与小语种互译,小语种包括日、韩、法、西、德、葡(巴西)、泰、印尼、越、阿等26种。在多语言互译的基础上,提供术语干预、领域提示、记忆库等能力,提升模型在复杂应用场景下的翻译效果。详情请参见翻译能力(Qwen-MT)

视觉理解

2024-12-18

qwen2-vl-72b-instruct

  • 在多个视觉理解基准测试中取得了最先进的成绩,显著增强多模态任务的处理能力。使用方法请参见图像与视频理解

美国

美国部署模式下,接入点与数据存储均位于美国(弗吉尼亚)地域,模型推理计算资源仅限于美国境内。

模型类型

时间

模型规格

功能说明

视觉理解

2026-03-14

qwen3-vl-flash-2026-01-22-us

千问VL的全新快照版模型,有效融合了思考模式与非思考模式,相较于 2025 年 10 月 15 日的快照版本,显著提升了模型的整体性能,在通用视觉识别、安防、巡店、巡检、拍照解题等业务场景中实现了更高准确率的推理。图像与视频理解

图生视频-基于首帧

2026-01-04

wan2.6-i2v-us

新增多镜头叙事能力,支持音频能力,支持自动配音,或传入自定义音频文件。万相-图生视频-基于首帧

文生视频

2026-01-04

wan2.6-t2v-us

新增多镜头叙事能力,支持音频能力,支持自动配音,或传入自定义音频文件。万相-文生视频

语音识别

2026-01-04

qwen3-asr-flash-us、qwen3-asr-flash-2025-09-08-us

支持任意采样率和声道的音频。录音文件识别-千问

视觉理解

2026-01-04

qwen3-vl-flash-us、qwen3-vl-flash-2025-10-15-us

Qwen3系列小尺寸视觉理解模型,实现思考模式和非思考模式的有效融合,相较于开源版Qwen3-VL-30B-A3B,效果更优,响应速度更快。图像与视频理解

推理模型

2026-01-04

qwen-plus-2025-12-01-us

属于 Qwen3 系列模型,相较于qwen-plus-2025-07-28,在思考模式下提升了指令遵循能力、总结回复更加精简,详见深度思考。在非思考模式下中文理解与逻辑推理能力得到增强,详见文本生成模型概述

推理模型

2026-01-04

qwen-plus-us

能力均衡,推理效果、成本和速度介于千问Max和千问Flash之间,适合中等复杂任务。模型列表

文生文

2026-01-04

qwen-flash-us、qwen-flash-2025-07-28-us

千问系列速度最快、成本极低的模型,适合简单任务。千问Flash

中国内地

中国内地部署模式下,接入点与数据存储均位于北京地域,模型推理计算资源仅限于中国内地。

模型类型

时间

模型规格

功能说明

全模态

2026-03-30

qwen3.5-omni-plus、qwen3.5-omni-plus-2026-03-15、qwen3.5-omni-flash、qwen3.5-omni-flash-2026-03-15

最新一代全模态大模型,支持长视频分析、会议纪要、字幕输出、安全审核、音视频交互;支持音视频内容的深度理解与生成描述,支持 113 种语言识别和 36 种语言的音频生成,可处理 3 小时音频及1 小时视频输入,支持联网搜索及指令来控制输出音频的音量、语速、情绪。非实时(Qwen-Omni)

全模态

2026-03-30

qwen3.5-omni-plus-realtime、qwen3.5-omni-plus-realtime-2026-03-15、qwen3.5-omni-flash-realtime、qwen3.5-omni-flash-realtime-2026-03-15

千问最新推出的实时多模态模型,相比于上一代的 Qwen3-Omni-Flash-Realtime:模型智力大幅提升,与 Qwen3.5-Plus 智能水平相当。原生支持联网搜索(WebSearch),支持语音打断和控制;支持 113 种语种和方言的语音识别,以及 36 种语种和方言的语音生成。实时(Qwen-Omni-Realtime)

推理模型

2026-03-11

MiniMax-M2.5

稀宇科技(MiniMax)推出的新模型,响应速度快,擅长编程、办公等任务。使用方法

语音识别

2026-03-05

fun-asr-realtime-2026-02-28

Fun-ASR实时语音识别新增快照模型,较 fun-asr-realtime-2025-11-07 效果更优。实时语音识别-Fun-ASR/Paraformer

图像生成与编辑

2026-03-03

qwen-image-2.0、qwen-image-2.0-2026-03-03、qwen-image-2.0-pro、qwen-image-2.0-pro-2026-03-03

千问-Image2.0系列,同时支持图像生成和编辑。Pro系列文字渲染、真实质感、语义遵循能力更强。;加速版兼顾效果与响应速度。千问-文生图千问-图像编辑

语音识别

2026-03-03

qwen3-asr-flash-2026-02-10

千问录音文件识别新增快照模型,较 qwen3-asr-flash-2025-09-08 效果更优。录音文件识别-千问

语音合成

2026-03-02

cosyvoice-v3.5-plus、cosyvoice-v3.5-flash

CosyVoice3.5 模型上线,专注声音复刻与设计,支持指令控制语音合成效果。实时语音合成-CosyVoice

推理模型

2026-02-24

qwen3.5-flash、qwen3.5-flash-2026-02-23、qwen3.5-122b-a10b、qwen3.5-27b、qwen3.5-35b-a3b

阿里巴巴推出的最新模型千问3.5-Flash和开源模型,支持文本、图像和视频输入,响应速度快,综合表现接近qwen3.5-plus,支持内置工具调用文本生成模型概述

代码模型

2026-02-20

qwen3-coder-next

Qwen3系列新一代开源代码生成模型,支持多轮工具交互,提升了对仓库级别代码的理解能力和对AI编程工具的适配性。代码能力(Qwen-Coder)

推理模型

2026-02-18

glm-5

智谱推出的最新模型,专为编程与智能体场景打造,擅长复杂的系统工程与长程Agent任务。GLM

推理模型

2026-02-16

qwen3.5-plus、qwen3.5-plus-2026-02-15、qwen3.5-397b-a17b

阿里巴巴推出的最新模型千问3.5-Plus和开源模型,支持文本、图像和视频输入,在语言理解、逻辑推理、代码生成、智能体任务、图像理解、视频理解、图形用户界面(GUI)等多种任务中表现卓越,支持内置工具调用。文本生成模型概述

语音识别

2026-02-13

qwen3-asr-flash-realtime-2026-02-10

千问实时语音识别新增最新快照模型,较 qwen3-asr-flash-realtime-2025-10-27 效果更优。实时语音识别-千问

语音识别

2026-02-12

fun-asr-flash-8k-realtime、fun-asr-flash-8k-realtime-2026-01-28

新增基于Fun-ASR大模型架构的小尺寸ASR模型,专为8kHz场景优化,适合对成本敏感的客户。实时语音识别-Fun-ASR/Paraformer

语音合成

2026-02-10

qwen3-tts-instruct-flash、qwen3-tts-instruct-flash-2026-01-26

千问语音合成上线Instruct(指令控制)模型,支持通过自然语言指令精准控制合成效果。语音合成-千问

语音合成

2026-02-10

qwen3-tts-vd-2026-01-26

千问语音合成上线声音设计模型,可通过文本描述创建定制化音色语音合成-千问

语音合成

2026-02-10

qwen3-tts-vc-2026-01-22

千问语音合成上线声音复刻模型,可基于真实音频样本快速复刻音色语音合成-千问

语音合成

2026-02-04

qwen3-tts-instruct-flash-realtime、qwen3-tts-instruct-flash-realtime-2026-01-22

千问实时语音合成新增Instruct(指令控制)模型,支持通过自然语言指令精准控制合成效果。实时语音合成-千问

参考生视频

2026-02-02

wan2.6-r2v-flash

基于参考视频和图像的角色形象,生成多镜头视频,支持自动配音。万相-参考生视频

文生文与视觉理解

2026-01-30

kimi-k2.5

由月之暗面(Moonshot AI)公司推出的视觉理解模型,在代码生成、视觉理解等通用智能任务中表现突出。同时支持图像、视频与文本输入、对话与 Agent 任务。Kimi-阿里云

语音识别

2026-01-28

qwen3-asr-flash-filetrans、qwen3-asr-flash-filetrans-2025-11-17

千问3-ASR-Flash-Filetrans系列模型现已支持词级别时间戳,通过设置新参数 enable_words,获取毫秒级的词/字对齐信息,并体验更符合语义的精细化断句。录音文件识别-千问

推理模型

2026-01-27

qwen3-max-2026-01-23

相较于 2025 年 9 月 23 日的快照版本,有效融合了思考模式与非思考模式,显著提升了模型的整体性能。在思考模式下,模型集成了 Web 搜索、网页信息提取和代码解释器三项工具,通过在思考过程中引入外部工具,在复杂问题上实现更高的准确率。OpenAI兼容-Responses

视觉理解

2026-01-23

qwen3-vl-flash-2026-01-22

千问VL的全新快照版模型,有效融合了思考模式与非思考模式,相较于 2025 年 10 月 15 日的快照版本,显著提升了模型的整体性能,在通用视觉识别、安防、巡店、巡检、拍照解题等业务场景中实现了更高准确率的推理。图像与视频理解

图生视频

2026-01-17

wan2.6-i2v-flash

支持生成有声与无声视频,两类视频按各自计费规则独立计费;同时具备多镜头叙事能力与音频处理能力。万相-图生视频-基于首帧

图像编辑

2026-01-17

qwen-image-edit-max、qwen-image-edit-max-2026-01-16

千问图像编辑模型Max系列,具备更稳定、丰富的编辑能力,增强了工业设计与几何推理能力,并提升了角色一致性与编辑的精准度。图像编辑-千问

语音合成

2026-01-16

qwen3-tts-vc-realtime-2026-01-15

千问实时语音合成新增最新快照模型,声音复刻(Qwen)效果进一步优化,较 qwen3-tts-vc-realtime-2025-11-27 更自然、更贴近原声。实时语音合成-千问

文生图

2026-01-12

qwen-image-plus-2026-01-09

千问图像生成的全新快照版模型,为qwen-image-max的蒸馏加速版,支持快速生成高质量图像。千问-文生图

推理模型

2026-01-12

deepseek-v3.2

deepseek-v3.2 模型支持隐式缓存与显式缓存,可提升响应速度,并在不影响回复效果的前提下降低使用成本。上下文缓存

图生视频

2026-01-08

wan2.2-kf2v-flash

基于输入的首帧和尾帧图片,模型能够根据提示词生成一段丝滑流畅的动态视频。首尾帧生视频

语音识别

2026-01-06

qwen3-asr-flash、qwen3-asr-flash-2025-09-08

千问3-ASR-Flash支持OpenAI兼容模式。录音文件识别-千问

语音合成

2026-01-05

cosyvoice-v3-flash

语音合成CosyVoice新增24个音色(详情请参见音色列表):

  • 方言:龙嘉怡、龙老铁

  • 出海营销:loongkyong、loongtomoka

  • 诗词朗诵:龙飞

  • 语音助手:龙小淳、龙小夏、YUMI

  • 社交陪伴:龙橙、龙泽、龙哲、龙颜、龙星、龙天、龙婉、龙嫱、龙菲菲、龙浩

  • 有声书:龙三叔、龙媛、龙悦、龙修、龙楠

  • 新闻播报:龙书

文生图

2025-12-31

qwen-image-max、qwen-image-max-2025-12-30

千问图像生成模型Max系列,相较于Plus系列提升了图像的真实感与自然度,有效降低了AI合成痕迹,在人物质感、纹理细节和文字渲染等方面表现突出。千问-文生图

图像编辑

2025-12-23

qwen-image-edit-plus-2025-12-15

千问图像编辑发布的最新快照模型,相较于上一版本提升了角色一致性、工业设计能力和几何推理能力,并优化了编辑后的图片与原图在空间布局、纹理和风格上的匹配度,编辑效果更精准。图像编辑-千问

文生图

2025-12-19

z-image-turbo

轻量级文生图模型,可快速生成高质量图像,支持中英双语渲染、复杂语义理解和多风格题材,并可灵活适配多种分辨率与宽高比。文生图Z-Image

视觉理解

2025-12-19

qwen3-vl-plus-2025-12-19

千问VL的全新快照版模型,指令遵循能力更强,具有更低的延迟。图像与视频理解

语音识别

2025-12-19

qwen3-asr-flash-filetrans、qwen3-asr-flash-filetrans-2025-11-17、qwen3-asr-flash、qwen3-asr-flash-2025-09-08

新增捷克语、丹麦语等共 9 种语言的语音识别支持。录音文件识别-千问

语音识别

2025-12-17

qwen3-asr-flash-realtime、qwen3-asr-flash-realtime-2025-10-27

新增捷克语、丹麦语等共 9 种语言的语音识别支持。实时语音识别-千问

语音识别

2025-12-17

qwen3-asr-flash、qwen3-asr-flash-2025-09-08

支持任意采样率和声道的音频。录音文件识别-千问

语音识别

2025-12-17

fun-asr-mtl、fun-asr-mtl-2025-08-25

支持对中、英、日、韩等共 31 种语言的语音识别,尤其适合东南亚出海场景。录音文件识别-Fun-ASR/Paraformer

语音合成

2025-12-16

qwen3-tts-vd-realtime-2025-12-16(快照版)

千问实时语音合成发布全新快照版模型,可使用声音设计(Qwen)生成的音色进行低延迟、高稳定性的实时合成;支持多语言输出;能根据文本自动调节语气,并优化复杂文本的合成表现。实时语音合成-千问

文生图

2025-12-16

wan2.6-t2i

新增同步接口。支持在总像素面积与宽高比约束内,自由选尺寸。万相-文生图V2

图像生成与编辑

2025-12-16

wan2.6-image

支持图像编辑和图文混合输出。万相-图像生成与编辑2.6

图生视频-基于首帧

2025-12-16

wan2.6-i2v

新增多镜头叙事能力,支持音频能力,支持自动配音,或传入自定义音频文件。万相-图生视频-基于首帧

参考生视频

2025-12-16

wan2.6-r2v

基于参考视频的角色形象和音色,生成多镜头视频,支持自动配音。万相-参考生视频

文生视频

2025-12-16

wan2.6-t2v

新增多镜头叙事能力,支持音频能力,支持自动配音,或传入自定义音频文件。文生视频

语音识别

2025-12-12

fun-asr、fun-asr-2025-11-07

Fun-ASR录音文件识别功能更新:

语音合成

2025-12-11

cosyvoice-v3-flash、cosyvoice-v3-plus

  • cosyvoice-v3-flash模型新增5个系统音色:longanrou_v3、longyingjing_v3、longyingling_v3、longanling_v3和longhan_v3,均支持时间戳与SSML功能,详情请参见音色列表

  • cosyvoice-v3-flash和cosyvoice-v3-plus模型的复刻音色功能增强:支持时间戳与SSML功能,韵律效果提升。请参见CosyVoice声音复刻/设计API创建新音色体验。

全模态

2025-12-04

qwen3-omni-flash-2025-12-01

千问Omni发布的最新快照模型,支持的音色增加至49种,模型的指令跟随能力大幅升级,能高效理解文本、图像、音频、视频。非实时(Qwen-Omni)

实时多模态

2025-12-04

qwen3-omni-flash-realtime-2025-12-01

千问Omni 实时版发布的最新快照模型,提供了低延迟的多模态交互能力,支持的音色增加至49种,模型的指令跟随能力和交互体验大幅升级。实时(Qwen-Omni-Realtime)

语音翻译

2025-12-04

qwen3-livetranslate-flash、qwen3-livetranslate-flash-2025-12-01

千问3-LiveTranslate-Flash 是音视频翻译模型,支持 18 种语言(包括中文、英文、俄文、法文等)互译,可结合视觉上下文提升翻译准确性,并输出文本与语音。音视频文件翻译-千问

推理模型

2025-12-04

deepseek-v3.2

DeepSeek-V3.2是引入DeepSeek Sparse Attention(一种稀疏注意力机制)的正式版模型,也是DeepSeek推出的首个将思考融入工具使用的模型,同时支持思考模式与非思考模式的工具调用。

DeepSeek

多语言翻译

2025-12-02

qwen-mt-lite

千问基础级文本翻译大模型,支持31个语种互译,相较于qwen-mt-flash响应更快,成本更低,适用于等对延迟敏感的场景。翻译能力(Qwen-MT)

声音复刻

2025-11-27

qwen-voice-enrollment

千问发布声音复刻模型,仅需 5 秒以上音频即可快速生成高相似度声音。结合qwen3-tts-vc-realtime-2025-11-27模型使用,可高保真复刻并实时输出某人的声音,覆盖 11 种语言。声音复刻(Qwen)

语音合成

2025-11-27

qwen3-tts-vc-realtime-2025-11-27(快照版)

千问实时语音合成发布全新快照版模型,可使用声音复刻(Qwen)生成的音色进行低延迟、高稳定性的实时合成;支持多语言输出;能根据文本自动调节语气,并优化复杂文本的合成表现。实时语音合成-千问

语音合成

2025-11-27

qwen3-tts-flash-realtime-2025-11-27(快照版)

千问实时语音合成发布全新快照版模型,低延迟且稳定性高;音色更丰富,同一音色支持多语言输出;能根据文本自动调节语气,并提升复杂文本的合成表现。实时语音合成-千问

语音合成

2025-11-27

qwen3-tts-flash-2025-11-27(快照版)

千问语音合成发布全新快照版模型,音色更丰富;同一音色支持多语言输出;可自适应文本调节语气,并优化复杂文本的合成能力。语音合成-千问

文字提取

2025-11-21

qwen-vl-ocr-2025-11-20(快照版)

千问文字提取模型,该快照版基于Qwen3-VL架构,大幅提升文档解析、文字定位能力。文字提取

语音识别

2025-11-20

qwen3-asr-flash-filetrans、qwen3-asr-flash-filetrans-2025-11-17(快照版)

千问录音文件识别发布了新模型,专为音频文件的异步转写设计,支持最长12小时录音。录音文件识别-千问

语音合成

2025-11-19

cosyvoice-v3-flash

较之前版本提升了发音准确性、音色相似度,并且增加了更多小语种支持(德、西、法、意、俄)。实时语音合成-CosyVoice

推理模型

2025-11-11

kimi-k2-thinking

由月之暗面(Moonshot AI)公司推出的思考模型,具有通用智能体能力和推理能力,擅长深度推理,并能通过多步工具调用解决各类难题。Kimi-阿里云

多语言翻译

2025-11-10

qwen-mt-flash

相较于qwen-mt-turbo支持流式增量输出,整体性能表现有所提升。翻译能力(Qwen-MT)

图生视频

2025-11-04

wan2.2-animate-mix

能够依据人物图片和参考视频,将视频中的主角替换为图片中的角色,同时保留原视频的场景、光照和色调,实现无缝人物替换。万相-视频换人

推理模型

2025-11-03

qwen3-max-preview

qwen3-max-preview 模型的思考模式:在整体推理能力上显著提升,尤其在智能体编程、常识推理,以及数学、科学和通用任务方面表现更优。深度思考

图生视频

2025-11-03

wan2.2-animate-move

支持将模板视频中角色的动作和表情,迁移至单张静态人物图片上,生成人物动作视频。万相-图生动作

图像编辑

2025-10-31

qwen-image-edit-plus、qwen-image-edit-plus-2025-10-30

在qwen-image-edit的基础上优化了推理性能与系统稳定性,大幅缩短图像生成与编辑的响应时间,且支持单次请求返回多张图片。图像编辑-千问

实时语音识别

2025-10-27

qwen3-asr-flash-realtime、qwen3-asr-flash-realtime-2025-10-27

千问实时语音识别大模型具备自动语种识别功能,可识别 11 种语音类型,并能在复杂音频环境下较为准确地转录。实时语音识别-千问

视觉理解

2025-10-21

qwen3-vl-32b-thinking、qwen3-vl-32b-instruct

Qwen3-VL系列 32B 的Dense模型,综合表现仅次于Qwen3-VL-235B模型,文档识别和理解、空间感知与万物识别能力强、视觉2D检测/空间推理能力均表现出色,适合通用场景下的复杂感知任务。图像与视频理解

视觉理解

2025-10-16

qwen3-vl-flash、qwen3-vl-flash-2025-10-15

Qwen3系列小尺寸视觉理解模型,实现思考模式和非思考模式的有效融合,相较于开源版Qwen3-VL-30B-A3B,效果更优,响应速度更快。图像与视频理解

视觉理解

2025-10-14

qwen3-vl-8b-thinking、qwen3-vl-8b-instruct

Qwen3-VL系列 8B 的Dense开源模型,提供思考和非思考两个版本。占用显存更低,能够完成多模态理解与推理;支持长视频长文档等超长上下文、视觉2D/3D定位;全面空间感知与万物识别能力。图像与视频理解

视觉理解

2025-10-03

qwen3-vl-30b-a3b-thinking、qwen3-vl-30b-a3b-instruct

基于Qwen3-VL新一代开源模型,提供思考和非思考两个版本。响应速度快,具备更强多模态理解与推理、视觉智能体、长视频长文档等超长上下文支持能力;全面升级空间感知与万物识别能力,胜任复杂现实任务。图像与视频理解

推理模型

2025-09-30

deepseek-v3.2-exp

混合推理架构模型,同时支持思考模式与非思考模式,引入稀疏注意力机制,旨在提升处理长文本时的训练与推理效率,价格低于 deepseek-v3.1。详情参见DeepSeek

文生图

2025-09-23

qwen-image-plus

在复杂文本渲染方面表现突出,特别是中英文文本渲染,可实现复杂的图文混合布局,相较于qwen-image更具价格优势。文生图(Qwen-Image)

视觉理解

2025-09-23

qwen3-vl-plus、qwen3-vl-plus-2025-09-23、qwen3-vl-235b-a22b-thinking、qwen3-vl-235b-a22b-instruct

Qwen3系列视觉理解模型,实现思考模式和非思考模式的有效融合,视觉智能体能力达到世界顶尖水平。此版本在视觉编码、空间感知、多模态思考等方向全面升级;视觉感知与识别能力大幅提升。图像与视频理解

代码模型

2025-09-23

qwen3-coder-plus-2025-09-23

相较上一版本(7月22日快照)在下游任务效果和工具调用方面鲁棒性有所提升,代码安全性增强。代码能力(Qwen-Coder)

推理模型

2025-09-11

qwen-plus-2025-09-11

属于 Qwen3 系列模型,相较于qwen-plus-2025-07-28,在思考模式下提升了指令遵循能力、总结回复更加精简,详见深度思考。在非思考模式下中文理解与逻辑推理能力得到增强,详见文本生成模型概述

推理模型

2025-09-11

qwen3-next-80b-a3b-thinking、qwen3-next-80b-a3b-instruct

基于Qwen3的新一代开源模型,thinking模型相较于qwen3-235b-a22b-thinking-2507提升了指令遵循能力,总结回复更加精简,详见深度思考。instruct模型相较于qwen3-235b-a22b-instruct-2507增强了中文理解、逻辑推理及文本生成能力,详见文本生成模型概述

文生文

2025-09-05

qwen3-max-preview

基于Qwen3的Qwen-Max模型(预览版),相较Qwen 2.5系列整体通用能力有大幅度提升,中英文通用文本理解能力、复杂指令遵循能力、主观开放任务能力、多语言能力、工具调用能力均显著增强;模型知识幻觉更少。千问Max

文本、图像、视频、语音等

2025-08-05

模型

北京地域首次上线。

中国香港

中国香港部署模式下,接入点与数据存储均位于中国香港,模型推理计算资源仅限于中国香港。

模型类型

时间

模型规格

功能说明

推理模型

2026-03-17

qwen3-max、qwen3-max-2026-01-23

相较于 2025 年 9 月 23 日的快照版本,有效融合了思考模式与非思考模式,显著提升了模型的整体性能。

推理模型

2026-03-17

qwen-plus、qwen-plus-2025-12-01

属于 Qwen3 系列模型,相较于qwen-plus-2025-07-28,在思考模式下提升了指令遵循能力、总结回复更加精简,详见深度思考。在非思考模式下中文理解与逻辑推理能力得到增强,详见文本生成模型概述

推理模型

2026-03-17

qwen3.5-flash、qwen3.5-flash-2026-02-23

阿里巴巴推出的最新模型千问3.5-Flash和开源模型,支持文本、图像和视频输入,响应速度快。文本生成模型概述

视觉理解

2026-03-17

qwen3-vl-plus、qwen3-vl-plus-2025-12-19

Qwen3系列视觉理解模型,实现思考模式和非思考模式的有效融合,视觉智能体能力达到世界顶尖水平。此版本在视觉编码、空间感知、多模态思考等方向全面升级;视觉感知与识别能力大幅提升,指令遵循能力更强,具有更低的延迟。图像与视频理解

欧盟

欧盟部署模式下,接入点与数据存储均位于德国(法兰克福),模型推理计算资源仅限于欧盟境内。

模型类型

时间

模型规格

功能说明

推理模型

2026-03-20

qwen3-max、qwen3-max-2026-01-23

相较于 2025 年 9 月 23 日的快照版本,有效融合了思考模式与非思考模式,显著提升了模型的整体性能。

推理模型

2026-03-20

qwen-plus、qwen-plus-2025-12-01

属于 Qwen3 系列模型,相较于qwen-plus-2025-07-28,在思考模式下提升了指令遵循能力、总结回复更加精简,详见深度思考。在非思考模式下中文理解与逻辑推理能力得到增强,详见文本生成模型概述

推理模型

2026-03-20

qwen3.5-flash、qwen3.5-flash-2026-02-23

阿里巴巴推出的最新模型千问3.5-Flash和开源模型,支持文本、图像和视频输入,响应速度快。文本生成模型概述

视觉理解

2026-03-20

qwen3-vl-plus、qwen3-vl-flash、qwen3-vl-flash-2025-10-15

Qwen3系列视觉理解模型,实现思考模式和非思考模式的有效融合,视觉智能体能力达到世界顶尖水平。此版本在视觉编码、空间感知、多模态思考等方向全面升级;视觉感知与识别能力大幅提升,指令遵循能力更强,具有更低的延迟。图像与视频理解

代码能力

2026-03-20

qwen3-coder-next

Qwen3系列新一代开源代码生成模型,支持多轮工具交互,提升了对仓库级别代码的理解能力和对AI编程工具的适配性。代码能力(Qwen-Coder)