模型上架详见下表,模型下线规则及清单请参考模型下线机制说明。
全球
在全球部署模式下,接入点与数据存储均位于美国(弗吉尼亚)或德国(法兰克福)地域,模型推理计算资源在全球范围内动态调度。
模型类型 | 时间 | 模型规格 | 功能说明 |
推理模型 | 2026-03-04 | qwen3.5-flash、qwen3.5-flash-2026-02-23、qwen3.5-122b-a10b、qwen3.5-27b、qwen3.5-35b-a3b | 阿里巴巴推出的最新模型千问3.5-Flash和开源模型,支持文本、图像和视频输入,响应速度快,综合表现接近qwen3.5-plus,支持内置工具调用。文本生成模型概述 |
推理模型 | 2026-03-04 | qwen3.5-plus、qwen3.5-plus-2026-02-15、qwen3.5-397b-a17b | 阿里巴巴推出的最新模型千问3.5-Plus和开源模型,支持文本、图像和视频输入,在语言理解、逻辑推理、代码生成、智能体任务、图像理解、视频理解、图形用户界面(GUI)等多种任务中表现卓越,支持内置工具调用。文本生成模型概述 |
图像生成与编辑 | 2026-01-04 | wan2.6-image | 支持图像编辑和图文混合输出。万相-图像生成与编辑2.6 |
图生视频-基于首帧 | 2026-01-04 | wan2.6-i2v | 新增多镜头叙事能力,支持音频能力,支持自动配音,或传入自定义音频文件。万相-图生视频-基于首帧 |
参考生视频 | 2026-01-04 | wan2.6-r2v | 基于参考视频的角色形象和音色,生成多镜头视频,支持自动配音。万相-参考生视频 |
文生视频 | 2026-01-04 | wan2.6-t2v | 新增多镜头叙事能力,支持音频能力,支持自动配音,或传入自定义音频文件。万相-文生视频 |
视觉理解 | 2026-01-04 | qwen3-vl-flash、qwen3-vl-flash-2025-10-15 | Qwen3系列小尺寸视觉理解模型,实现思考模式和非思考模式的有效融合,相较于开源版Qwen3-VL-30B-A3B,效果更优,响应速度更快。图像与视频理解 |
视觉理解 | 2026-01-04 | qwen3-vl-8b-thinking、qwen3-vl-8b-instruct | Qwen3-VL系列 8B 的Dense开源模型,提供思考和非思考两个版本。占用显存更低,能够完成多模态理解与推理;支持长视频长文档等超长上下文、视觉2D/3D定位;全面空间感知与万物识别能力。图像与视频理解 |
视觉理解 | 2026-01-04 | qwen3-vl-32b-thinking、qwen3-vl-32b-instruct | Qwen3-VL系列 32B 的Dense模型,综合表现仅次于Qwen3-VL-235B模型,文档识别和理解、空间感知与万物识别、视觉2D检测/空间推理能力均表现出色,适合通用场景下的复杂感知任务。图像与视频理解 |
视觉理解 | 2026-01-04 | qwen3-vl-plus、qwen3-vl-plus-2025-09-23、qwen3-vl-235b-a22b-thinking、qwen3-vl-235b-a22b-instruct | Qwen3系列视觉理解模型,实现思考模式和非思考模式的有效融合,视觉智能体能力达到世界顶尖水平。此版本在视觉编码、空间感知、多模态思考等方向全面升级;视觉感知与识别能力大幅提升。图像与视频理解 |
推理模型 | 2026-01-04 | qwen3-next-80b-a3b-thinking、qwen3-next-80b-a3b-instruct | 基于Qwen3的新一代开源模型,thinking模型相较于qwen3-235b-a22b-thinking-2507提升了指令遵循能力,总结回复更加精简,详见深度思考。instruct模型相较于qwen3-235b-a22b-instruct-2507增强了中文理解、逻辑推理及文本生成能力,详见文本生成模型概述。 |
推理模型 | 2026-01-04 | qwen3-max、qwen3-max-2025-09-23 | 相较qwen3-max-preview版本,在智能体编程与工具调用方向进行了专项升级。本次发布的正式版模型达到领域SOTA水平,适配场景更加复杂的智能体需求。千问Max |
推理模型 | 2026-01-04 | qwen3-max-preview | 基于Qwen3的Qwen-Max模型(预览版),相较Qwen 2.5系列整体通用能力有大幅度提升,中英文通用文本理解能力、复杂指令遵循能力、主观开放任务能力、多语言能力、工具调用能力均显著增强;模型知识幻觉更少。千问Max |
代码模型 | 2026-01-04 | qwen3-coder-flash、qwen3-coder-flash-2025-07-28 | 千问Coder系列速度最快、成本最低的模型。代码能力(Qwen-Coder)。 |
代码模型 | 2026-01-04 | qwen3-coder-plus、qwen3-coder-plus-2025-07-22、qwen3-coder-30b-a3b-instruct、qwen3-coder-480b-a35b-instruct | 基于 Qwen3 的代码生成模型,具有强大的Coding Agent能力,擅长工具调用和环境交互,代码能力卓越的同时兼具通用能力。代码能力(Qwen-Coder) |
推理模型 | 2026-01-04 | qwen3-30b-a3b-thinking-2507、qwen3-30b-a3b-instruct-2507 | 是qwen3-30b-a3b的升级版。thinking模型逻辑能力、通用能力、知识增强及创作能力提升,参见深度思考。instruct模型创作能力与模型安全性提升,参见文本生成模型概述。 |
推理模型 | 2026-01-04 | qwen3-235b-a22b-thinking-2507、qwen3-235b-a22b-instruct-2507 | 是qwen3-235b-a22b的升级版。thinking模型逻辑能力、通用能力、知识增强及创作能力均有大幅提升,适用于高难度强推理场景,参见深度思考。instruct模型创作能力与模型安全性均有提升,参见文本生成模型概述。 |
推理模型 | 2026-01-04 | qwen3-30b-a3b、qwen3-32b、qwen3-14b、qwen3-8b | Qwen3 模型支持思考模式和非思考模式,您可以通过
|
文字提取 | 2026-01-04 | qwen-vl-ocr-2025-11-20 | 千问文字提取模型,该快照版基于Qwen3-VL架构,大幅提升文档解析、文字定位能力。文字提取 |
文字提取 | 2026-01-04 | qwen-vl-ocr | qwen-vl-ocr是专用于OCR的模型;在表格、试题等类型图像的文字提取能力大幅提升。详情请参见文字提取。 |
推理模型 | 2026-01-04 | qwen-plus-2025-12-01、qwen-plus-2025-09-11 | 属于 Qwen3 系列模型,相较于qwen-plus-2025-07-28,在思考模式下提升了指令遵循能力、总结回复更加精简,详见深度思考。在非思考模式下中文理解与逻辑推理能力得到增强,详见文本生成模型概述。 |
推理模型 | 2026-01-04 | qwen-plus-2025-07-28 | 属于 Qwen3 系列模型,相较于上一版模型,将上下文长度提高到了1,000,000。思考模式请参见深度思考,非思考模式请参见文本生成模型概述。 |
推理模型 | 2026-01-04 | qwen-plus | 能力均衡,推理效果、成本和速度介于千问Max和千问Flash之间,适合中等复杂任务。模型列表 |
多语言翻译 | 2026-01-04 | qwen-mt-lite | 千问基础级文本翻译大模型,支持31个语种互译,相较于qwen-mt-flash响应更快,成本更低,适用于对延迟敏感的场景。翻译能力(Qwen-MT) |
多语言翻译 | 2026-01-04 | qwen-mt-plus、qwen-mt-flash | Qwen-MT模型是基于千问模型优化的机器翻译大语言模型,擅长中英互译、中文与小语种互译、英文与小语种互译,小语种包括日、韩、法、西、德、葡(巴西)、泰、印尼、越、阿等26种。在多语言互译的基础上,提供术语干预、领域提示、记忆库等能力,提升模型在复杂应用场景下的翻译效果。详情请参见翻译能力(Qwen-MT)。 |
文生文 | 2026-01-04 | qwen-flash、qwen-flash-2025-07-28 | 千问系列速度最快、成本极低的模型,适合简单任务。千问Flash |
国际
在国际部署模式下,接入点与数据存储均位于新加坡地域,模型推理计算资源在全球范围内动态调度(不含中国内地)。
模型类型 | 时间 | 模型规格 | 功能说明 |
全模态 | 2026-03-30 | qwen3.5-omni-plus、qwen3.5-omni-plus-2026-03-15、qwen3.5-omni-flash、qwen3.5-omni-flash-2026-03-15 | 最新一代全模态大模型,支持长视频分析、会议纪要、字幕输出、安全审核、音视频交互;支持音视频内容的深度理解与生成描述,支持 113 种语言识别和 36 种语言的音频生成,可处理 3 小时音频及1 小时视频输入,支持联网搜索及指令来控制输出音频的音量、语速、情绪。非实时(Qwen-Omni) |
全模态 | 2026-03-30 | qwen3.5-omni-plus-realtime、qwen3.5-omni-plus-realtime-2026-03-15、qwen3.5-omni-flash-realtime、qwen3.5-omni-flash-realtime-2026-03-15 | 千问最新推出的实时多模态模型,相比于上一代的 Qwen3-Omni-Flash-Realtime:模型智力大幅提升,与 Qwen3.5-Plus 智能水平相当。原生支持联网搜索(WebSearch),支持语音打断和控制;支持 113 种语种和方言的语音识别,以及 36 种语种和方言的语音生成。实时(Qwen-Omni-Realtime) |
推理模型 | 2026-03-20 | deepseek-v3.2 | DeepSeek-V3.2是引入DeepSeek Sparse Attention(一种稀疏注意力机制)的正式版模型,也是DeepSeek推出的首个将思考融入工具使用的模型,同时支持思考模式与非思考模式的工具调用。 |
图像生成与编辑 | 2026-03-03 | qwen-image-2.0、qwen-image-2.0-2026-03-03、qwen-image-2.0-pro、qwen-image-2.0-pro-2026-03-03 | 千问-Image2.0系列,同时支持图像生成和编辑。Pro系列文字渲染、真实质感、语义遵循能力更强。;加速版兼顾效果与响应速度。千问-文生图、千问-图像编辑 |
语音识别 | 2026-03-03 | qwen3-asr-flash-2026-02-10 | 千问录音文件识别新增快照模型,较 qwen3-asr-flash-2025-09-08 效果更优。录音文件识别-千问 |
推理模型 | 2026-02-24 | qwen3.5-flash、qwen3.5-flash-2026-02-23、qwen3.5-122b-a10b、qwen3.5-27b、qwen3.5-35b-a3b | 阿里巴巴推出的最新模型千问3.5-Flash和开源模型,支持文本、图像和视频输入,响应速度快,综合表现接近qwen3.5-plus,支持内置工具调用。文本生成模型概述 |
代码模型 | 2026-02-20 | qwen3-coder-next | Qwen3系列新一代开源代码生成模型,支持多轮工具交互,提升了对仓库级别代码的理解能力和对AI编程工具的适配性。代码能力(Qwen-Coder) |
推理模型 | 2026-02-16 | qwen3.5-plus、qwen3.5-plus-2026-02-15、qwen3.5-397b-a17b | 阿里巴巴推出的最新模型千问3.5-Plus和开源模型,支持文本、图像和视频输入,在语言理解、逻辑推理、代码生成、智能体任务、图像理解、视频理解、图形用户界面(GUI)等多种任务中表现卓越,支持内置工具调用。文本生成模型概述 |
语音识别 | 2026-02-13 | qwen3-asr-flash-realtime-2026-02-10 | 千问实时语音识别新增最新快照模型,较 qwen3-asr-flash-realtime-2025-10-27 效果更优。实时语音识别-千问 |
语音合成 | 2026-02-10 | cosyvoice-v3-plus、cosyvoice-v3-flash | 语音合成 CosyVoice 新增 v3 模型,支持使用系统音色和复刻音色进行语音合成。实时语音合成-CosyVoice |
语音合成 | 2026-02-10 | qwen3-tts-instruct-flash、qwen3-tts-instruct-flash-2026-01-26 | 千问语音合成上线Instruct(指令控制)模型,支持通过自然语言指令精准控制合成效果。语音合成-千问 |
语音合成 | 2026-02-10 | qwen3-tts-vd-2026-01-26 | 千问语音合成上线声音设计模型,可通过文本描述创建定制化音色。语音合成-千问 |
语音合成 | 2026-02-10 | qwen3-tts-vc-2026-01-22 | 千问语音合成上线声音复刻模型,可基于真实音频样本快速复刻音色。语音合成-千问 |
语音合成 | 2026-02-04 | qwen3-tts-instruct-flash-realtime、qwen3-tts-instruct-flash-realtime-2026-01-22 | 千问实时语音合成新增Instruct(指令控制)模型,支持通过自然语言指令精准控制合成效果。实时语音合成-千问 |
参考生视频 | 2026-02-02 | wan2.6-r2v-flash | 基于参考视频和图像的角色形象,生成多镜头视频,支持自动配音。万相-参考生视频 |
视觉理解 | 2026-01-28 | qwen3-vl-flash-2026-01-22 | 千问VL的全新快照版模型,有效融合了思考模式与非思考模式,相较于 2025 年 10 月 15 日的快照版本,显著提升了模型的整体性能,在通用视觉识别、安防、巡店、巡检、拍照解题等业务场景中实现了更高准确率的推理。图像与视频理解 |
语音识别 | 2026-01-28 | qwen3-asr-flash-filetrans、qwen3-asr-flash-filetrans-2025-11-17 | 千问3-ASR-Flash-Filetrans系列模型现已支持词级别时间戳,通过设置新参数 |
推理模型 | 2026-01-27 | qwen3-max-2026-01-23 | 相较于 2025 年 9 月 23 日的快照版本,有效融合了思考模式与非思考模式,显著提升了模型的整体性能。在思考模式下,模型集成了 Web 搜索、网页信息提取和代码解释器三项工具,通过在思考过程中引入外部工具,在复杂问题上实现更高的准确率。OpenAI兼容-Responses |
图生视频 | 2026-01-18 | wan2.6-i2v-flash | 支持生成有声与无声视频,两类视频按各自计费规则独立计费;同时具备多镜头叙事能力与音频处理能力。万相-图生视频-基于首帧 |
图像编辑 | 2026-01-18 | qwen-image-edit-max、qwen-image-edit-max-2026-01-16 | 千问图像编辑模型Max系列,具备更稳定、丰富的编辑能力,增强了工业设计与几何推理能力,并提升了角色一致性与编辑的精准度。图像编辑-千问 |
语音合成 | 2026-01-16 | qwen3-tts-vc-realtime-2026-01-15 | 千问实时语音合成新增最新快照模型,声音复刻(Qwen)效果进一步优化,较 qwen3-tts-vc-realtime-2025-11-27 更自然、更贴近原声。实时语音合成-千问 |
文生图 | 2026-01-12 | qwen-image-plus-2026-01-09 | 千问图像生成的全新快照版模型,为qwen-image-max的蒸馏加速版,支持快速生成高质量图像。千问-文生图 |
图生视频 | 2026-01-08 | wan2.2-kf2v-flash | 基于输入的首帧和尾帧图片,模型能够根据提示词生成一段丝滑流畅的动态视频。首尾帧生视频 |
语音识别 | 2026-01-06 | qwen3-asr-flash、qwen3-asr-flash-2025-09-08 | 千问3-ASR-Flash支持OpenAI兼容模式。录音文件识别-千问 |
文生图 | 2025-12-31 | qwen-image-max、qwen-image-max-2025-12-30 | 千问图像生成模型Max系列,相较于Plus系列提升了图像的真实感与自然度,有效降低了AI合成痕迹,在人物质感、纹理细节和文字渲染等方面表现突出。千问-文生图 |
图像编辑 | 2025-12-23 | qwen-image-edit-plus-2025-12-15 | 千问图像编辑发布的最新快照模型,相较于上一版本提升了角色一致性、工业设计能力和几何推理能力,并优化了编辑后的图片与原图在空间布局、纹理和风格上的匹配度,编辑效果更精准。图像编辑-千问 |
文生图 | 2025-12-22 | z-image-turbo | 轻量级文生图模型,可快速生成高质量图像,支持中英双语渲染、复杂语义理解和多风格题材,并可灵活适配多种分辨率与宽高比。文生图Z-Image |
视觉理解 | 2025-12-19 | qwen3-vl-plus-2025-12-19 | 千问VL的全新快照版模型,指令遵循能力更强,具有更低的延迟。图像与视频理解 |
语音识别 | 2025-12-19 | qwen3-asr-flash-filetrans、qwen3-asr-flash-filetrans-2025-11-17、qwen3-asr-flash、qwen3-asr-flash-2025-09-08 | 新增捷克语、丹麦语等共 9 种语言的语音识别支持。录音文件识别-千问 |
语音识别 | 2025-12-17 | qwen3-asr-flash-realtime、qwen3-asr-flash-realtime-2025-10-27 | 新增捷克语、丹麦语等共 9 种语言的语音识别支持。实时语音识别-千问 |
语音识别 | 2025-12-17 | qwen3-asr-flash、qwen3-asr-flash-2025-09-08 | 支持任意采样率和声道的音频。录音文件识别-千问 |
语音识别 | 2025-12-17 | fun-asr-mtl、fun-asr-mtl-2025-08-25 | 支持对中、英、日、韩等共 31 种语言的语音识别,尤其适合东南亚出海场景。录音文件识别-Fun-ASR/Paraformer |
声音设计 | 2025-12-16 | qwen-voice-design | 千问发布声音设计模型,通过文本描述生成定制化音色。结合qwen3-tts-vd-realtime-2025-12-16模型使用生成语音,覆盖 10 种语言。声音设计(Qwen) |
语音合成 | 2025-12-16 | qwen3-tts-vd-realtime-2025-12-16(快照版) | 千问实时语音合成发布全新快照版模型,可使用声音设计(Qwen)生成的音色进行低延迟、高稳定性的实时合成;支持多语言输出;能根据文本自动调节语气,并优化复杂文本的合成表现。实时语音合成-千问 |
文生图 | 2025-12-16 | wan2.6-t2i | 新增同步接口。支持在总像素面积与宽高比约束内,自由选尺寸。万相-文生图V2 |
图像生成与编辑 | 2025-12-16 | wan2.6-image | 支持图像编辑和图文混合输出。万相-图像生成与编辑2.6 |
图生视频-基于首帧 | 2025-12-16 | wan2.6-i2v | 新增多镜头叙事能力,支持音频能力,支持自动配音,或传入自定义音频文件。万相-图生视频-基于首帧 |
参考生视频 | 2025-12-16 | wan2.6-r2v | 基于参考视频的角色形象和音色,生成多镜头视频,支持自动配音。万相-参考生视频 |
文生视频 | 2025-12-16 | wan2.6-t2v | 新增多镜头叙事能力,支持音频能力,支持自动配音,或传入自定义音频文件。文生视频 |
语音识别 | 2025-12-12 | fun-asr、fun-asr-2025-11-07 | 录音文件识别-Fun-ASR功能更新:
|
全模态 | 2025-12-04 | qwen3-omni-flash-2025-12-01 | 千问Omni发布的最新快照模型,支持的音色增加至49种,模型的指令跟随能力大幅升级,能高效理解文本、图像、音频、视频。非实时(Qwen-Omni) |
实时多模态 | 2025-12-04 | qwen3-omni-flash-realtime-2025-12-01 | 千问Omni 实时版发布的最新快照模型,提供了低延迟的多模态交互能力,支持的音色增加至49种,模型的指令跟随能力和交互体验大幅升级。实时(Qwen-Omni-Realtime) |
语音翻译 | 2025-12-04 | qwen3-livetranslate-flash、qwen3-livetranslate-flash-2025-12-01 | 千问3-LiveTranslate-Flash 是音视频翻译模型,支持 18 种语言(包括中文、英文、俄文、法文等)互译,可结合视觉上下文提升翻译准确性,并输出文本与语音。音视频文件翻译-千问 |
多语言翻译 | 2025-12-02 | qwen-mt-lite | 千问基础级文本翻译大模型,支持31个语种互译,相较于qwen-mt-flash响应更快,成本更低,适用于等对延迟敏感的场景。翻译能力(Qwen-MT) |
声音复刻 | 2025-11-27 | qwen-voice-enrollment | 千问发布声音复刻模型,仅需 5 秒以上音频即可快速生成高相似度声音。结合qwen3-tts-vc-realtime-2025-11-27模型使用,可高保真复刻并实时输出某人的声音,覆盖 11 种语言。声音复刻(Qwen) |
语音合成 | 2025-11-27 | qwen3-tts-vc-realtime-2025-11-27(快照版) | 千问实时语音合成发布全新快照版模型,可使用声音复刻(Qwen)生成的音色进行低延迟、高稳定性的实时合成;支持多语言输出;能根据文本自动调节语气,并优化复杂文本的合成表现。实时语音合成-千问 |
语音合成 | 2025-11-27 | qwen3-tts-flash-realtime-2025-11-27(快照版) | 千问实时语音合成发布全新快照版模型,低延迟且稳定性高;音色更丰富,同一音色支持多语言输出;能根据文本自动调节语气,并提升复杂文本的合成表现。实时语音合成-千问 |
语音合成 | 2025-11-27 | qwen3-tts-flash-2025-11-27(快照版) | 千问语音合成发布全新快照版模型,音色更丰富;同一音色支持多语言输出;可自适应文本调节语气,并优化复杂文本的合成能力。语音合成-千问 |
文字提取 | 2025-11-21 | qwen-vl-ocr-2025-11-20(快照版) | 千问文字提取模型,该快照版基于Qwen3-VL架构,大幅提升文档解析、文字定位能力。文字提取 |
语音识别 | 2025-11-20 | qwen3-asr-flash-filetrans、qwen3-asr-flash-filetrans-2025-11-17(快照版) | 千问录音文件识别发布了新模型,专为音频文件的异步转写设计,支持最长12小时录音。录音文件识别-千问 |
语音识别 | 2025-11-19 | fun-asr-2025-11-07(快照版) | Fun-ASR录音文件识别发布了全新快照版模型,优化远场语音活动检测(VAD)以提升识别准确率与稳定性,并在原有中英文识别基础上新增支持中文多地方言及日语。录音文件识别-Fun-ASR/Paraformer |
多语言翻译 | 2025-11-11 | qwen-mt-flash | 相较于qwen-mt-turbo支持流式增量输出,整体性能表现有所提升。翻译能力(Qwen-MT) |
图生视频 | 2025-11-10 | wan2.2-animate-move | 支持将模板视频中角色的动作和表情,迁移至单张静态人物图片上,生成人物动作视频。万相-图生动作 |
图生视频 | 2025-11-10 | wan2.2-animate-mix | 能够依据人物图片和参考视频,将视频中的主角替换为图片中的角色,同时保留原视频的场景、光照和色调,实现无缝人物替换。万相-视频换人 |
推理模型 | 2025-11-03 | qwen3-max-preview | qwen3-max-preview 模型的思考模式:在整体推理能力上显著提升,尤其在智能体编程、常识推理,以及数学、科学和通用任务方面表现更优。深度思考 |
图像编辑 | 2025-10-31 | qwen-image-edit-plus、qwen-image-edit-plus-2025-10-30 | 在qwen-image-edit的基础上优化了推理性能与系统稳定性,大幅缩短图像生成与编辑的响应时间,且支持单次请求返回多张图片。图像编辑-千问 |
实时语音识别 | 2025-10-27 | qwen3-asr-flash-realtime、qwen3-asr-flash-realtime-2025-10-27 | 千问实时语音识别大模型具备自动语种识别功能,可识别 11 种语音类型,并能在复杂音频环境下较为准确地转录。实时语音识别-千问 |
视觉理解 | 2025-10-21 | qwen3-vl-32b-thinking、qwen3-vl-32b-instruct | Qwen3-VL系列 32B 的Dense模型,综合表现仅次于Qwen3-VL-235B模型,文档识别和理解、空间感知与万物识别、视觉2D检测/空间推理能力均表现出色,适合通用场景下的复杂感知任务。图像与视频理解 |
视觉理解 | 2025-10-16 | qwen3-vl-flash、qwen3-vl-flash-2025-10-15 | Qwen3系列小尺寸视觉理解模型,实现思考模式和非思考模式的有效融合,相较于开源版Qwen3-VL-30B-A3B,效果更优,响应速度更快。图像与视频理解 |
视觉理解 | 2025-10-14 | qwen3-vl-8b-thinking、qwen3-vl-8b-instruct | Qwen3-VL系列 8B 的Dense模型,占用显存更低,能够完成多模态理解与推理;支持长视频长文档等超长上下文、视觉2D/3D定位;全面空间感知与万物识别能力。图像与视频理解 |
视觉理解 | 2025-10-03 | qwen3-vl-30b-a3b-thinking、qwen3-vl-30b-a3b-instruct | 基于Qwen3-VL新一代开源模型,响应速度快,具备更强多模态理解与推理、视觉智能体、长视频长文档等超长上下文支持能力;全面升级空间感知与万物识别能力,胜任复杂现实任务。图像与视频理解 |
视觉理解 | 2025-09-23 | qwen3-vl-plus、qwen3-vl-plus-2025-09-23、qwen3-vl-235b-a22b-thinking、qwen3-vl-235b-a22b-instruct | Qwen3系列视觉理解模型,实现思考模式和非思考模式的有效融合,视觉智能体能力达到世界顶尖水平。此版本在视觉编码、空间感知、多模态思考等方向全面升级;视觉感知与识别能力大幅提升。图像与视频理解 |
文生图 | 2025-09-23 | qwen-image-plus | 在复杂文本渲染方面表现突出,特别是中英文文本渲染,可实现复杂的图文混合布局,相较于qwen-image更具价格优势。文生图(Qwen-Image) |
代码模型 | 2025-09-23 | qwen3-coder-plus-2025-09-23 | 相较上一版本(7月22日快照)在下游任务效果和工具调用方面鲁棒性有所提升,代码安全性增强。代码能力(Qwen-Coder) |
推理模型 | 2025-09-11 | qwen-plus-2025-09-11 | 属于 Qwen3 系列模型,相较于qwen-plus-2025-07-28,在思考模式下提升了指令遵循能力、总结回复更加精简,详见深度思考。在非思考模式下中文理解与逻辑推理能力得到增强,详见文本生成模型概述。 |
推理模型 | 2025-09-11 | qwen3-next-80b-a3b-thinking、qwen3-next-80b-a3b-instruct | 基于Qwen3的新一代开源模型,thinking模型相较于qwen3-235b-a22b-thinking-2507提升了指令遵循能力,总结回复更加精简,详见深度思考。instruct模型相较于qwen3-235b-a22b-instruct-2507增强了中文理解、逻辑推理及文本生成能力,详见文本生成模型概述。 |
文生文 | 2025-09-05 | qwen3-max-preview | 基于Qwen3的Qwen-Max模型(预览版),相较Qwen 2.5系列整体通用能力有大幅度提升,中英文通用文本理解能力、复杂指令遵循能力、主观开放任务能力、多语言能力、工具调用能力均显著增强;模型知识幻觉更少。千问Max |
图像编辑 | 2025-08-19 | qwen-image-edit | 千问图像编辑模型支持精准的中英双语文字编辑、调色、细节增强、风格迁移、增删物体、改变位置和动作等操作,可实现复杂的图文编辑。图像编辑-千问 |
视觉理解 | 2025-08-18 | qwen-vl-plus-2025-08-15 | 视觉理解模型。在物体识别与定位、多语言处理的能力上有显著提升。图像与视频理解 |
文生图 | 2025-08-14 | qwen-image | Qwen-Image模型在复杂文本渲染方面表现突出,特别是中英文文本渲染,可实现复杂的图文混合布局。文生图(Qwen-Image) |
视觉理解 | 2025-08-13 | qwen-vl-max-2025-08-13 | 视觉理解模型。视觉理解指标全面提升,数学、推理、物体识别、多语言处理能力显著增强。图像与视频理解 |
代码模型 | 2025-08-05 | qwen3-coder-flash、qwen3-coder-flash-2025-07-28 | 千问Coder系列速度最快、成本最低的模型。代码能力(Qwen-Coder)。 |
推理模型 | 2025-08-05 | qwen-flash、qwen-flash-2025-07-28 | 千问系列速度最快、成本极低的模型,适合简单任务。模型列表 |
推理模型 | 2025-07-30 | qwen-plus-2025-07-28 | 属于 Qwen3 系列模型,相较于上一版模型,将上下文长度提高到了1,000,000。思考模式请参见深度思考,非思考模式请参见文本生成模型概述。 |
推理模型 | 2025-07-30 | qwen3-30b-a3b-thinking-2507 qwen3-30b-a3b-instruct-2507 | 是qwen3-30b-a3b的升级版。thinking模型逻辑能力、通用能力、知识增强及创作能力提升,参见深度思考。instruct模型创作能力与模型安全性提升,参见文本生成模型概述。 |
图生视频 | 2025-07-28 | wan2.2-i2v-plus | 相较 2.1 模型,新版本在画面细节表现和运动稳定性方面均有显著提升,生成速度提升达 50%。首帧生视频 |
文生视频 | 2025-07-28 | wan2.2-t2v-plus | 相较 2.1 模型,新版本在画面细节表现和运动稳定性方面均有显著提升,生成速度提升达 50%。文生视频 |
文生图 | 2025-07-28 | wan2.2-t2i-flash、wan2.2-t2i-plus | 相较 2.1 模型,新版本在创意性、稳定性、写实质感上全面升级,生成速度提升达 50%。文生图 |
推理模型 | 2025-07-24 | qwen3-235b-a22b-thinking-2507、qwen3-235b-a22b-instruct-2507 | 是qwen3-235b-a22b的升级版。thinking模型逻辑能力、通用能力、知识增强及创作能力均有大幅提升,适用于高难度强推理场景,参见深度思考。instruct模型创作能力与模型安全性均有提升,参见文本生成模型概述。 |
代码模型 | 2025-07-23 | qwen3-coder、qwen3-coder-plus-2025-07-22 | 基于 Qwen3 的代码生成模型,具有强大的Coding Agent能力,擅长工具调用和环境交互,代码能力卓越的同时兼具通用能力。代码能力(Qwen-Coder) |
视觉理解 | 2025-06-04 | qwen-vl-plus-2025-05-07 | 视觉理解模型。模型在数学、推理、监控视频内容的理解方面的能力有显著提升。图像与视频理解 |
文生图 | 2025-05-22 | wan2.1-t2i-turbo、wan2.1-t2i-plus | 一句话生成图像。模型支持生成任意分辨率、任意比例、最高200万像素的图像,提供极速版(turbo)与专业版(plus)两种版本。文生图 |
视觉理解 | 2025-05-16 | qwen-vl-max-2025-04-08 | 视觉理解模型。数学和推理能力有所提升,回复风格面向人类偏好进行调整,模型回复详实程度和格式清晰度明显改善。图像与视频理解 |
视觉理解 | 2025-05-16 | qwen-vl-plus-2025-01-25 | 视觉理解模型。属于Qwen2.5-VL系列模型,相较于上一版模型,扩展上下文至128k,显著增强图像和视频的理解能力。 |
视频编辑 | 2025-05-19 | wan2.1-vace-plus | 通用视频编辑模型。模型具备多模态输入能力,融合图片、视频与文本提示词,可执行图生视频(参考图像主体或背景生成视频)、视频重绘(从输入视频中提取运动特征生成视频)等多种任务。通用视频编辑 |
推理模型 | 2025-04-28 | Qwen3商业版模型 qwen-plus-2025-04-28、qwen-turbo-2025-04-28 Qwen3开源版模型 qwen3-235b-a22b、qwen3-30b-a3b、qwen3-32b、qwen3-14b、qwen3-8b、qwen3-4b、qwen3-1.7b、qwen3-0.6b | Qwen3 模型支持思考模式和非思考模式,您可以通过
|
文生视频 | 2025-04-21 | wan2.1-t2v-turbo、wan2.1-t2v-plus |
|
图生视频 | 2025-04-21 | wan2.1-kf2v-plus、wan2.1-i2v-turbo、wan2.1-i2v-plus、 | |
视觉推理 | 2025-03-28 | qvq-max、qvq-max-latest、qvq-max-2025-03-25 | 视觉推理模型。支持视觉输入及思维链输出,在数学、编程、视觉分析、创作以及通用任务上都表现出更强的能力。视觉推理 |
全模态 | 2025-03-26 | qwen2.5-omni-7b | 千问全新多模态理解生成大模型,支持文本、图像、语音与视频输入,并输出文本与音频,提供了2种自然对话音色。使用方法请参见非实时(Qwen-Omni)。 |
视觉理解 | 2025-03-24 | qwen2.5-vl-32b-instruct | 视觉理解模型。在数学问题的解答方面达到了接近Qwen2.5VL-72B的水平,回复风格面向人类偏好进行大幅调整,尤其是数学、逻辑推理、知识问答等客观类问题,模型回复详实程度和格式清晰度明显改善。图像与视频理解 |
推理模型 | 2025-03-06 | qwq-plus | 基于 Qwen2.5 模型训练的 QwQ 推理模型,通过强化学习大幅度提升了模型推理能力。模型数学代码等核心指标(AIME 24/25、LiveCodeBench)以及部分通用指标(IFEval、LiveBench等)达到DeepSeek-R1 满血版水平。深度思考 |
视觉理解 | 2025-01-27 | qwen2.5-vl-3b-instruct qwen2.5-vl-7b-instruct qwen2.5-vl-72b-instruct |
|
文生文 | 2025-01-27 | qwen-max-2025-01-25 qwen2.5-14b-instruct-1m qwen2.5-7b-instruct-1m |
|
文生文 | 2025-01-17 | qwen-plus-2025-01-12 |
|
多语言翻译 | 2024-12-25 | qwen-mt-plus qwen-mt-turbo |
|
视觉理解 | 2024-12-18 | qwen2-vl-72b-instruct |
|
美国
在美国部署模式下,接入点与数据存储均位于美国(弗吉尼亚)地域,模型推理计算资源仅限于美国境内。
模型类型 | 时间 | 模型规格 | 功能说明 |
视觉理解 | 2026-03-14 | qwen3-vl-flash-2026-01-22-us | 千问VL的全新快照版模型,有效融合了思考模式与非思考模式,相较于 2025 年 10 月 15 日的快照版本,显著提升了模型的整体性能,在通用视觉识别、安防、巡店、巡检、拍照解题等业务场景中实现了更高准确率的推理。图像与视频理解 |
图生视频-基于首帧 | 2026-01-04 | wan2.6-i2v-us | 新增多镜头叙事能力,支持音频能力,支持自动配音,或传入自定义音频文件。万相-图生视频-基于首帧 |
文生视频 | 2026-01-04 | wan2.6-t2v-us | 新增多镜头叙事能力,支持音频能力,支持自动配音,或传入自定义音频文件。万相-文生视频 |
语音识别 | 2026-01-04 | qwen3-asr-flash-us、qwen3-asr-flash-2025-09-08-us | 支持任意采样率和声道的音频。录音文件识别-千问 |
视觉理解 | 2026-01-04 | qwen3-vl-flash-us、qwen3-vl-flash-2025-10-15-us | Qwen3系列小尺寸视觉理解模型,实现思考模式和非思考模式的有效融合,相较于开源版Qwen3-VL-30B-A3B,效果更优,响应速度更快。图像与视频理解 |
推理模型 | 2026-01-04 | qwen-plus-2025-12-01-us | 属于 Qwen3 系列模型,相较于qwen-plus-2025-07-28,在思考模式下提升了指令遵循能力、总结回复更加精简,详见深度思考。在非思考模式下中文理解与逻辑推理能力得到增强,详见文本生成模型概述。 |
推理模型 | 2026-01-04 | qwen-plus-us | 能力均衡,推理效果、成本和速度介于千问Max和千问Flash之间,适合中等复杂任务。模型列表 |
文生文 | 2026-01-04 | qwen-flash-us、qwen-flash-2025-07-28-us | 千问系列速度最快、成本极低的模型,适合简单任务。千问Flash |
中国内地
在中国内地部署模式下,接入点与数据存储均位于北京地域,模型推理计算资源仅限于中国内地。
模型类型 | 时间 | 模型规格 | 功能说明 |
全模态 | 2026-03-30 | qwen3.5-omni-plus、qwen3.5-omni-plus-2026-03-15、qwen3.5-omni-flash、qwen3.5-omni-flash-2026-03-15 | 最新一代全模态大模型,支持长视频分析、会议纪要、字幕输出、安全审核、音视频交互;支持音视频内容的深度理解与生成描述,支持 113 种语言识别和 36 种语言的音频生成,可处理 3 小时音频及1 小时视频输入,支持联网搜索及指令来控制输出音频的音量、语速、情绪。非实时(Qwen-Omni) |
全模态 | 2026-03-30 | qwen3.5-omni-plus-realtime、qwen3.5-omni-plus-realtime-2026-03-15、qwen3.5-omni-flash-realtime、qwen3.5-omni-flash-realtime-2026-03-15 | 千问最新推出的实时多模态模型,相比于上一代的 Qwen3-Omni-Flash-Realtime:模型智力大幅提升,与 Qwen3.5-Plus 智能水平相当。原生支持联网搜索(WebSearch),支持语音打断和控制;支持 113 种语种和方言的语音识别,以及 36 种语种和方言的语音生成。实时(Qwen-Omni-Realtime) |
推理模型 | 2026-03-11 | MiniMax-M2.5 | 稀宇科技(MiniMax)推出的新模型,响应速度快,擅长编程、办公等任务。使用方法 |
语音识别 | 2026-03-05 | fun-asr-realtime-2026-02-28 | Fun-ASR实时语音识别新增快照模型,较 fun-asr-realtime-2025-11-07 效果更优。实时语音识别-Fun-ASR/Paraformer |
图像生成与编辑 | 2026-03-03 | qwen-image-2.0、qwen-image-2.0-2026-03-03、qwen-image-2.0-pro、qwen-image-2.0-pro-2026-03-03 | 千问-Image2.0系列,同时支持图像生成和编辑。Pro系列文字渲染、真实质感、语义遵循能力更强。;加速版兼顾效果与响应速度。千问-文生图、千问-图像编辑 |
语音识别 | 2026-03-03 | qwen3-asr-flash-2026-02-10 | 千问录音文件识别新增快照模型,较 qwen3-asr-flash-2025-09-08 效果更优。录音文件识别-千问 |
语音合成 | 2026-03-02 | cosyvoice-v3.5-plus、cosyvoice-v3.5-flash | CosyVoice3.5 模型上线,专注声音复刻与设计,支持指令控制语音合成效果。实时语音合成-CosyVoice |
推理模型 | 2026-02-24 | qwen3.5-flash、qwen3.5-flash-2026-02-23、qwen3.5-122b-a10b、qwen3.5-27b、qwen3.5-35b-a3b | 阿里巴巴推出的最新模型千问3.5-Flash和开源模型,支持文本、图像和视频输入,响应速度快,综合表现接近qwen3.5-plus,支持内置工具调用。文本生成模型概述 |
代码模型 | 2026-02-20 | qwen3-coder-next | Qwen3系列新一代开源代码生成模型,支持多轮工具交互,提升了对仓库级别代码的理解能力和对AI编程工具的适配性。代码能力(Qwen-Coder) |
推理模型 | 2026-02-18 | glm-5 | 智谱推出的最新模型,专为编程与智能体场景打造,擅长复杂的系统工程与长程Agent任务。GLM |
推理模型 | 2026-02-16 | qwen3.5-plus、qwen3.5-plus-2026-02-15、qwen3.5-397b-a17b | 阿里巴巴推出的最新模型千问3.5-Plus和开源模型,支持文本、图像和视频输入,在语言理解、逻辑推理、代码生成、智能体任务、图像理解、视频理解、图形用户界面(GUI)等多种任务中表现卓越,支持内置工具调用。文本生成模型概述 |
语音识别 | 2026-02-13 | qwen3-asr-flash-realtime-2026-02-10 | 千问实时语音识别新增最新快照模型,较 qwen3-asr-flash-realtime-2025-10-27 效果更优。实时语音识别-千问 |
语音识别 | 2026-02-12 | fun-asr-flash-8k-realtime、fun-asr-flash-8k-realtime-2026-01-28 | 新增基于Fun-ASR大模型架构的小尺寸ASR模型,专为8kHz场景优化,适合对成本敏感的客户。实时语音识别-Fun-ASR/Paraformer |
语音合成 | 2026-02-10 | qwen3-tts-instruct-flash、qwen3-tts-instruct-flash-2026-01-26 | 千问语音合成上线Instruct(指令控制)模型,支持通过自然语言指令精准控制合成效果。语音合成-千问 |
语音合成 | 2026-02-10 | qwen3-tts-vd-2026-01-26 | 千问语音合成上线声音设计模型,可通过文本描述创建定制化音色。语音合成-千问 |
语音合成 | 2026-02-10 | qwen3-tts-vc-2026-01-22 | 千问语音合成上线声音复刻模型,可基于真实音频样本快速复刻音色。语音合成-千问 |
语音合成 | 2026-02-04 | qwen3-tts-instruct-flash-realtime、qwen3-tts-instruct-flash-realtime-2026-01-22 | 千问实时语音合成新增Instruct(指令控制)模型,支持通过自然语言指令精准控制合成效果。实时语音合成-千问 |
参考生视频 | 2026-02-02 | wan2.6-r2v-flash | 基于参考视频和图像的角色形象,生成多镜头视频,支持自动配音。万相-参考生视频 |
文生文与视觉理解 | 2026-01-30 | kimi-k2.5 | 由月之暗面(Moonshot AI)公司推出的视觉理解模型,在代码生成、视觉理解等通用智能任务中表现突出。同时支持图像、视频与文本输入、对话与 Agent 任务。Kimi-阿里云 |
语音识别 | 2026-01-28 | qwen3-asr-flash-filetrans、qwen3-asr-flash-filetrans-2025-11-17 | 千问3-ASR-Flash-Filetrans系列模型现已支持词级别时间戳,通过设置新参数 |
推理模型 | 2026-01-27 | qwen3-max-2026-01-23 | 相较于 2025 年 9 月 23 日的快照版本,有效融合了思考模式与非思考模式,显著提升了模型的整体性能。在思考模式下,模型集成了 Web 搜索、网页信息提取和代码解释器三项工具,通过在思考过程中引入外部工具,在复杂问题上实现更高的准确率。OpenAI兼容-Responses |
视觉理解 | 2026-01-23 | qwen3-vl-flash-2026-01-22 | 千问VL的全新快照版模型,有效融合了思考模式与非思考模式,相较于 2025 年 10 月 15 日的快照版本,显著提升了模型的整体性能,在通用视觉识别、安防、巡店、巡检、拍照解题等业务场景中实现了更高准确率的推理。图像与视频理解 |
图生视频 | 2026-01-17 | wan2.6-i2v-flash | 支持生成有声与无声视频,两类视频按各自计费规则独立计费;同时具备多镜头叙事能力与音频处理能力。万相-图生视频-基于首帧 |
图像编辑 | 2026-01-17 | qwen-image-edit-max、qwen-image-edit-max-2026-01-16 | 千问图像编辑模型Max系列,具备更稳定、丰富的编辑能力,增强了工业设计与几何推理能力,并提升了角色一致性与编辑的精准度。图像编辑-千问 |
语音合成 | 2026-01-16 | qwen3-tts-vc-realtime-2026-01-15 | 千问实时语音合成新增最新快照模型,声音复刻(Qwen)效果进一步优化,较 qwen3-tts-vc-realtime-2025-11-27 更自然、更贴近原声。实时语音合成-千问 |
文生图 | 2026-01-12 | qwen-image-plus-2026-01-09 | 千问图像生成的全新快照版模型,为qwen-image-max的蒸馏加速版,支持快速生成高质量图像。千问-文生图 |
推理模型 | 2026-01-12 | deepseek-v3.2 | deepseek-v3.2 模型支持隐式缓存与显式缓存,可提升响应速度,并在不影响回复效果的前提下降低使用成本。上下文缓存 |
图生视频 | 2026-01-08 | wan2.2-kf2v-flash | 基于输入的首帧和尾帧图片,模型能够根据提示词生成一段丝滑流畅的动态视频。首尾帧生视频 |
语音识别 | 2026-01-06 | qwen3-asr-flash、qwen3-asr-flash-2025-09-08 | 千问3-ASR-Flash支持OpenAI兼容模式。录音文件识别-千问 |
语音合成 | 2026-01-05 | cosyvoice-v3-flash | 语音合成CosyVoice新增24个音色(详情请参见音色列表):
|
文生图 | 2025-12-31 | qwen-image-max、qwen-image-max-2025-12-30 | 千问图像生成模型Max系列,相较于Plus系列提升了图像的真实感与自然度,有效降低了AI合成痕迹,在人物质感、纹理细节和文字渲染等方面表现突出。千问-文生图 |
图像编辑 | 2025-12-23 | qwen-image-edit-plus-2025-12-15 | 千问图像编辑发布的最新快照模型,相较于上一版本提升了角色一致性、工业设计能力和几何推理能力,并优化了编辑后的图片与原图在空间布局、纹理和风格上的匹配度,编辑效果更精准。图像编辑-千问 |
文生图 | 2025-12-19 | z-image-turbo | 轻量级文生图模型,可快速生成高质量图像,支持中英双语渲染、复杂语义理解和多风格题材,并可灵活适配多种分辨率与宽高比。文生图Z-Image |
视觉理解 | 2025-12-19 | qwen3-vl-plus-2025-12-19 | 千问VL的全新快照版模型,指令遵循能力更强,具有更低的延迟。图像与视频理解 |
语音识别 | 2025-12-19 | qwen3-asr-flash-filetrans、qwen3-asr-flash-filetrans-2025-11-17、qwen3-asr-flash、qwen3-asr-flash-2025-09-08 | 新增捷克语、丹麦语等共 9 种语言的语音识别支持。录音文件识别-千问 |
语音识别 | 2025-12-17 | qwen3-asr-flash-realtime、qwen3-asr-flash-realtime-2025-10-27 | 新增捷克语、丹麦语等共 9 种语言的语音识别支持。实时语音识别-千问 |
语音识别 | 2025-12-17 | qwen3-asr-flash、qwen3-asr-flash-2025-09-08 | 支持任意采样率和声道的音频。录音文件识别-千问 |
语音识别 | 2025-12-17 | fun-asr-mtl、fun-asr-mtl-2025-08-25 | 支持对中、英、日、韩等共 31 种语言的语音识别,尤其适合东南亚出海场景。录音文件识别-Fun-ASR/Paraformer |
语音合成 | 2025-12-16 | qwen3-tts-vd-realtime-2025-12-16(快照版) | 千问实时语音合成发布全新快照版模型,可使用声音设计(Qwen)生成的音色进行低延迟、高稳定性的实时合成;支持多语言输出;能根据文本自动调节语气,并优化复杂文本的合成表现。实时语音合成-千问 |
文生图 | 2025-12-16 | wan2.6-t2i | 新增同步接口。支持在总像素面积与宽高比约束内,自由选尺寸。万相-文生图V2 |
图像生成与编辑 | 2025-12-16 | wan2.6-image | 支持图像编辑和图文混合输出。万相-图像生成与编辑2.6 |
图生视频-基于首帧 | 2025-12-16 | wan2.6-i2v | 新增多镜头叙事能力,支持音频能力,支持自动配音,或传入自定义音频文件。万相-图生视频-基于首帧 |
参考生视频 | 2025-12-16 | wan2.6-r2v | 基于参考视频的角色形象和音色,生成多镜头视频,支持自动配音。万相-参考生视频 |
文生视频 | 2025-12-16 | wan2.6-t2v | 新增多镜头叙事能力,支持音频能力,支持自动配音,或传入自定义音频文件。文生视频 |
语音识别 | 2025-12-12 | fun-asr、fun-asr-2025-11-07 | Fun-ASR录音文件识别功能更新:
|
语音合成 | 2025-12-11 | cosyvoice-v3-flash、cosyvoice-v3-plus |
|
全模态 | 2025-12-04 | qwen3-omni-flash-2025-12-01 | 千问Omni发布的最新快照模型,支持的音色增加至49种,模型的指令跟随能力大幅升级,能高效理解文本、图像、音频、视频。非实时(Qwen-Omni) |
实时多模态 | 2025-12-04 | qwen3-omni-flash-realtime-2025-12-01 | 千问Omni 实时版发布的最新快照模型,提供了低延迟的多模态交互能力,支持的音色增加至49种,模型的指令跟随能力和交互体验大幅升级。实时(Qwen-Omni-Realtime) |
语音翻译 | 2025-12-04 | qwen3-livetranslate-flash、qwen3-livetranslate-flash-2025-12-01 | 千问3-LiveTranslate-Flash 是音视频翻译模型,支持 18 种语言(包括中文、英文、俄文、法文等)互译,可结合视觉上下文提升翻译准确性,并输出文本与语音。音视频文件翻译-千问 |
推理模型 | 2025-12-04 | deepseek-v3.2 | DeepSeek-V3.2是引入DeepSeek Sparse Attention(一种稀疏注意力机制)的正式版模型,也是DeepSeek推出的首个将思考融入工具使用的模型,同时支持思考模式与非思考模式的工具调用。 |
多语言翻译 | 2025-12-02 | qwen-mt-lite | 千问基础级文本翻译大模型,支持31个语种互译,相较于qwen-mt-flash响应更快,成本更低,适用于等对延迟敏感的场景。翻译能力(Qwen-MT) |
声音复刻 | 2025-11-27 | qwen-voice-enrollment | 千问发布声音复刻模型,仅需 5 秒以上音频即可快速生成高相似度声音。结合qwen3-tts-vc-realtime-2025-11-27模型使用,可高保真复刻并实时输出某人的声音,覆盖 11 种语言。声音复刻(Qwen) |
语音合成 | 2025-11-27 | qwen3-tts-vc-realtime-2025-11-27(快照版) | 千问实时语音合成发布全新快照版模型,可使用声音复刻(Qwen)生成的音色进行低延迟、高稳定性的实时合成;支持多语言输出;能根据文本自动调节语气,并优化复杂文本的合成表现。实时语音合成-千问 |
语音合成 | 2025-11-27 | qwen3-tts-flash-realtime-2025-11-27(快照版) | 千问实时语音合成发布全新快照版模型,低延迟且稳定性高;音色更丰富,同一音色支持多语言输出;能根据文本自动调节语气,并提升复杂文本的合成表现。实时语音合成-千问 |
语音合成 | 2025-11-27 | qwen3-tts-flash-2025-11-27(快照版) | 千问语音合成发布全新快照版模型,音色更丰富;同一音色支持多语言输出;可自适应文本调节语气,并优化复杂文本的合成能力。语音合成-千问 |
文字提取 | 2025-11-21 | qwen-vl-ocr-2025-11-20(快照版) | 千问文字提取模型,该快照版基于Qwen3-VL架构,大幅提升文档解析、文字定位能力。文字提取 |
语音识别 | 2025-11-20 | qwen3-asr-flash-filetrans、qwen3-asr-flash-filetrans-2025-11-17(快照版) | 千问录音文件识别发布了新模型,专为音频文件的异步转写设计,支持最长12小时录音。录音文件识别-千问 |
语音合成 | 2025-11-19 | cosyvoice-v3-flash | 较之前版本提升了发音准确性、音色相似度,并且增加了更多小语种支持(德、西、法、意、俄)。实时语音合成-CosyVoice |
推理模型 | 2025-11-11 | kimi-k2-thinking | 由月之暗面(Moonshot AI)公司推出的思考模型,具有通用智能体能力和推理能力,擅长深度推理,并能通过多步工具调用解决各类难题。Kimi-阿里云 |
多语言翻译 | 2025-11-10 | qwen-mt-flash | 相较于qwen-mt-turbo支持流式增量输出,整体性能表现有所提升。翻译能力(Qwen-MT) |
图生视频 | 2025-11-04 | wan2.2-animate-mix | 能够依据人物图片和参考视频,将视频中的主角替换为图片中的角色,同时保留原视频的场景、光照和色调,实现无缝人物替换。万相-视频换人 |
推理模型 | 2025-11-03 | qwen3-max-preview | qwen3-max-preview 模型的思考模式:在整体推理能力上显著提升,尤其在智能体编程、常识推理,以及数学、科学和通用任务方面表现更优。深度思考 |
图生视频 | 2025-11-03 | wan2.2-animate-move | 支持将模板视频中角色的动作和表情,迁移至单张静态人物图片上,生成人物动作视频。万相-图生动作 |
图像编辑 | 2025-10-31 | qwen-image-edit-plus、qwen-image-edit-plus-2025-10-30 | 在qwen-image-edit的基础上优化了推理性能与系统稳定性,大幅缩短图像生成与编辑的响应时间,且支持单次请求返回多张图片。图像编辑-千问 |
实时语音识别 | 2025-10-27 | qwen3-asr-flash-realtime、qwen3-asr-flash-realtime-2025-10-27 | 千问实时语音识别大模型具备自动语种识别功能,可识别 11 种语音类型,并能在复杂音频环境下较为准确地转录。实时语音识别-千问 |
视觉理解 | 2025-10-21 | qwen3-vl-32b-thinking、qwen3-vl-32b-instruct | Qwen3-VL系列 32B 的Dense模型,综合表现仅次于Qwen3-VL-235B模型,文档识别和理解、空间感知与万物识别能力强、视觉2D检测/空间推理能力均表现出色,适合通用场景下的复杂感知任务。图像与视频理解 |
视觉理解 | 2025-10-16 | qwen3-vl-flash、qwen3-vl-flash-2025-10-15 | Qwen3系列小尺寸视觉理解模型,实现思考模式和非思考模式的有效融合,相较于开源版Qwen3-VL-30B-A3B,效果更优,响应速度更快。图像与视频理解 |
视觉理解 | 2025-10-14 | qwen3-vl-8b-thinking、qwen3-vl-8b-instruct | Qwen3-VL系列 8B 的Dense开源模型,提供思考和非思考两个版本。占用显存更低,能够完成多模态理解与推理;支持长视频长文档等超长上下文、视觉2D/3D定位;全面空间感知与万物识别能力。图像与视频理解 |
视觉理解 | 2025-10-03 | qwen3-vl-30b-a3b-thinking、qwen3-vl-30b-a3b-instruct | 基于Qwen3-VL新一代开源模型,提供思考和非思考两个版本。响应速度快,具备更强多模态理解与推理、视觉智能体、长视频长文档等超长上下文支持能力;全面升级空间感知与万物识别能力,胜任复杂现实任务。图像与视频理解 |
推理模型 | 2025-09-30 | deepseek-v3.2-exp | 混合推理架构模型,同时支持思考模式与非思考模式,引入稀疏注意力机制,旨在提升处理长文本时的训练与推理效率,价格低于 deepseek-v3.1。详情参见DeepSeek。 |
文生图 | 2025-09-23 | qwen-image-plus | 在复杂文本渲染方面表现突出,特别是中英文文本渲染,可实现复杂的图文混合布局,相较于qwen-image更具价格优势。文生图(Qwen-Image) |
视觉理解 | 2025-09-23 | qwen3-vl-plus、qwen3-vl-plus-2025-09-23、qwen3-vl-235b-a22b-thinking、qwen3-vl-235b-a22b-instruct | Qwen3系列视觉理解模型,实现思考模式和非思考模式的有效融合,视觉智能体能力达到世界顶尖水平。此版本在视觉编码、空间感知、多模态思考等方向全面升级;视觉感知与识别能力大幅提升。图像与视频理解 |
代码模型 | 2025-09-23 | qwen3-coder-plus-2025-09-23 | 相较上一版本(7月22日快照)在下游任务效果和工具调用方面鲁棒性有所提升,代码安全性增强。代码能力(Qwen-Coder) |
推理模型 | 2025-09-11 | qwen-plus-2025-09-11 | 属于 Qwen3 系列模型,相较于qwen-plus-2025-07-28,在思考模式下提升了指令遵循能力、总结回复更加精简,详见深度思考。在非思考模式下中文理解与逻辑推理能力得到增强,详见文本生成模型概述。 |
推理模型 | 2025-09-11 | qwen3-next-80b-a3b-thinking、qwen3-next-80b-a3b-instruct | 基于Qwen3的新一代开源模型,thinking模型相较于qwen3-235b-a22b-thinking-2507提升了指令遵循能力,总结回复更加精简,详见深度思考。instruct模型相较于qwen3-235b-a22b-instruct-2507增强了中文理解、逻辑推理及文本生成能力,详见文本生成模型概述。 |
文生文 | 2025-09-05 | qwen3-max-preview | 基于Qwen3的Qwen-Max模型(预览版),相较Qwen 2.5系列整体通用能力有大幅度提升,中英文通用文本理解能力、复杂指令遵循能力、主观开放任务能力、多语言能力、工具调用能力均显著增强;模型知识幻觉更少。千问Max |
文本、图像、视频、语音等 | 2025-08-05 | 北京地域首次上线。 |
中国香港
在中国香港部署模式下,接入点与数据存储均位于中国香港,模型推理计算资源仅限于中国香港。
模型类型 | 时间 | 模型规格 | 功能说明 |
推理模型 | 2026-03-17 | qwen3-max、qwen3-max-2026-01-23 | 相较于 2025 年 9 月 23 日的快照版本,有效融合了思考模式与非思考模式,显著提升了模型的整体性能。 |
推理模型 | 2026-03-17 | qwen-plus、qwen-plus-2025-12-01 | 属于 Qwen3 系列模型,相较于qwen-plus-2025-07-28,在思考模式下提升了指令遵循能力、总结回复更加精简,详见深度思考。在非思考模式下中文理解与逻辑推理能力得到增强,详见文本生成模型概述。 |
推理模型 | 2026-03-17 | qwen3.5-flash、qwen3.5-flash-2026-02-23 | 阿里巴巴推出的最新模型千问3.5-Flash和开源模型,支持文本、图像和视频输入,响应速度快。文本生成模型概述 |
视觉理解 | 2026-03-17 | qwen3-vl-plus、qwen3-vl-plus-2025-12-19 | Qwen3系列视觉理解模型,实现思考模式和非思考模式的有效融合,视觉智能体能力达到世界顶尖水平。此版本在视觉编码、空间感知、多模态思考等方向全面升级;视觉感知与识别能力大幅提升,指令遵循能力更强,具有更低的延迟。图像与视频理解 |
欧盟
在欧盟部署模式下,接入点与数据存储均位于德国(法兰克福),模型推理计算资源仅限于欧盟境内。
模型类型 | 时间 | 模型规格 | 功能说明 |
推理模型 | 2026-03-20 | qwen3-max、qwen3-max-2026-01-23 | 相较于 2025 年 9 月 23 日的快照版本,有效融合了思考模式与非思考模式,显著提升了模型的整体性能。 |
推理模型 | 2026-03-20 | qwen-plus、qwen-plus-2025-12-01 | 属于 Qwen3 系列模型,相较于qwen-plus-2025-07-28,在思考模式下提升了指令遵循能力、总结回复更加精简,详见深度思考。在非思考模式下中文理解与逻辑推理能力得到增强,详见文本生成模型概述。 |
推理模型 | 2026-03-20 | qwen3.5-flash、qwen3.5-flash-2026-02-23 | 阿里巴巴推出的最新模型千问3.5-Flash和开源模型,支持文本、图像和视频输入,响应速度快。文本生成模型概述 |
视觉理解 | 2026-03-20 | qwen3-vl-plus、qwen3-vl-flash、qwen3-vl-flash-2025-10-15 | Qwen3系列视觉理解模型,实现思考模式和非思考模式的有效融合,视觉智能体能力达到世界顶尖水平。此版本在视觉编码、空间感知、多模态思考等方向全面升级;视觉感知与识别能力大幅提升,指令遵循能力更强,具有更低的延迟。图像与视频理解 |
代码能力 | 2026-03-20 | qwen3-coder-next | Qwen3系列新一代开源代码生成模型,支持多轮工具交互,提升了对仓库级别代码的理解能力和对AI编程工具的适配性。代码能力(Qwen-Coder) |