Dataphin系統內建了豐富的大模型,如阿里雲(百鍊)、DeepSeek等,以迎合市場多樣化需求。本文為您介紹模型的相關資訊。
部分模型支援深度思考模式,若不可關閉思考模式,會在表格中進行說明。
模型服務商 | 模型展示名 | 模型ID | 模型說明 | 是否支援深度思考 |
阿里雲(百鍊) | 通義千問-Max | qwen-max | 通義千問系列效果最好的模型,適合複雜、多步驟的任務。 | 否 |
通義千問-Max-Latest | qwen-max-latest | 通義千問系列效果最好的模型,適合複雜、多步驟的任務。始終與最新快照版能力相同。 | 否 | |
通義千問-Plus | qwen-plus | 能力均衡,推理效果、成本和速度介於通義千問-Max和通義千問-Turbo之間,適合中等複雜任務。 | 是 | |
通義千問-Plus-Latest | qwen-plus-latest | 能力均衡,推理效果、成本和速度介於通義千問-Max和通義千問-Turbo之間,適合中等複雜任務。始終與最新快照版能力相同。 | 是 | |
通義千問-Long | qwen-long | 通義千問系列上下文視窗最長,能力均衡且成本較低的模型,適合長文本分析、資訊抽取、總結摘要和分類打標等任務。 | 否 | |
通義千問-Long-Latest | qwen-long-latest | 通義千問系列上下文視窗最長,能力均衡且成本較低的模型,適合長文本分析、資訊抽取、總結摘要和分類打標等任務。始終與最新快照版能力相同。 | 否 | |
Qwen3-32b | qwen3-32b | 通義千問開源版模型,在推理能力、人類偏好能力、Agent能力、多語言能力等方面表現優越。參數規模為32B(32億)。 | 是 | |
Qwen3-235b-a22b | qwen3-235b-a22b | 通義千問開源版模型,在推理能力、人類偏好能力、Agent能力、多語言能力等方面表現優越。參數規模為235B(235億)。 | 是 | |
通義千問Coder | qwen-coder-plus | 通義千問代碼模型。 | 否 | |
DeepSeek-R1 | deepseek-r1 | 【滿血版】具備強大的推理能力,在數學、代碼、自然語言推理等任務上,效能較高,能力較強。 | 是(思考模式不可關閉) | |
DeepSeek-V3 | deepseek-v3 | 自研MoE模型,在長文本、代碼、數學、百科、中文能力上表現優秀。 | 否 | |
DeepSeek-V3.1 | deepseek-v3.1 | 2025年8月20日發布的685B滿血版模型;在長文本、代碼、數學、百科、中文能力上表現優秀。 | 否 | |
Kimi-K2 | Moonshot-Kimi-K2-Instruct | Kimi系列模型是由月之暗面公司(Moonshot AI)推出的MoE語言模型,在前沿知識、推理和編碼任務中表現出卓越效能。 | 否 | |
Qwen3-Next-80B-A3B(Thinking) | qwen3-next-80b-a3b-thinking | 基於Qwen3的新一代思考模式開源模型,相較上一版本(通義千問3-235B-A22B-Thinking-2507)指令遵循能力有提升、模型總結回複更加精簡。 | 是(思考模式不可關閉) | |
Qwen3-Next-80B-A3B(Instruct) | qwen3-next-80b-a3b-instruct | 基於Qwen3的新一代非思考模式開源模型,相較上一版本(通義千問3-235B-A22B-Instruct-2507)中文文本理解能力更佳、邏輯推理能力有增強、文本產生類任務表現更好。 | 否 | |
Qwen3-235B-A22B(Thinking-2507) | qwen3-235b-a22b-thinking-2507 | 基於Qwen3的新一代思考模式開源模型,qwen3-235b-a22b(思考模式)的升級版。 | 是(思考模式不可關閉) | |
Qwen3-235B-A22B(Instruct-2507) | qwen3-235b-a22b-instruct-2507 | 基於Qwen3的新一代非思考模式開源模型,qwen3-235b-a22b(非思考模式)的升級版。 | 否 | |
DeepSeek | DeepSeek-思考模式 | deepseek-reasoner | 【滿血版】具備強大的推理能力,在數學、代碼、自然語言推理等任務上,效能較高,能力較強。 | 是(思考模式不可關閉) |
DeepSeek-非思考模式 | deepseek-chat | 自研MoE模型,在長文本、代碼、數學、百科、中文能力上表現優秀。 | 否 | |
阿里雲(AI Stack) | Qwen3-32B | Qwen3-32B | 通義千問開源版模型,在推理能力、人類偏好能力、Agent能力、多語言能力等方面表現優越。參數規模為32B(32億)。 | 否 |
Qwen3-235B-A22B-Instruct-2507 | Qwen3-235B-A22B-Instruct-2507 | 通義千問系列的一個高效能語言模型,專為複雜任務設計。該模型於2025年7月發布,是Qwen3-235B-A22B的升級版本,支援“非思考模式”。它在推理能力、通用能力和工具調用方面表現出色,適用於需要高精度和複雜邏輯處理的情境。 | 否 |