OpenSearch-LLM智能问答版不仅内置了高性能的大语言模型(LLM),还支持用户从阿里云的“大模型服务平台百炼”中增加新的外部LLM。用户可以根据自身的业务需求,灵活选择和集成最合适的大语言模型,从而提高系统的多样性和适应性。本文介绍如何查看LLM列表和新增外部LLM。本文介绍如何查看LLM列表。
模型列表
选择模型管理->LLM可以查看LLM列表,包括模型名称、模型类型(内置LLM/外部LLM/定制LLM)、创建时间等信息。您还可以进行问答测试等操作。
模型名称 | 模型类型 | 模型简介 |
qwen3-235b-a22b | 内置LLM | 新一代Qwen系列大型语言模型,基于广泛的训练,Qwen3在推理、指令跟随、Agent能力和多语言支持方面取得了突破性进展,可支持100多种语言和方言,具备强大的多语言理解、推理和生成能力。 |
qwen-vl-max | 内置LLM | 通义千问超大规模视觉语言模型。可以支持图片、视频多模态RAG能力,在更多复杂任务上提供最佳的性能。 |
qwen-vl-plus | 内置LLM | 通义千问超大规模视觉语言模型。可以支持图片、视频多模态RAG能力,具备最佳的响应速度。 |
opensearch-qwen | 内置LLM | 基于Qwen-14b,使用检索增强训练数据微调后的模型。 |
opensearch-qwen-plus | 内置LLM | 基于Qwen-72b,使用检索增强训练数据微调后的模型,在相同问题上的效果更加稳定。 |
deepseek-r1 | 内置LLM | deepseek-r1模型,在数学推理等问题上表现更佳。 |
deepseek-r1-distill-qwen-7b | 内置LLM | 阿里云百炼平台中的deepseek-r1-distill-qwen-7b模型。 |
deepseek-r1-distill-qwen-14b | 内置LLM | 阿里云百炼平台中的deepseek-r1-distill-qwen-14b模型。 |
opensearch-llama2-13b | 内置LLM | 基于llama2-13b,使用检索增强训练数据微调后的模型。 |
opensearch-llama2-13b-turbo | 内置LLM | 基于llama2-13b,使用检索增强训练数据微调后的升级版模型。 |
opensearch-llama2-70b | 内置LLM | 基于llama2-70b,使用检索增强训练数据微调后的模型。 |
opensearch-llama3-8b | 内置LLM | 基于llama3-8b,使用检索增强训练数据微调后的模型。 |
qwen-turbo | 内置LLM | 通义千问系列速度最快、成本很低的模型,适合简单任务。 |
qwen-plus | 内置LLM | 通义千问系列能力均衡的模型,推理效果和速度介于qwen-max和qwen-turbo之间,适合中等复杂任务。 |
qwen-max | 内置LLM | 通义千问系列效果最好的模型,适合复杂、多步骤的任务。 |
qwen2-72b-instruct | 内置LLM | 通义千问系列能力均衡的模型,推理效果和速度介于qwen-max和qwen-turbo之间,适合中等复杂任务。本模型是稳定版,后续不会再进行更新。 |
内置LLM仅支持问答测试操作。
外部LLM支持详情、问答测试、编辑、删除操作。
定制LLM支持详情、问答测试、训练模型、删除操作。(仅专业版实例支持定制LLM)