logologo
售前咨询
快手万擎(Vanchin)
开始使用
产品介绍
模型介绍
功能特性
控制台介绍
产品计费
API说明
常见问题
相关协议
文档中心
模型介绍模型列表

模型列表


万擎提供丰富多样的模型选择,集成了多种模型供您使用。您可通过模型列表了解模型相关介绍,依据教程或者API说明,便捷地将模型服务整合到自身业务当中。

推荐模型

模型名称

模型类型

模型简介

模型能力

上下文长度

最大输入Token

最大输出Token

模型默认限流

KAT-Coder-Pro-V1

文本生成

专为 Agentic Coding 设计,全面覆盖编程任务与场景,通过大规模智能体强化学习,实现智能行为涌现,在代码编写性能上显著超越同类模型。

Function Call

256K

256K

32K

RPM:40

TPM:2000000

KAT-Coder-Exp-72B-1010

文本生成

KAT-Coder-Exp-72B 是 KAT-Coder 系列模型中的 RL 创新实验版本,在软件开发能力评测基准 SWE-Bench verified 上取得了 74.6% 的卓越性能,创下开源模型新纪录。专注于 Agentic Coding,目前仅支持 SWE-Agent 脚手架,也可进行简单对话。

-

128K

128K

32K

RPM:20

TPM:2000000

KAT-Coder-Air-V1

文本生成

KAT-Coder 系列模型中的轻量化版本。专为 Agentic Coding 设计,全面覆盖编程任务与场景,通过大规模智能体强化学习,实现智能行为涌现,在代码编写性能上显著超越同类模型。

Function Call

128K

128K

32K

RPM:20

TPM:2000000

文本生成

模型名称

模型类型

模型简介

模型能力

上下文长度

最大输入Token

最大输出Token

模型默认限流

Kimi-K2-Thinking

文本生成

深度思考

Kimi K2 Thinking 是 Moonshot AI 推出的开源思考模型。作为一种能够逐步推理并动态调用工具的智能代理(Agent),Kimi K2 拥有 1T 总参数量(激活参数 32B)和 256k 的上下文窗口。它采用混合专家(MoE)架构,通过端到端的训练,在多步推理深度和工具使用的稳定性方面取得了突破,能够处理复杂的长程任务。

深度思考

Function Call

256K

224K

16K

RPM:30

TPM:10000

GLM-4.7

文本生成

深度思考

GLM-4.7相比GLM-4.6,在多语言Agentic编程、终端任务操作、工具使用以及复杂推理能力上均有显著提升。GLM-4.7进一步增强了思维能力,引入了交错思维(Interleaved Thinking)和保留思维(Preserved Thinking)模式,旨在让智能体更无缝地融入实际工作流,目前已开放API并支持通过vLLM和SGLang进行本地部署。

深度思考

Function Call

200K

72K

128K

RPM:50

TPM:250000

MiniMax-M2.1

文本生成

深度思考

MiniMax-M2.1作为M2版本的重大升级,它不仅保留了高性价比的优势,更显著增强了多语言编程能力,并系统性地引入了交错思维(Interleaved Thinking)。该模型专注于提升在多种编程语言和办公场景下的可用性,致力于帮助企业和个人实现AI原生的工作和生活方式,目前已开放API并支持本地部署。

深度思考

Function Call

200K

72K

128K

RPM:50

TPM:200000

DeepSeek-V3.1-Terminus

文本生成

深度思考

DeepSeek-V3.1-Terminus 是 DeepSeek-V3.1 的更新版本,旨在保持模型原有核心能力的同时,针对用户反馈的问题进行了修复和优化。该版本的模型结构与 DeepSeek-V3 保持一致,并在特定领域进行了显著增强。

Function Call

128K

96K

16K

RPM:500

TPM:1000000

MiniMax-M2

文本生成

深度思考

MiniMax-M2 是一款轻量、快速且极具成本效益的 MoE 模型(230B 总参数,10B 激活参数)。它在保持强大通用智能的同时,专为编码和智能体任务进行了深度优化。凭借仅 10B 的激活参数,它提供了开发者期待的端到端工具使用性能,同时其小巧的“身材”也更易于部署和扩展。

Function Call

200K

72K

128K

RPM:5

TPM:300000

GLM-4.6

文本生成

深度思考

GLM-4.6 是智谱最新的旗舰模型,其总参数量 355B,激活参数 32B,上下文提升至 200K,8 大权威基准全面提升,稳居国产模型首位。在编程、推理、搜索、写作、智能体应用等核心能力均完成对 GLM-4.5 的超越。

Function Call

200K

72K

128K

RPM:100

TPM:1000000

DeepSeek-V3.2-Speciale

文本生成

深度思考

DeepSeek-V3.2 是一款兼顾高计算效率、卓越推理能力和智能体性能的人工智能模型。DeepSeek-V3.2-Speciale是该系列的高计算能力版本,旨在进一步突破推理能力的边界。

-

160K

128K

64K

RPM:500

TPM:100000

DeepSeek-V3.2

文本生成

深度思考

DeepSeek-V3.2 是一款实现了高计算效率与卓越推理及代理(Agent)性能完美协调的模型。通过引入 DeepSeek 稀疏注意力(DSA)、可扩展的强化学习框架以及大规模代理任务合成流水线等关键技术突破,推动了开源大语言模型的前沿发展。

Function Call

160K

128K

64K

RPM:60

TPM:100000

Qwen3-235B-A22B-Instruct-2507

文本生成

Qwen3-235b-A22b-Instruct-2507 是Qwen3-235B-A22B(非思考模式)的升级版,创作能力与模型安全性均有提升。在数学、代码和逻辑推理等评测中,显著超过 QwQ 和同尺寸的非推理模型,达到同规模业界顶尖水平。创意写作、角色扮演、多轮对话、指令遵循能力均大幅提升,通用能力显著超过同尺寸模型。

Function Call

128K

96K

32K

RPM:500

TPM:1000000

Qwen3-30B-A3B-Thinking-2507

文本生成

深度思考

该版本显著提高推理任务的性能,包括逻辑推理、数学、科学、编码和通常需要人类专业知识的学术基准。拥有明显更好的通用能力,例如指令遵循、工具使用、文本生成和与人类偏好的一致性。

Function Call

128K

96K

32K

RPM:500

TPM:1000000

Qwen3-30B-A3B-Instruct-2507

文本生成

Qwen3-30B-A3B 非思考模式的更新版本,一般能力有显著提高,包括遵循指令、逻辑推理、文本理解、数学、科学、编码和工具使用。跨多种语言的长尾知识覆盖率大幅提升。在主观和开放式任务中明显更好地与用户偏好保持一致,从而能够获得更多有用的回应和更高质量的文本生成。

Function Call

128K

96K

32K

RPM:500

TPM:1000000

KAT-Coder-Pro-V1

文本生成

专为 Agentic Coding 设计,全面覆盖编程任务与场景,通过大规模智能体强化学习,实现智能行为涌现,在代码编写性能上显著超越同类模型。

Function Call

256K

256K

32K

RPM:40

TPM:2000000

KAT-Coder-Exp-72B-1010

文本生成

KAT-Coder-Exp-72B 是 KAT-Coder 系列模型中的 RL 创新实验版本,在软件开发能力评测基准 SWE-Bench verified 上取得了 74.6% 的卓越性能,创下开源模型新纪录。专注于 Agentic Coding,目前仅支持 SWE-Agent 脚手架,也可进行简单对话。

-

128K

128K

32K

RPM:20

TPM:2000000

KAT-Coder-Air-V1

文本生成

KAT-Coder 系列模型中的轻量化版本。专为 Agentic Coding 设计,全面覆盖编程任务与场景,通过大规模智能体强化学习,实现智能行为涌现,在代码编写性能上显著超越同类模型。

Function Call

128K

128K

32K

RPM:20

TPM:2000000

Qwen3-235B-A22B-Thinking-2507

文本生成

在数学、代码和逻辑推理等评测中,显著超过 QwQ 和同尺寸的非推理模型,达到同规模业界顶尖水平。创意写作、角色扮演、多轮对话、指令遵循能力均大幅提升,通用能力显著超过同尺寸模型。在推理、非推理两种模式下都达到业界领先水平,能精准调用外部工具。支持100多种语言和方言,多语言翻译、指令理解、常识推理能力都明显提升。

Function Call

128K

124K

32K

RPM:500

TPM:1000000

KAT-Dev-72B-Exp(已下线)

文本生成

KAT-Dev-72B-Exp 是KAT-Coder模型强化学习的实验版本,在软件开发能力评测基准 SWE-Bench verified 上取得了 74.6% 的卓越性能,创下开源模型新纪录。专注于Agentic Coding,目前仅支持SWE-Agent脚手架,也可进行简单对话。

-

128K

128K

64K

RPM:300

TPM:3000000

DeepSeek-V3.2-Exp

文本生成

深度思考

DeepSeek-V3.2-Exp 在 V3.1-Terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),针对长文本的训练和推理效率进行了探索性的优化和验证。

深度思考

128K

128K

16K

RPM:500

TPM:1000000

KAT-Coder(已下线)

文本生成

KAT-Coder 是 KAT 系列中的最强模型,具备专家级的编程能力,能够高效完成功能开发、缺陷分析、单测生成等任务。

Function Call

256K

256K

32K

RPM:20

TPM:2000000

DeepSeek V3.1

文本生成

深度思考

DeepSeek-V3.1 采用混合推理架构,可同时支持思考模式与非思考模式,用户可通过“深度思考”按钮,实现思考模式与非思考模式的自由切换。相比 DeepSeek-R1-0528,DeepSeek-V3.1-Think 显著提升了思考效率,能够在更短时间内提供高质量答案。此外,通过 Post-Training 优化,模型在工具使用与智能体任务中的表现大幅增强。

深度思考

128K

96K

64K

RPM:500

TPM:1000000

DeepSeek R1

文本生成

深度思考

DeepSeek-R1 是由深度求索推出的推理大模型。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。

深度思考

Function Call

128K

96K

16K

RPM:5000

TPM:10000000

Kimi-K2-Instruct

文本生成

Kimi-K2是一款先进的混合专家(MoE)语言模型,拥有320亿个激活参数和1万亿个总参数。Kimi K2采用Muon优化器进行训练,在前沿知识、推理和编码任务中表现出色,同时针对代理能力进行了精心优化。

Function Call

256K

224K

32K

RPM:60

TPM 100000

DeepSeek V3

文本生成

DeepSeek-V3 由 DeepSeek 开源,具备高质量预训练、可扩展的 MoE 架构(Mixture-of-Experts)、以及完整的推理和部署工具链。适合在企业、科研与开源社区中广泛应用。

-

64K

56K

8K

RPM:5000

TPM:10000000

Qwen2.5-7B-Instruct

文本生成

Qwen2.5-7B-Instruct是通义千问团队于 2024 年发布的一款开源大语言模型,属于 Qwen2.5 系列,具有约 70 亿参数。

Function Call

128K

126K

8K

RPM:5000

TPM:5000000

Qwen3-8B

文本生成

深度思考

实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力达到同规模业界SOTA水平、通用能力显著超过Qwen2.5-7B。

深度思考

Function Call

128K

126K(非思考)

96K(思考)

8K

RPM:5000

TPM:5000000

Qwen3-32B

文本生成

深度思考

实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力显著超过QwQ、通用能力显著超过Qwen2.5-32B-Instruct,达到同规模业界SOTA水平。

深度思考

Function Call

128K

126K(非思考)

96K(思考)

16K

RPM:5000

TPM:10000000

Qwen3-30B-A3B

文本生成

深度思考

一个拥有约 300 亿总参数和 30 亿激活参数的小型 MoE 模型。

深度思考

Function Call

128K

126K(非思考)

96K(思考)

16K

RPM:5000

TPM:5000000

多模态

模型名称

模型类型

模型简介

模型能力

上下文长度

最大输入Token

最大输出Token

模型默认限流

DeepSeek-OCR

多模态

图片理解

DeepSeek-OCR以 “探索视觉 - 文本压缩边界” 为核心目标,从大语言模型(LLM)视角重新定义视觉编码器的功能定位,为文档识别、图像转文本等高频场景提供了兼顾精度与效率的全新解决方案。

-

8K

-

8K

RPM:500

TPM:10000000

Qwen3-VL-235B-A22B-Instruct

多模态

图片理解

视频理解

Qwen3系列视觉理解模型,在视觉coding、空间感知等方向全面升级;视觉感知与识别能力大幅提升,支持超长视频理解,OCR能力迎来重大升级。

Function Call

128K

126K

32K

RPM:500

TPM:1000000

Qwen3-VL-235B-A22B-Thinking

多模态

图片理解

视频理解

Qwen3系列视觉理解模型,多模态思考能力显著增强,模型在STEM与数学推理方面进行了重点优化;视觉感知与识别能力全面提升、OCR能力迎来重大升级。

Function Call

128K

124K

32K

RPM:500

TPM:1000000

深度思考

模型名称

模型类型

模型简介

模型能力

上下文长度

最大输入Token

最大输出Token

模型默认限流

Kimi-K2-Thinking

文本生成

深度思考

Kimi K2 Thinking 是 Moonshot AI 推出的开源思考模型。作为一种能够逐步推理并动态调用工具的智能代理(Agent),Kimi K2 拥有 1T 总参数量(激活参数 32B)和 256k 的上下文窗口。它采用混合专家(MoE)架构,通过端到端的训练,在多步推理深度和工具使用的稳定性方面取得了突破,能够处理复杂的长程任务。

深度思考

Function Call

256K

224K

16K

RPM:30

TPM:10000

MiniMax-M2.1

文本生成

深度思考

MiniMax-M2.1作为M2版本的重大升级,它不仅保留了高性价比的优势,更显著增强了多语言编程能力,并系统性地引入了交错思维(Interleaved Thinking)。该模型专注于提升在多种编程语言和办公场景下的可用性,致力于帮助企业和个人实现AI原生的工作和生活方式,目前已开放API并支持本地部署。

深度思考

Function Call

200K

72K

128K

RPM:50

TPM:200000

GLM-4.7

文本生成

深度思考

GLM-4.7相比GLM-4.6,在多语言Agentic编程、终端任务操作、工具使用以及复杂推理能力上均有显著提升。GLM-4.7进一步增强了思维能力,引入了交错思维(Interleaved Thinking)和保留思维(Preserved Thinking)模式,旨在让智能体更无缝地融入实际工作流,目前已开放API并支持通过vLLM和SGLang进行本地部署。

深度思考

Function Call

200K

72K

128K

RPM:50

TPM:250000

DeepSeek-V3.1-Terminus

文本生成

深度思考

DeepSeek-V3.1-Terminus 是 DeepSeek-V3.1 的更新版本,旨在保持模型原有核心能力的同时,针对用户反馈的问题进行了修复和优化。该版本的模型结构与 DeepSeek-V3 保持一致,并在特定领域进行了显著增强。

Function Call

128K

96K

16K

RPM:500

TPM:1000000

MiniMax-M2

文本生成

深度思考

MiniMax-M2 是一款轻量、快速且极具成本效益的 MoE 模型(230B 总参数,10B 激活参数)。它在保持强大通用智能的同时,专为编码和智能体任务进行了深度优化。凭借仅 10B 的激活参数,它提供了开发者期待的端到端工具使用性能,同时其小巧的“身材”也更易于部署和扩展。

Function Call

200K

72K

128K

RPM:5

TPM:300000

GLM-4.6

文本生成

深度思考

GLM-4.6 是智谱最新的旗舰模型,其总参数量 355B,激活参数 32B,上下文提升至 200K,8 大权威基准全面提升,稳居国产模型首位。在编程、推理、搜索、写作、智能体应用等核心能力均完成对 GLM-4.5 的超越。

Function Call

200K

72K

128K

RPM:100

TPM:1000000

DeepSeek-V3.2-Speciale

文本生成

深度思考

DeepSeek-V3.2 是一款兼顾高计算效率、卓越推理能力和智能体性能的人工智能模型。DeepSeek-V3.2-Speciale是该系列的高计算能力版本,旨在进一步突破推理能力的边界。

-

160K

128K

64K

RPM:500

TPM:100000

DeepSeek-V3.2

文本生成

深度思考

DeepSeek-V3.2 是一款实现了高计算效率与卓越推理及代理(Agent)性能完美协调的模型。通过引入 DeepSeek 稀疏注意力(DSA)、可扩展的强化学习框架以及大规模代理任务合成流水线等关键技术突破,推动了开源大语言模型的前沿发展。

Function Call

160K

128K

64K

RPM:60

TPM:100000

Qwen3-30B-A3B-Thinking-2507

文本生成

深度思考

该版本显著提高推理任务的性能,包括逻辑推理、数学、科学、编码和通常需要人类专业知识的学术基准。拥有明显更好的通用能力,例如指令遵循、工具使用、文本生成和与人类偏好的一致性。

Function Call

128K

96K

32K

RPM:500

TPM:1000000

DeepSeek-V3.2-Exp

文本生成

深度思考

DeepSeek-V3.2-Exp 在 V3.1-Terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),针对长文本的训练和推理效率进行了探索性的优化和验证。

深度思考

128K

128K

16K

RPM:500

TPM:1000000

DeepSeek V3.1

文本生成

深度思考

DeepSeek-V3.1 采用混合推理架构,可同时支持思考模式与非思考模式,用户可通过“深度思考”按钮,实现思考模式与非思考模式的自由切换。相比 DeepSeek-R1-0528,DeepSeek-V3.1-Think 显著提升了思考效率,能够在更短时间内提供高质量答案。此外,通过 Post-Training 优化,模型在工具使用与智能体任务中的表现大幅增强。

深度思考

128K

96K

64K

RPM:500

TPM:1000000

DeepSeek R1

文本生成

深度思考

DeepSeek-R1 是由深度求索推出的推理大模型。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。

深度思考

Function Call

128K

96K

16K

RPM:5000

TPM:10000000

Qwen3-8B

文本生成

深度思考

实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力达到同规模业界SOTA水平、通用能力显著超过Qwen2.5-7B。

深度思考

Function Call

128K

126K(非思考)

96K(思考)

8K

RPM:5000

TPM:5000000

Qwen3-32B

文本生成

深度思考

实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力显著超过QwQ、通用能力显著超过Qwen2.5-32B-Instruct,达到同规模业界SOTA水平。

深度思考

Function Call

128K

126K(非思考)

96K(思考)

16K

RPM:5000

TPM:10000000

Qwen3-30B-A3B

文本生成

深度思考

一个拥有约 300 亿总参数和 30 亿激活参数的小型 MoE 模型。

深度思考

Function Call

128K

126K(非思考)

96K(思考)

16K

RPM:5000

TPM:5000000

上一篇:限时活动:KAT-Coder-Pro V1 模型免费使用下一篇:语言模型
该篇文档内容是否对您有帮助?
有帮助没帮助