

万擎提供丰富多样的模型选择,集成了多种模型供您使用。您可通过模型列表了解模型相关介绍,依据教程或者API说明,便捷地将模型服务整合到自身业务当中。
模型名称 | 模型类型 | 模型简介 | 模型能力 | 上下文长度 | 最大输入Token | 最大输出Token | 模型默认限流 |
KAT-Coder-Pro V1 | 文本生成 | 专为 Agentic Coding 设计,全面覆盖编程任务与场景,通过大规模智能体强化学习,实现智能行为涌现,在代码编写性能上显著超越同类模型。 | Function Call | 256K | 256K | 32K | RPM:60 TPM:2000000 |
KAT-Coder-Exp-72B-1010 | 文本生成 | KAT-Coder-Exp-72B 是 KAT-Coder 系列模型中的 RL 创新实验版本,在软件开发能力评测基准 SWE-Bench verified 上取得了 74.6% 的卓越性能,创下开源模型新纪录。专注于 Agentic Coding,目前仅支持 SWE-Agent 脚手架,也可进行简单对话。 | - | 128K | 128K | 32K | RPM:20 TPM:2000000 |
KAT-Coder-Air V1 | 文本生成 | KAT-Coder 系列模型中的轻量化版本。专为 Agentic Coding 设计,全面覆盖编程任务与场景,通过大规模智能体强化学习,实现智能行为涌现,在代码编写性能上显著超越同类模型。 | Function Call | 128K | 128K | 32K | RPM:20 TPM:2000000 |
模型名称 | 模型类型 | 模型简介 | 模型能力 | 上下文长度 | 最大输入Token | 最大输出Token | 模型默认限流 |
MiniMax-M2.5 | 文本生成 深度思考 | MiniMax-M2.5是MiniMax推出的最新一代AI模型,旨在解决现实世界中的复杂任务,编程与智能体能力达到或超越 Opus 4.6 水平。 | 深度思考 Function Call | 200K | - | 128K | RPM:30 TPM:10000000 |
GLM-5 | 文本生成 深度思考 | GLM-5是智谱最新开源的新一代旗舰模型,在Coding与Agent能力上,GLM-5取得开源SOTA表现,在真实编程场景的使用体感逼近Claude Opus 4.5,擅长复杂系统工程与长程 Agent 任务。 | 深度思考 Function Call | 200K | - | 128K | RPM:50 TPM:1000000 |
Qwen3-Coder-Next | 文本生成 | Qwen3-Coder-Next 是 Qwen 团队发布的一款专为编码代理(Coding Agents)和本地开发设计的开放权重语言模型(Open-weight Language Model)。 | - | 256K | - | 64K | TPM:300000 |
MiniMax-M2.1-Lightning | 文本生成 深度思考 | MiniMax-M2.1-Lightning 是 MiniMax-M2.1的极速版,更快,更敏捷。 | 深度思考 Function Call | 200K | - | 128K | RPM:50 TPM:200000 |
Kimi-K2-Thinking | 文本生成 深度思考 | Kimi K2 Thinking 是 Moonshot AI 推出的开源思考模型。作为一种能够逐步推理并动态调用工具的智能代理(Agent),Kimi K2 拥有 1T 总参数量(激活参数 32B)和 256k 的上下文窗口。它采用混合专家(MoE)架构,通过端到端的训练,在多步推理深度和工具使用的稳定性方面取得了突破,能够处理复杂的长程任务。 | 深度思考 Function Call | 256K | 224K | 16K | RPM:30 TPM:10000 |
GLM-4.7 | 文本生成 深度思考 | GLM-4.7相比GLM-4.6,在多语言Agentic编程、终端任务操作、工具使用以及复杂推理能力上均有显著提升。GLM-4.7进一步增强了思维能力,引入了交错思维(Interleaved Thinking)和保留思维(Preserved Thinking)模式,旨在让智能体更无缝地融入实际工作流,目前已开放API并支持通过vLLM和SGLang进行本地部署。 | 深度思考 Function Call | 200K | - | 128K | RPM:50 TPM:250000 |
MiniMax-M2.1 | 文本生成 深度思考 | MiniMax-M2.1作为M2版本的重大升级,它不仅保留了高性价比的优势,更显著增强了多语言编程能力,并系统性地引入了交错思维(Interleaved Thinking)。该模型专注于提升在多种编程语言和办公场景下的可用性,致力于帮助企业和个人实现AI原生的工作和生活方式,目前已开放API并支持本地部署。 | 深度思考 Function Call | 200K | - | 128K | RPM:50 TPM:200000 |
DeepSeek-V3.1-Terminus | 文本生成 深度思考 | DeepSeek-V3.1-Terminus 是 DeepSeek-V3.1 的更新版本,旨在保持模型原有核心能力的同时,针对用户反馈的问题进行了修复和优化。该版本的模型结构与 DeepSeek-V3 保持一致,并在特定领域进行了显著增强。 | Function Call | 128K | 96K | 32K | RPM:500 TPM:1000000 |
MiniMax-M2 | 文本生成 深度思考 | MiniMax-M2 是一款轻量、快速且极具成本效益的 MoE 模型(230B 总参数,10B 激活参数)。它在保持强大通用智能的同时,专为编码和智能体任务进行了深度优化。凭借仅 10B 的激活参数,它提供了开发者期待的端到端工具使用性能,同时其小巧的“身材”也更易于部署和扩展。 | Function Call | 128K | - | 128K | RPM:5 TPM:300000 |
GLM-4.6 | 文本生成 深度思考 | GLM-4.6 是智谱最新的旗舰模型,其总参数量 355B,激活参数 32B,上下文提升至 200K,8 大权威基准全面提升,稳居国产模型首位。在编程、推理、搜索、写作、智能体应用等核心能力均完成对 GLM-4.5 的超越。 | Function Call | 200K | - | 128K | RPM:100 TPM:1000000 |
DeepSeek-V3.2-Speciale | 文本生成 深度思考 | DeepSeek-V3.2 是一款兼顾高计算效率、卓越推理能力和智能体性能的人工智能模型。DeepSeek-V3.2-Speciale是该系列的高计算能力版本,旨在进一步突破推理能力的边界。 | - | 128K | - | 128K | RPM:500 TPM:100000 |
DeepSeek-V3.2 | 文本生成 深度思考 | DeepSeek-V3.2 是一款实现了高计算效率与卓越推理及代理(Agent)性能完美协调的模型。通过引入 DeepSeek 稀疏注意力(DSA)、可扩展的强化学习框架以及大规模代理任务合成流水线等关键技术突破,推动了开源大语言模型的前沿发展。 | Function Call | 128K | 96K | 64K | RPM:60 TPM:100000 |
Qwen3-235B-A22B-Instruct-2507 | 文本生成 | Qwen3-235b-A22b-Instruct-2507 是Qwen3-235B-A22B(非思考模式)的升级版,创作能力与模型安全性均有提升。在数学、代码和逻辑推理等评测中,显著超过 QwQ 和同尺寸的非推理模型,达到同规模业界顶尖水平。创意写作、角色扮演、多轮对话、指令遵循能力均大幅提升,通用能力显著超过同尺寸模型。 | Function Call | 128K | 126K | 32K | RPM:500 TPM:1000000 |
Qwen3-30B-A3B-Thinking-2507 | 文本生成 深度思考 | 该版本显著提高推理任务的性能,包括逻辑推理、数学、科学、编码和通常需要人类专业知识的学术基准。拥有明显更好的通用能力,例如指令遵循、工具使用、文本生成和与人类偏好的一致性。 | Function Call | 128K | 124K | 32K | RPM:500 TPM:1000000 |
Qwen3-30B-A3B-Instruct-2507 | 文本生成 | Qwen3-30B-A3B 非思考模式的更新版本,一般能力有显著提高,包括遵循指令、逻辑推理、文本理解、数学、科学、编码和工具使用。跨多种语言的长尾知识覆盖率大幅提升。在主观和开放式任务中明显更好地与用户偏好保持一致,从而能够获得更多有用的回应和更高质量的文本生成。 | Function Call | 128K | 126K | 32K | RPM:500 TPM:1000000 |
KAT-Coder-Pro V1 | 文本生成 | 专为 Agentic Coding 设计,全面覆盖编程任务与场景,通过大规模智能体强化学习,实现智能行为涌现,在代码编写性能上显著超越同类模型。 | Function Call | 256K | 256K | 32K | RPM:60 TPM:2000000 |
KAT-Coder-Exp-72B-1010 | 文本生成 | KAT-Coder-Exp-72B 是 KAT-Coder 系列模型中的 RL 创新实验版本,在软件开发能力评测基准 SWE-Bench verified 上取得了 74.6% 的卓越性能,创下开源模型新纪录。专注于 Agentic Coding,目前仅支持 SWE-Agent 脚手架,也可进行简单对话。 | - | 128K | 128K | 32K | RPM:20 TPM:2000000 |
KAT-Coder-Air V1 | 文本生成 | KAT-Coder 系列模型中的轻量化版本。专为 Agentic Coding 设计,全面覆盖编程任务与场景,通过大规模智能体强化学习,实现智能行为涌现,在代码编写性能上显著超越同类模型。 | Function Call | 128K | 128K | 32K | RPM:20 TPM:2000000 |
Qwen3-235B-A22B-Thinking-2507 | 文本生成 | 在数学、代码和逻辑推理等评测中,显著超过 QwQ 和同尺寸的非推理模型,达到同规模业界顶尖水平。创意写作、角色扮演、多轮对话、指令遵循能力均大幅提升,通用能力显著超过同尺寸模型。在推理、非推理两种模式下都达到业界领先水平,能精准调用外部工具。支持100多种语言和方言,多语言翻译、指令理解、常识推理能力都明显提升。 | Function Call | 128K | 124K | 32K | RPM:500 TPM:1000000 |
KAT-Dev-72B-Exp(已下线) | 文本生成 | KAT-Dev-72B-Exp 是KAT-Coder模型强化学习的实验版本,在软件开发能力评测基准 SWE-Bench verified 上取得了 74.6% 的卓越性能,创下开源模型新纪录。专注于Agentic Coding,目前仅支持SWE-Agent脚手架,也可进行简单对话。 | - | 128K | 128K | 64K | RPM:300 TPM:3000000 |
DeepSeek-V3.2-Exp | 文本生成 深度思考 | DeepSeek-V3.2-Exp 在 V3.1-Terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),针对长文本的训练和推理效率进行了探索性的优化和验证。 | 深度思考 | 128K | 96K | 64K | RPM:500 TPM:1000000 |
KAT-Coder(已下线) | 文本生成 | KAT-Coder 是 KAT 系列中的最强模型,具备专家级的编程能力,能够高效完成功能开发、缺陷分析、单测生成等任务。 | Function Call | 256K | 256K | 32K | RPM:20 TPM:2000000 |
DeepSeek V3.1 | 文本生成 深度思考 | DeepSeek-V3.1 采用混合推理架构,可同时支持思考模式与非思考模式,用户可通过“深度思考”按钮,实现思考模式与非思考模式的自由切换。相比 DeepSeek-R1-0528,DeepSeek-V3.1-Think 显著提升了思考效率,能够在更短时间内提供高质量答案。此外,通过 Post-Training 优化,模型在工具使用与智能体任务中的表现大幅增强。 | 深度思考 | 128K | 96K | 32K | RPM:500 TPM:1000000 |
DeepSeek R1 | 文本生成 深度思考 | DeepSeek-R1 是由深度求索推出的推理大模型。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。 | 深度思考 Function Call | 128K | 96K | 32K | RPM:5000 TPM:10000000 |
Kimi-K2-Instruct | 文本生成 | Kimi-K2是一款先进的混合专家(MoE)语言模型,拥有320亿个激活参数和1万亿个总参数。Kimi K2采用Muon优化器进行训练,在前沿知识、推理和编码任务中表现出色,同时针对代理能力进行了精心优化。 | Function Call | 128K | 128K | 8K | RPM:60 TPM 100000 |
DeepSeek V3 | 文本生成 | DeepSeek-V3 由 DeepSeek 开源,具备高质量预训练、可扩展的 MoE 架构(Mixture-of-Experts)、以及完整的推理和部署工具链。适合在企业、科研与开源社区中广泛应用。 | - | 128K | 128K | 16K | RPM:5000 TPM:10000000 |
Qwen2.5-7B-Instruct | 文本生成 | Qwen2.5-7B-Instruct是通义千问团队于 2024 年发布的一款开源大语言模型,属于 Qwen2.5 系列,具有约 70 亿参数。 | Function Call | 32K | 24K | 8K | RPM:5000 TPM:5000000 |
Qwen3-8B | 文本生成 深度思考 | 实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力达到同规模业界SOTA水平、通用能力显著超过Qwen2.5-7B。 | 深度思考 Function Call | 32K | 30K | 8K | RPM:5000 TPM:5000000 |
Qwen3-32B | 文本生成 深度思考 | 实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力显著超过QwQ、通用能力显著超过Qwen2.5-32B-Instruct,达到同规模业界SOTA水平。 | 深度思考 Function Call | 32K | 30K | 8K | RPM:5000 TPM:10000000 |
Qwen3-30B-A3B | 文本生成 深度思考 | 一个拥有约 300 亿总参数和 30 亿激活参数的小型 MoE 模型。 | 深度思考 Function Call | 32K | 30K | 8K | RPM:5000 TPM:5000000 |
模型名称 | 模型类型 | 模型简介 | 模型能力 | 上下文长度 | 最大输入Token | 最大输出Token | 模型默认限流 |
Qwen3.5-Plus | 图片理解 视频理解 | Qwen3.5原生视觉语言系列Plus模型,基于混合架构设计,融合了线性注意力机制与稀疏混合专家模型,在纯文本与多模态方面相较3系列均实现飞跃式进步。 | Function Call | 1M | 991K | 64K | RPM:100 TPM:500000 |
Qwen3.5-397B-A17B | 图片理解 视频理解 | Qwen3.5-397B-A17B是Qwen3.5系列中的高性能开源模型,采用因果语言模型结合视觉编码器的设计。该模型拥有3970亿总参数,其中激活参数为170亿(17B)。作为原生视觉语言基础模型,它集成了多模态学习、架构效率提升和大规模强化学习等突破,旨在为开发者提供卓越的能力与效率。 | Function Call | 256K | 252K | 64K | RPM:30 TPM:300000 |
Kimi-K2.5 | 图片理解 视频理解 | Kimi-K2.5是迄今为止最强大的开源模型,建立在Kimi-K2的基础之上,经过约 15T 混合视觉和文本 token 的持续预训练。作为一个原生多模态模型,K2.5提供了最先进的编程和视觉能力,并引入了自导向的智能体集群(Agent Swarm)范式。 【该模型当前仅支持模型推理,若需使用请联系平台:申请使用】 | Function Call | 256K | - | 256K | RPM:30 TPM:10000 |
DeepSeek-OCR | 图片理解 | DeepSeek-OCR以 “探索视觉 - 文本压缩边界” 为核心目标,从大语言模型(LLM)视角重新定义视觉编码器的功能定位,为文档识别、图像转文本等高频场景提供了兼顾精度与效率的全新解决方案。 | - | 8K | - | 8K | RPM:500 TPM:10000000 |
Qwen3-VL-235B-A22B-Instruct | 图片理解 视频理解 | Qwen3系列视觉理解模型,在视觉coding、空间感知等方向全面升级;视觉感知与识别能力大幅提升,支持超长视频理解,OCR能力迎来重大升级。 | Function Call | 128K | 126K | 32K | RPM:500 TPM:1000000 |
Qwen3-VL-235B-A22B-Thinking | 图片理解 视频理解 | Qwen3系列视觉理解模型,多模态思考能力显著增强,模型在STEM与数学推理方面进行了重点优化;视觉感知与识别能力全面提升、OCR能力迎来重大升级。 | Function Call | 128K | 124K | 32K | RPM:500 TPM:1000000 |
模型名称 | 模型类型 | 模型简介 | 模型能力 | 上下文长度 | 最大输入Token | 最大输出Token | 模型默认限流 |
MiniMax-M2.5 | 文本生成 深度思考 | MiniMax-M2.5是MiniMax推出的最新一代AI模型,旨在解决现实世界中的复杂任务,编程与智能体能力达到或超越 Opus 4.6 水平。 | 深度思考 Function Call | 200K | - | 128K | RPM:30 TPM:10000000 |
GLM-5 | 文本生成 深度思考 | GLM-5是智谱最新开源的新一代旗舰模型,在Coding与Agent能力上,GLM-5取得开源SOTA表现,在真实编程场景的使用体感逼近Claude Opus 4.5,擅长复杂系统工程与长程 Agent 任务。 | 深度思考 Function Call | 200K | - | 128K | RPM:50 TPM:1000000 |
MiniMax-M2.1-Lightning | 文本生成 深度思考 | MiniMax-M2.1-Lightning 是 MiniMax-M2.1的极速版,更快,更敏捷。 | 深度思考 Function Call | 200K | - | 128K | RPM:50 TPM:200000 |
Kimi-K2-Thinking | 文本生成 深度思考 | Kimi K2 Thinking 是 Moonshot AI 推出的开源思考模型。作为一种能够逐步推理并动态调用工具的智能代理(Agent),Kimi K2 拥有 1T 总参数量(激活参数 32B)和 256k 的上下文窗口。它采用混合专家(MoE)架构,通过端到端的训练,在多步推理深度和工具使用的稳定性方面取得了突破,能够处理复杂的长程任务。 | 深度思考 Function Call | 256K | 224K | 16K | RPM:30 TPM:10000 |
MiniMax-M2.1 | 文本生成 深度思考 | MiniMax-M2.1作为M2版本的重大升级,它不仅保留了高性价比的优势,更显著增强了多语言编程能力,并系统性地引入了交错思维(Interleaved Thinking)。该模型专注于提升在多种编程语言和办公场景下的可用性,致力于帮助企业和个人实现AI原生的工作和生活方式,目前已开放API并支持本地部署。 | 深度思考 Function Call | 200K | - | 128K | RPM:50 TPM:200000 |
GLM-4.7 | 文本生成 深度思考 | GLM-4.7相比GLM-4.6,在多语言Agentic编程、终端任务操作、工具使用以及复杂推理能力上均有显著提升。GLM-4.7进一步增强了思维能力,引入了交错思维(Interleaved Thinking)和保留思维(Preserved Thinking)模式,旨在让智能体更无缝地融入实际工作流,目前已开放API并支持通过vLLM和SGLang进行本地部署。 | 深度思考 Function Call | 200K | - | 128K | RPM:50 TPM:250000 |
DeepSeek-V3.1-Terminus | 文本生成 深度思考 | DeepSeek-V3.1-Terminus 是 DeepSeek-V3.1 的更新版本,旨在保持模型原有核心能力的同时,针对用户反馈的问题进行了修复和优化。该版本的模型结构与 DeepSeek-V3 保持一致,并在特定领域进行了显著增强。 | Function Call | 128K | 96K | 32K | RPM:500 TPM:1000000 |
MiniMax-M2 | 文本生成 深度思考 | MiniMax-M2 是一款轻量、快速且极具成本效益的 MoE 模型(230B 总参数,10B 激活参数)。它在保持强大通用智能的同时,专为编码和智能体任务进行了深度优化。凭借仅 10B 的激活参数,它提供了开发者期待的端到端工具使用性能,同时其小巧的“身材”也更易于部署和扩展。 | Function Call | 128K | - | 128K | RPM:5 TPM:300000 |
GLM-4.6 | 文本生成 深度思考 | GLM-4.6 是智谱最新的旗舰模型,其总参数量 355B,激活参数 32B,上下文提升至 200K,8 大权威基准全面提升,稳居国产模型首位。在编程、推理、搜索、写作、智能体应用等核心能力均完成对 GLM-4.5 的超越。 | Function Call | 200K | - | 128K | RPM:100 TPM:1000000 |
DeepSeek-V3.2-Speciale | 文本生成 深度思考 | DeepSeek-V3.2 是一款兼顾高计算效率、卓越推理能力和智能体性能的人工智能模型。DeepSeek-V3.2-Speciale是该系列的高计算能力版本,旨在进一步突破推理能力的边界。 | - | 128K | - | 128K | RPM:500 TPM:100000 |
DeepSeek-V3.2 | 文本生成 深度思考 | DeepSeek-V3.2 是一款实现了高计算效率与卓越推理及代理(Agent)性能完美协调的模型。通过引入 DeepSeek 稀疏注意力(DSA)、可扩展的强化学习框架以及大规模代理任务合成流水线等关键技术突破,推动了开源大语言模型的前沿发展。 | Function Call | 128K | 96K | 64K | RPM:60 TPM:100000 |
Qwen3-30B-A3B-Thinking-2507 | 文本生成 深度思考 | 该版本显著提高推理任务的性能,包括逻辑推理、数学、科学、编码和通常需要人类专业知识的学术基准。拥有明显更好的通用能力,例如指令遵循、工具使用、文本生成和与人类偏好的一致性。 | Function Call | 128K | 96K | 32K | RPM:500 TPM:1000000 |
DeepSeek-V3.2-Exp | 文本生成 深度思考 | DeepSeek-V3.2-Exp 在 V3.1-Terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),针对长文本的训练和推理效率进行了探索性的优化和验证。 | 深度思考 | 128K | 96K | 64K | RPM:500 TPM:1000000 |
DeepSeek V3.1 | 文本生成 深度思考 | DeepSeek-V3.1 采用混合推理架构,可同时支持思考模式与非思考模式,用户可通过“深度思考”按钮,实现思考模式与非思考模式的自由切换。相比 DeepSeek-R1-0528,DeepSeek-V3.1-Think 显著提升了思考效率,能够在更短时间内提供高质量答案。此外,通过 Post-Training 优化,模型在工具使用与智能体任务中的表现大幅增强。 | 深度思考 | 128K | 96K | 32K | RPM:500 TPM:1000000 |
DeepSeek R1 | 文本生成 深度思考 | DeepSeek-R1 是由深度求索推出的推理大模型。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。 | 深度思考 Function Call | 128K | 96K | 32K | RPM:5000 TPM:10000000 |
Qwen3-8B | 文本生成 深度思考 | 实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力达到同规模业界SOTA水平、通用能力显著超过Qwen2.5-7B。 | 深度思考 Function Call | 32K | 30K | 8K | RPM:5000 TPM:5000000 |
Qwen3-32B | 文本生成 深度思考 | 实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力显著超过QwQ、通用能力显著超过Qwen2.5-32B-Instruct,达到同规模业界SOTA水平。 | 深度思考 Function Call | 32K | 30K | 8K | RPM:5000 TPM:10000000 |
Qwen3-30B-A3B | 文本生成 深度思考 | 一个拥有约 300 亿总参数和 30 亿激活参数的小型 MoE 模型。 | 深度思考 Function Call | 32K | 30K | 8K | RPM:5000 TPM:5000000 |
模型名称 | 模型类型 | 模型简介 | 模型能力 | 上下文长度 | 最大输入Token | 最大输出Token | 模型默认限流 |
Qwen-Image-Edit-2509 | 图像生成 | Qwen-Image-Edit-2509支持精准的中英双语文字编辑、调色、细节增强、风格迁移、增删物体、改变位置和动作等操作,可实现复杂的图文编辑。 | - | - | - | - | RPM:60 TPM:0 |
Qwen-Image | 图像生成 | Qwen-Image是Qwen系列中的一款图像生成基础模型。它不仅是一个生成图片的工具,更是一个用于智能视觉创作和操作的综合基础模型,实现了语言、布局和图像的深度融合。 | - | - | - | - | RPM:60 TPM:0 |
Z-Image-Turbo | 图像生成 | Z-Image是由Tongyi-MAI推出的一个高效图像生成基础模型项目,拥有60亿(6B)参数。该模型采用可扩展的单流Diffusion Transformer(S3-DiT)架构。Z-Image-Turbo是Z-Image的蒸馏版本,旨在通过仅8次函数评估(NFEs)实现高效生成。 | - | - | - | - | RPM:20 TPM:0 |
模型名称 | 模型类型 | 模型简介 | 模型能力 | 上下文长度 | 最大输入Token | 最大输出Token | 模型默认限流 |
Wan2.2-TI2V-5B | 视频生成 | Wan2.2-TI2V-5B 是 Wan-AI 推出的基础视频生成模型 Wan2.2 系列中的一个重要版本。该模型在一个统一的框架下同时支持文本生成视频(Text-to-Video)和图像生成视频(Image-to-Video)任务,旨在同时服务于工业应用和学术研究领域。 | - | - | - | - | RPM:3 TPM:0 |
Wan2.2-T2V-A14B | 视频生成 | 该模型在Wan2.1的基础上进行了全面优化,通过引入混合专家(MoE)架构、升级训练数据以及采用高效的高清视频生成技术,显著提升了视频生成的质量、模型能力和泛化水平,旨在同时服务于学术研究和工业应用。 | - | - | - | - | RPM:1 TPM:0 |
Wan2.2-I2V-A14B | 视频生成 | Wan2.2是Wan-AI推出的基础视频生成模型的重大升级版本,旨在提供开源且先进的大规模视频生成能力。该系列包含了基于混合专家(MoE)架构的A14B模型(用于文本生成视频和图像生成视频)以及一个高效的5B密集模型(TI2V-5B)。 | - | - | - | - | RPM:2 TPM:0 |