NVIDIA 的 Nemotron 3 Super 模型现已登陆 OpenRouter,该模型拥有 120B 参数、1M 上下文,并采用混合 Mamba-Transformer MoE 架构。
📝 详细摘要
OpenRouter 宣布支持 NVIDIA 的 Nemotron 3 Super 模型。该模型采用了先进的混合架构,在混合专家(MoE)配置中结合了 Mamba 和 Transformer,在 120B 总参数中仅需 12B 激活参数。它拥有高达 1M 的超长上下文窗口和同类领先的吞吐效率,专为需要快速响应的多智能体系统而优化。值得注意的是,该模型完全开源了权重、数据和训练配方。
📊 文章信息
AI 评分:88
来源:OpenRouter(@OpenRouterAI)
作者:OpenRouter
分类:人工智能
语言:英文
阅读时间:2 分钟
字数:259
标签: NVIDIA, Nemotron 3 Super, MoE, Mamba-Transformer, 开源权重