Fireworks AI 实现了对 NVIDIA Nemotron 3 Super 的首日(Day-0)支持,这是一款具有 100 万 Token 上下文长度的 120B 混合 MoE 模型。
📝 详细摘要
Fireworks AI 已启动对 NVIDIA Nemotron 3 Super 模型支持。该 120B 参数模型采用混合 Mamba-transformer 架构和混合专家模型(MoE)技术,实现了极高的推理准确度和计算效率。凭借高达 100 万 Token 的超长上下文窗口,它专为复杂的多智能体应用、长文本理解以及金融欺诈检测或代码摘要等任务而设计。
📊 文章信息
AI 评分:87
来源:Fireworks AI(@FireworksAI_HQ)
作者:Fireworks AI
分类:人工智能
语言:英文
阅读时间:6 分钟
字数:1296
标签: NVIDIA, Nemotron 3 Super, MoE, Mamba 架构, LLM