← 回總覽

NVIDIA Nemotron 3 Super 120B MoE 模型在 Fireworks AI 首发上线

📅 2026-03-12 03:09 Fireworks AI 人工智能 1 分鐘 578 字 評分: 87
NVIDIA Nemotron 3 Super MoE Mamba 架构 LLM
📌 一句话摘要 Fireworks AI 实现了对 NVIDIA Nemotron 3 Super 的首日(Day-0)支持,这是一款具有 100 万 Token 上下文长度的 120B 混合 MoE 模型。 📝 详细摘要 Fireworks AI 已启动对 NVIDIA Nemotron 3 Super 模型支持。该 120B 参数模型采用混合 Mamba-transformer 架构和混合专家模型(MoE)技术,实现了极高的推理准确度和计算效率。凭借高达 100 万 Token 的超长上下文窗口,它专为复杂的多智能体应用、长文本理解以及金融欺诈检测或代码摘要等任务而设计。 📊 文章信

📌 一句话摘要

Fireworks AI 实现了对 NVIDIA Nemotron 3 Super 的首日(Day-0)支持,这是一款具有 100 万 Token 上下文长度的 120B 混合 MoE 模型。

📝 详细摘要

Fireworks AI 已启动对 NVIDIA Nemotron 3 Super 模型支持。该 120B 参数模型采用混合 Mamba-transformer 架构和混合专家模型(MoE)技术,实现了极高的推理准确度和计算效率。凭借高达 100 万 Token 的超长上下文窗口,它专为复杂的多智能体应用、长文本理解以及金融欺诈检测或代码摘要等任务而设计。

📊 文章信息

AI 评分:87

来源:Fireworks AI(@FireworksAI_HQ)

作者:Fireworks AI

分类:人工智能

语言:英文

阅读时间:6 分钟

字数:1296

标签: NVIDIA, Nemotron 3 Super, MoE, Mamba 架构, LLM

阅读推文

查看原文 → 發佈: 2026-03-12 03:09:51 收錄: 2026-03-12 06:00:56

🤖 問 AI

針對這篇文章提問,AI 會根據文章內容回答。按 Ctrl+Enter 送出。