Ollama 新增对 NVIDIA Nemotron 3 Super 的支持,这是一款拥有 120B 参数、专为多智能体应用优化且具备 1M 上下文长度的 MoE 模型。
📝 详细摘要
该推文宣布将 NVIDIA 的 Nemotron 3 Super 模型集成到 Ollama 生态系统中。该模型采用 120B 混合专家(MoE)架构,其中激活参数为 12B,专门为自主多智能体系统设计。它拥有高达 1M 的海量上下文窗口,并完全开源了权重、数据集和训练配方。帖子提供了直接通过 CLI 命令行在本地或云端实例运行该模型的指令,并提到了它在针对编程智能体的 PinchBench 基准测试中的卓越表现。
📊 文章信息
AI 评分:82
来源:ollama(@ollama)
作者:ollama
分类:人工智能
语言:英文
阅读时间:2 分钟
字数:377
标签: NVIDIA, Nemotron 3 Super, Ollama, LLM, 多智能体系统