一份全面的 AI 每周发展综述,涵盖 OpenAI 的 GPT-5.4 mini 发布、Mistral 的 Small 4 模型、日益激烈的 AI 智能体“操作系统”竞争,以及 Mamba-3 等重大研究进展。
📝 详细摘要
本期 Last Week in AI 播客总结了 AI 行业关键的一周。主要亮点包括 OpenAI 发布了具备 40 万 token 上下文窗口但价格上涨的 GPT-5.4 mini 和 nano 模型。Mistral 推出了 Small 4 MoE 模型系列以及用于自定义模型训练的 Forge 平台。“智能体操作系统”竞赛因 Meta (Manus) 和 Nvidia (Open Shell) 的新入局者而升温。此外,本期节目还涵盖了 Nvidia GTC 2026 的公告、OpenAI 向企业生产力方向的战略转型,以及序列建模 (Mamba-3) 和模型安全方面的尖端研究。
💡 主要观点
- OpenAI 的 GPT-5.4 mini/nano 发布标志着向高容量、长上下文任务的转变。 新模型具备 40 万 token 的上下文窗口,并在 Codex 中声称提升了 token 效率,尽管对于 API 用户来说价格大幅上涨。
💬 文章金句
- OpenAI 发布了具备 40 万 token 上下文窗口的 GPT-5.4 mini 和 nano……nano 仅限 API 使用,主打高容量分类/数据提取任务。
- 随着 Meta 收购的 Manus 发布本地 Mac 智能体,智能体“操作系统”竞争加剧。
- Mistral 开源了 Small 4 模型系列(MoE,总参数 119B/激活参数 6B),结合了推理、多模态和编码智能体能力。
- 在竞争压力下,OpenAI 将重心转向生产力/企业应用。
- Mamba-3:使用状态空间原理改进序列建模。
📊 文章信息
AI 评分:86
来源:Last Week in AI
作者:Last Week in AI
分类:人工智能
语言:英文
阅读时间:3 分钟
字数:555
标签: GPT-5.4, Mistral Small 4, AI 智能体, Nvidia GTC, Mamba-3