Cursor 宣布在 Blackwell GPU 上实现了 1.84 倍的 MoE 模型推理加速,并增强了 Composer 模型的训练流程。
📝 详细摘要
Cursor 分享了一项重要的工程突破,详细介绍了他们如何在 NVIDIA Blackwell GPU 上重构了 MoE 模型生成 Token 的过程。此次优化不仅实现了 1.84 倍的推理加速,还提高了输出的准确性,直接加速了其 Composer 模型的训练与发布周期。
📊 文章信息
AI 评分:88
来源:Cursor(@cursor_ai)
作者:Cursor
分类:人工智能
语言:英文
阅读时间:2 分钟
字数:252
标签: Cursor, MoE, Blackwell, AI 基础设施, 推理优化