Fireworks AI 推出其训练平台预览版,支持用户使用自定义损失函数对 Kimi K2.5 等大模型进行全参数微调。
📝 详细摘要
Fireworks AI 现已推出其训练基础设施的预览版,允许开发者对包括 1 万亿参数、256k 上下文的 Kimi K2.5 在内的大模型进行全参数微调。该平台支持 GRPO、DRO 和 DAPO 等自定义损失函数,并包含多 LoRA 服务等功能。此次公告强调了 Genspark、Vercel 和 Cursor 等公司的成功应用案例,将该平台定位为构建专有模型栈的强大解决方案。
📊 文章信息
AI 评分:83
来源:Fireworks AI(@FireworksAI_HQ)
作者:Fireworks AI
分类:人工智能
语言:英文
阅读时间:3 分钟
字数:528
标签: Fireworks AI, 微调, LLM, AI 基础设施, Kimi K2.5