Google 发布了 Gemma 4,这是一套针对高端本地硬件和边缘设备优化的全新开放权重 AI 模型,同时转向了更宽松的 Apache 2.0 许可证。
📝 详细摘要
Google 最新的 Gemma 4 发布引入了四种针对不同本地部署场景量身定制的模型尺寸。26B 混合专家模型(MoE)和 31B 密集模型针对高性能 GPU 进行了优化,而 Effective 2B 和 4B 变体则针对智能手机和树莓派(Raspberry Pi)等移动和边缘设备。此次发布伴随着一个重大转变:Google 放弃了其自定义许可证,转而采用行业标准的 Apache 2.0,解决了开发者长期以来对许可限制的担忧。这些模型强调降低延迟并提升性能,相较于上一代 Gemma 3,旨在在本地硬件上提供更具竞争力的能力。
💡 主要观点
- 针对不同硬件引入四种模型变体。 产品阵容包括用于高端 GPU 的 26B MoE 和 31B 密集模型,以及用于移动和边缘设备的 E2B 和 E4B,确保了从数据中心到智能手机的可扩展性。
💬 文章金句
- Google 也承认了开发者对 AI 许可的挫败感,因此放弃了自定义的 Gemma 许可证。
- 两个大型 Gemma 变体(26B 混合专家模型和 31B 密集模型)旨在在单张 80GB Nvidia H100 GPU 上以 bfloat16 格式进行非量化运行。
- Google 表示,Pixel 团队与高通和联发科密切合作,针对智能手机、树莓派和 Jetson Nano 等设备优化了这些模型。
📊 文章信息
AI 评分:87
来源:Ars Technica
作者:Ryan Whitwam
分类:人工智能
语言:英文
阅读时间:2 分钟
字数:392
标签: Gemma 4, Google, 开放权重, Apache 2.0, 边缘 AI