← 回總覽

Google 发布 Gemma 4 开源 AI 模型,并切换至 Apache 2.0 许可证

📅 2026-04-03 00:36 Ryan Whitwam 人工智能 1 分鐘 1150 字 評分: 87
Gemma 4 Google 开放权重 Apache 2.0 边缘 AI
📌 一句话摘要 Google 发布了 Gemma 4,这是一套针对高端本地硬件和边缘设备优化的全新开放权重 AI 模型,同时转向了更宽松的 Apache 2.0 许可证。 📝 详细摘要 Google 最新的 Gemma 4 发布引入了四种针对不同本地部署场景量身定制的模型尺寸。26B 混合专家模型(MoE)和 31B 密集模型针对高性能 GPU 进行了优化,而 Effective 2B 和 4B 变体则针对智能手机和树莓派(Raspberry Pi)等移动和边缘设备。此次发布伴随着一个重大转变:Google 放弃了其自定义许可证,转而采用行业标准的 Apache 2.0,解决了开发者长期以

📌 一句话摘要

Google 发布了 Gemma 4,这是一套针对高端本地硬件和边缘设备优化的全新开放权重 AI 模型,同时转向了更宽松的 Apache 2.0 许可证。

📝 详细摘要

Google 最新的 Gemma 4 发布引入了四种针对不同本地部署场景量身定制的模型尺寸。26B 混合专家模型(MoE)和 31B 密集模型针对高性能 GPU 进行了优化,而 Effective 2B 和 4B 变体则针对智能手机和树莓派(Raspberry Pi)等移动和边缘设备。此次发布伴随着一个重大转变:Google 放弃了其自定义许可证,转而采用行业标准的 Apache 2.0,解决了开发者长期以来对许可限制的担忧。这些模型强调降低延迟并提升性能,相较于上一代 Gemma 3,旨在在本地硬件上提供更具竞争力的能力。

💡 主要观点

- 针对不同硬件引入四种模型变体。 产品阵容包括用于高端 GPU 的 26B MoE 和 31B 密集模型,以及用于移动和边缘设备的 E2B 和 E4B,确保了从数据中心到智能手机的可扩展性。

转向 Apache 2.0 许可证。 通过放弃自定义的 Gemma 许可证,Google 解决了开发者的阻碍,促进了更广泛的采用,并使其更容易集成到商业和开源项目中。
专注于本地推理和延迟降低。 优化工作(包括参数激活策略以及与高通和联发科等芯片制造商的合作)旨在在边缘硬件上实现近乎零延迟。

💬 文章金句

- Google 也承认了开发者对 AI 许可的挫败感,因此放弃了自定义的 Gemma 许可证。

  • 两个大型 Gemma 变体(26B 混合专家模型和 31B 密集模型)旨在在单张 80GB Nvidia H100 GPU 上以 bfloat16 格式进行非量化运行。
  • Google 表示,Pixel 团队与高通和联发科密切合作,针对智能手机、树莓派和 Jetson Nano 等设备优化了这些模型。

📊 文章信息

AI 评分:87

来源:Ars Technica

作者:Ryan Whitwam

分类:人工智能

语言:英文

阅读时间:2 分钟

字数:392

标签: Gemma 4, Google, 开放权重, Apache 2.0, 边缘 AI

阅读完整文章

查看原文 → 發佈: 2026-04-03 00:36:24 收錄: 2026-04-03 02:00:33

🤖 問 AI

針對這篇文章提問,AI 會根據文章內容回答。按 Ctrl+Enter 送出。