← 回總覽

Gemma 4:同等字节下最强的开源模型

📅 2026-04-03 02:28 Simon Willison 人工智能 2 分鐘 1265 字 評分: 89
Gemma 4 Google DeepMind 开源模型 LLM SVG 生成
📌 一句话摘要 Simon Willison 评测了 Google 的 Gemma 4 开源模型,重点介绍了其通过逐层嵌入(Per-Layer Embeddings)实现的参数效率,并通过 SVG 生成测试了其推理能力。 📝 详细摘要 Simon Willison 对 Google 发布的 Gemma 4 进行了实测分析。此次发布包含四款具备视觉能力、基于 Apache 2.0 许可的推理模型(2B、4B、31B 和 26B MoE)。他探讨了通过逐层嵌入(PLE)实现设备端高效运行的“有效”参数规模(E2B/E4B)概念。文章详细介绍了使用 LM Studio 和 Google AI S

📌 一句话摘要

Simon Willison 评测了 Google 的 Gemma 4 开源模型,重点介绍了其通过逐层嵌入(Per-Layer Embeddings)实现的参数效率,并通过 SVG 生成测试了其推理能力。

📝 详细摘要

Simon Willison 对 Google 发布的 Gemma 4 进行了实测分析。此次发布包含四款具备视觉能力、基于 Apache 2.0 许可的推理模型(2B、4B、31B 和 26B MoE)。他探讨了通过逐层嵌入(PLE)实现设备端高效运行的“有效”参数规模(E2B/E4B)概念。文章详细介绍了使用 LM Studio 和 Google AI Studio API 进行的实测,特别是通过让模型生成“鹈鹕骑自行车”的 SVG 代码来评估其空间推理能力,并指出随着模型规模的增加,质量有显著提升,同时也发现了本地 GGUF 版本中早期实现存在的 Bug。

💡 主要观点

- Gemma 4 引入了逐层嵌入(PLE)以最大化参数效率。 “有效”参数计数(E2B、E4B)是通过为每个解码器层提供其专属的小型嵌入表来实现的,从而在适合端侧部署的同时,实现了更高的单位参数智能水平。

这些模型通过 SVG 生成任务展示了强大的空间推理能力。 通过“鹈鹕骑自行车”基准测试表明,虽然 2B 和 4B 模型在处理复杂几何图形时较为吃力,但 26B-A4B 和 31B 模型生成的 SVG 效果是目前本地可运行模型中最好的之一。
实际部署揭示了社区格式中存在的早期稳定性问题。 虽然 2B、4B 和 26B MoE 模型在 LM Studio 中运行良好,但 31B GGUF 版本出现了故障循环,这凸显了验证模型量化和实现的重要性。

💬 文章金句

- Google 强调了“前所未有的单位参数智能水平”,这进一步证明了创建小型实用模型是当前最热门的研究领域之一。

  • PLE 为每个解码器层的每个 Token 提供其专属的小型嵌入。这些嵌入表虽然很大,但仅用于快速查找,这就是为什么有效参数计数远小于总参数计数的原因。
  • 我从一个在我笔记本电脑上运行的模型中,得到了我迄今为止见过的最好的鹈鹕图像。

📊 文章信息

AI 评分:89

来源:Simon Willison's Weblog

作者:Simon Willison

分类:人工智能

语言:英文

阅读时间:2 分钟

字数:308

标签: Gemma 4, Google DeepMind, 开源模型, LLM, SVG 生成

阅读完整文章

查看原文 → 發佈: 2026-04-03 02:28:54 收錄: 2026-04-03 04:00:46

🤖 問 AI

針對這篇文章提問,AI 會根據文章內容回答。按 Ctrl+Enter 送出。