Simon Willison 评测了 Google 的 Gemma 4 开源模型,重点介绍了其通过逐层嵌入(Per-Layer Embeddings)实现的参数效率,并通过 SVG 生成测试了其推理能力。
📝 详细摘要
Simon Willison 对 Google 发布的 Gemma 4 进行了实测分析。此次发布包含四款具备视觉能力、基于 Apache 2.0 许可的推理模型(2B、4B、31B 和 26B MoE)。他探讨了通过逐层嵌入(PLE)实现设备端高效运行的“有效”参数规模(E2B/E4B)概念。文章详细介绍了使用 LM Studio 和 Google AI Studio API 进行的实测,特别是通过让模型生成“鹈鹕骑自行车”的 SVG 代码来评估其空间推理能力,并指出随着模型规模的增加,质量有显著提升,同时也发现了本地 GGUF 版本中早期实现存在的 Bug。
💡 主要观点
- Gemma 4 引入了逐层嵌入(PLE)以最大化参数效率。 “有效”参数计数(E2B、E4B)是通过为每个解码器层提供其专属的小型嵌入表来实现的,从而在适合端侧部署的同时,实现了更高的单位参数智能水平。
💬 文章金句
- Google 强调了“前所未有的单位参数智能水平”,这进一步证明了创建小型实用模型是当前最热门的研究领域之一。
- PLE 为每个解码器层的每个 Token 提供其专属的小型嵌入。这些嵌入表虽然很大,但仅用于快速查找,这就是为什么有效参数计数远小于总参数计数的原因。
- 我从一个在我笔记本电脑上运行的模型中,得到了我迄今为止见过的最好的鹈鹕图像。
📊 文章信息
AI 评分:89
来源:Simon Willison's Weblog
作者:Simon Willison
分类:人工智能
语言:英文
阅读时间:2 分钟
字数:308
标签: Gemma 4, Google DeepMind, 开源模型, LLM, SVG 生成