推荐一个基于 Gemma-4-26B 改造的、无审查、支持多模态且针对 Apple Silicon 优化的轻量级本地 AI 模型。
📝 详细摘要
这条推文热情推荐了一个名为 SuperGemma4-26B-Abliterated-Multimodal-MLX-4bit 的开源 AI 模型。该模型基于 Google 的 Gemma-4-26B,经过「彻底 Abliterated」实现 0 拒绝率(完全无内容审查),原生支持多模态(图文),并专门为 Apple 的 MLX 框架进行 4-bit 量化优化,仅需约 15GB 存储,非常适合在 M 系列 Mac 上本地部署运行。推文引用了原发布者的内容,并提供了 Hugging Face 模型页面的链接。
📊 文章信息
AI 初评:82
来源:Berryxia.AI(@berryxia)
作者:Berryxia.AI
分类:人工智能
语言:中文
阅读时间:2 分钟
字数:324
标签: 本地 AI, Gemma, 多模态, MLX, Mac