← 回總覽

SuperGemma4-26B 无审查多模态模型登陆 Mac

📅 2026-04-14 13:05 Berryxia.AI 人工智能 1 分鐘 596 字 評分: 82
本地 AI Gemma 多模态 MLX Mac
📌 一句话摘要 推荐一个基于 Gemma-4-26B 改造的、无审查、支持多模态且针对 Apple Silicon 优化的轻量级本地 AI 模型。 📝 详细摘要 这条推文热情推荐了一个名为 SuperGemma4-26B-Abliterated-Multimodal-MLX-4bit 的开源 AI 模型。该模型基于 Google 的 Gemma-4-26B,经过「彻底 Abliterated」实现 0 拒绝率(完全无内容审查),原生支持多模态(图文),并专门为 Apple 的 MLX 框架进行 4-bit 量化优化,仅需约 15GB 存储,非常适合在 M 系列 Mac 上本地部署运行。推文

📌 一句话摘要

推荐一个基于 Gemma-4-26B 改造的、无审查、支持多模态且针对 Apple Silicon 优化的轻量级本地 AI 模型。

📝 详细摘要

这条推文热情推荐了一个名为 SuperGemma4-26B-Abliterated-Multimodal-MLX-4bit 的开源 AI 模型。该模型基于 Google 的 Gemma-4-26B,经过「彻底 Abliterated」实现 0 拒绝率(完全无内容审查),原生支持多模态(图文),并专门为 Apple 的 MLX 框架进行 4-bit 量化优化,仅需约 15GB 存储,非常适合在 M 系列 Mac 上本地部署运行。推文引用了原发布者的内容,并提供了 Hugging Face 模型页面的链接。

📊 文章信息

AI 初评:82

来源:Berryxia.AI(@berryxia)

作者:Berryxia.AI

分类:人工智能

语言:中文

阅读时间:2 分钟

字数:324

标签: 本地 AI, Gemma, 多模态, MLX, Mac

阅读推文

查看原文 → 發佈: 2026-04-14 13:05:31 收錄: 2026-04-14 14:00:42

🤖 問 AI

針對這篇文章提問,AI 會根據文章內容回答。按 Ctrl+Enter 送出。