全部 未讀 (11742) ★ 收藏 (0) 🤖 人工智能 (7549) 📊 商业科技 (1777) 💻 软件编程 (1189) 📁 个人成长 (733) 🎨 产品设计 (207) 📁 生活文化 (104) 📁 投资财经 (71) 📁 媒体资讯 (68) 📁 AI 产品 (39) 📁 AI (5)
篩選中: 🏷️ MLX 共 16 篇 ✕ 清除篩選
11744
全部文章
11742
未讀
61
今日新增
0
收藏
📡 Poller 最後抓取: 1 小時前 (04-16 08:00)
BestBlogs 精選 (11725)

🏷️ 熱門標籤

AI Agent 1312 AI 智能体 732 Claude Code 641 Anthropic 620 LLM 563 OpenClaw 497 AI 编程 491 开源 438 AI 396 AI 安全 394 Claude 380 OpenAI 360 软件工程 353 开发者工具 339 生产力 308 GitHub 248 自动化 238 AI 基础设施 227 AI 开发 224 MCP 223
SuperGemma4-26B 无审查多模态模型登陆 Mac
📌 一句话摘要 推荐一个基于 Gemma-4-26B 改造的、无审查、支持多模态且针对 Apple Silicon 优化的轻量级本地 AI 模型。 📝 详细摘要 这条推文热情推荐了一个名为 SuperGemma4-26B-Abliterated-Multimodal-MLX-4bit 的开源 A
📅 2026-04-14 13:05 (1 天前) Berryxia.AI 人工智能 1 分鐘 ★ 82
本地 AI Gemma 多模态 MLX
DFlash 推测解码为 Apple M 芯片本地 LLM 带来最高 4.13 倍加速
📌 一句话摘要 专为 Apple M 系列芯片优化的 DFlash 推测解码技术,结合 MLX 框架,为 Qwen3.5 等本地大模型带来了惊人的速度提升,最高达 4.13 倍。 📝 详细摘要 这条推文分享了一项针对 Apple M 系列芯片的本地大模型推理优化技术。它提到了“DFlash 推测
📅 2026-04-14 08:34 (2 天前) Berryxia.AI 人工智能 1 分鐘 ★ 82
DFlash MLX Apple M芯片 本地推理
DFlash-MLX 加速本地模型的具体性能数据
📌 一句话摘要 此推文列出了 DFlash-MLX 技术为不同规模的 Qwen3.5 模型带来的具体 token/s 加速倍数,并说明了其无损生成特性。 📝 详细摘要 作为上一条推文的补充,这条回复详细列出了 DFlash-MLX 优化技术带来的具体性能数据。包括 Qwen3.5-4B 和 9B
📅 2026-04-14 08:34 (2 天前) Berryxia.AI 人工智能 1 分鐘 ★ 76
DFlash MLX 性能基准 Qwen3.5
OpenClaw v2026.4.10 发布:引入 Active Memory 与本地 MLX 支持
📌 一句话摘要 OpenClaw 发布 2026.4.10 版本,新增 Active Memory 插件、本地 MLX 对话模式,并进行了重大的安全加固。 📝 详细摘要 OpenClaw 宣布推出最新的 2026.4.10 版本。核心功能包括:用于增强上下文保留的 Active Memory 插
📅 2026-04-11 11:46 (4 天前) OpenClaw🦞 人工智能 3 分鐘 ★ 82
OpenClaw 开源 AI MLX Active Memory
本地多模型编排:基于 MLX 的 Gemma 4 与 SAM 3.1 协同工作
📌 一句话摘要 Hugging Face 首席技术官强调了通过 MLX 在本地运行 Gemma 4 和 SAM 3.1 这种复杂 AI 编排与执行任务的重大意义。 📝 详细摘要 Hugging Face 的首席技术官 Julien Chaumond 强调了一项展示本地多模型编排成果的重要性。该方
📅 2026-04-11 04:12 (5 天前) Julien Chaumond 人工智能 1 分鐘 ★ 86
本地 LLM MLX Gemma 4 SAM 3.1
mlx-lm 大更新:支持 Gemma 4 与批处理优化
📌 一句话摘要 Apple Silicon 本地大模型框架 mlx-lm 发布更新,显著提升批处理能力并原生支持 Gemma 4。 📝 详细摘要 mlx-lm 迎来重大更新,核心改进包括:大幅提升服务端批处理能力;原生支持 Google 的 Gemma 4 模型;在 M3 Ultra 芯片上可同
📅 2026-04-08 18:41 (7 天前) Berryxia.AI 软件编程 1 分鐘 ★ 88
mlx-lm Apple Silicon Gemma 4 本地大模型
在 iPhone 17 Pro 上以 40 tk/s 的速度运行 Gemma 4 E2B
📌 一句话摘要 通过针对 Apple Silicon 优化的 MLX 框架,Gemma 4 E2B 在 iPhone 17 Pro 上达到了约 40 tokens/s 的运行速度。 📝 详细摘要 作为系列推文的一部分,本推文强调了谷歌 Gemma 4 E2B 模型在 iPhone 17 Pro
📅 2026-04-08 12:00 (7 天前) Min Choi 人工智能 1 分鐘 ★ 81
Gemma 4 MLX Apple Silicon 端侧 AI
Gemma-4 + TurboQuant 性能基准测试
📌 一句话摘要 分享了 Gemma-4 在 M5 Max 上的 TurboQuant 基准测试结果,展示了 MLX 本地运行的性能表现。 📝 详细摘要 推文分享了 Gemma-4 模型结合 TurboQuant 在 M5 Max 硬件上的基准测试数据,涵盖了不同量化版本(4-bit, 8-bit
📅 2026-04-07 07:24 (9 天前) Berryxia.AI 人工智能 1 分鐘 ★ 81
Gemma 4 TurboQuant MLX 基准测试
iPhone 本地跑 Gemma 4 火了,0 token 时代还有多远?
📌 一句话摘要 谷歌 Gemma 4 开源模型凭借其在 iPhone 等移动端卓越的本地运行性能和 128k 长上下文能力,引发了业界对端侧 AI 普及及「0 token」商业模式变革的热议。 📝 详细摘要 本文报道了谷歌最新开源模型 Gemma 4 在移动端本地运行的突破性表现。Gemma 4
📅 2026-04-06 12:36 (9 天前) 机器之心 人工智能 6 分鐘 ★ 88
Gemma 4 端侧 AI 移动端大模型 Google
iPhone 17 Pro 本地运行 Gemma 4 模型实测
📌 一句话摘要 实测 iPhone 17 Pro 使用 MLX 框架运行 Gemma 4 模型,速度表现良好,适合处理敏感数据。 📝 详细摘要 推文分享了在 iPhone 17 Pro 上使用 MLX 框架运行 Gemma 4 模型的体验。作者反馈速度提升明显,并强调了本地运行模型在处理敏感数据
📅 2026-04-05 06:55 (11 天前) Berryxia.AI 人工智能 1 分鐘 ★ 83
iPhone 17 Pro Gemma 4 MLX 端侧 AI
Ollama 支持 MLX,让 Mac 本地运行模型速度更快
📌 一句话摘要 Ollama 引入了对 Apple MLX 框架和 Nvidia NVFP4 格式的支持,显著提升了 Apple Silicon Mac 上本地 LLM 的性能,尽管目前仅限于特定模型和硬件配置。 📝 详细摘要 本文报道了 Ollama 的最新更新(v0.19),该版本集成了 A
📅 2026-04-01 07:00 (15 天前) Samuel Axon 人工智能 1 分鐘 ★ 78
Ollama MLX Apple Silicon 本地 LLM
Ollama 原生支持 MLX 框架,本地 LLM 推理性能提升
📌 一句话摘要 Ollama 更新支持 Apple Silicon 的 MLX 框架,显著提升本地运行大语言模型的 Token 生成速度。 📝 详细摘要 作者分享了 Ollama 的重要更新,即原生支持 Apple Silicon 的 MLX 框架。这一更新对于在 Mac 本地运行大语言模型的开
📅 2026-03-31 12:36 (15 天前) Berryxia.AI 人工智能 1 分鐘 ★ 84
Ollama MLX 本地大模型 Apple Silicon
Ollama 集成 MLX,提升 Apple Silicon 性能
📌 一句话摘要 Ollama 现已支持苹果的 MLX 框架,显著提升了 Apple Silicon 上的本地 LLM 推理性能。 📝 详细摘要 Ollama 更新了引擎以利用苹果的 MLX 机器学习框架。此次集成解锁了 Apple Silicon 用户在处理个人助理和编码智能体(如 Claude
📅 2026-03-31 12:27 (15 天前) ollama 人工智能 1 分鐘 ★ 89
Ollama MLX Apple Silicon 本地 LLM
Ollama MLX 博客文章
📌 一句话摘要 官方博客文章链接,详细介绍了新的 MLX 集成和性能更新。 📝 详细摘要 本推文提供了 Ollama 官方博客文章的链接,其中包含有关新 MLX 支持和性能改进的完整技术细节与文档。 📊 文章信息 AI 评分:75 来源:ollama(@ollama) 作者:ollama 分类
📅 2026-03-31 12:27 (15 天前) ollama 人工智能 1 分鐘 ★ 75
Ollama 博客 MLX
通过 SSD 流式加载在本地运行超大规模 MoE 模型
📌 一句话摘要 Simon Willison 介绍了通过 SSD 流式加载权重,在消费级 Mac 硬件上运行超大规模混合专家模型 (MoE) 的突破性技术。 📝 详细摘要 这条推文探讨了一种针对本地 LLM 推理的重要优化技术。通过从 SSD 流式加载部分专家权重,而不是将整个模型加载到内存 (
📅 2026-03-24 12:08 (22 天前) Simon Willison 人工智能 3 分鐘 ★ 88
本地LLM MoE MLX MacBook
自动研究:利用 Apple 的“LLM in a Flash”在本地运行 Qwen 397B
📌 一句话摘要 本文探讨了 Dan Woods 的一项研究实验,该实验利用 Apple 的“LLM in a Flash”技术和 AI 驱动的“自动研究”模式,在 48GB MacBook Pro 上运行 397B 参数的 Qwen 模型。 📝 详细摘要 本文强调了本地 LLM 推理的一个重要技
📅 2026-03-19 07:56 (28 天前) Simon Willison 人工智能 2 分鐘 ★ 84
LLM 推理 混合专家模型 (MoE) Apple Silicon MLX