全部 未讀 (11821) ★ 收藏 (0) 🤖 人工智能 (7594) 📊 商业科技 (1791) 💻 软件编程 (1198) 📁 个人成长 (736) 🎨 产品设计 (209) 📁 生活文化 (109) 📁 投资财经 (71) 📁 媒体资讯 (69) 📁 AI 产品 (39) 📁 AI (5)
篩選中: 🏷️ llama.cpp 共 10 篇 ✕ 清除篩選
11823
全部文章
11821
未讀
140
今日新增
0
收藏
📡 Poller 最後抓取: 34 分鐘前 (04-16 14:00)
BestBlogs 精選 (11804)

🏷️ 熱門標籤

AI Agent 1324 AI 智能体 734 Claude Code 645 Anthropic 622 LLM 563 AI 编程 501 OpenClaw 498 开源 439 AI 安全 396 AI 396 Claude 384 OpenAI 362 软件工程 354 开发者工具 343 生产力 308 GitHub 251 自动化 238 AI 基础设施 227 AI 开发 225 MCP 223
Nintendo Switch 成功运行 Gemma 2 模型
📌 一句话摘要 开发者通过 L4T Ubuntu 和 llama.cpp,成功在 Nintendo Switch 掌机上本地运行了 Gemma 2 模型。 📝 详细摘要 这是一条关于边缘计算和模型量化实践的趣味技术动态。开发者利用 L4T Ubuntu 系统环境,配合 llama.cpp 框架,
📅 2026-04-08 10:52 (8 天前) Berryxia.AI 人工智能 1 分鐘 ★ 82
Gemma Nintendo Switch llama.cpp 模型量化
技术指南:使用 OpenClaw 运行本地模型
📌 一句话摘要 Clement Delangue 分享了一个技术命令片段,演示如何使用 llama-server 和 OpenClaw 运行本地 GGUF 模型。 📝 详细摘要 这条推文为那些希望通过运行本地模型来绕过第三方工具限制的用户提供了一个实用的技术解决方案。它包含了一个具体的命令行示例
📅 2026-04-04 08:18 (12 天前) clem 🤗 人工智能 1 分鐘 ★ 89
本地大模型 GGUF OpenClaw llama.cpp
使用 OpenClaw 运行本地 Gemma 4 模型
📌 一句话摘要 一段技术代码片段,演示了如何运行本地 Gemma 4 GGUF 模型,并配置 OpenClaw 命令行工具通过兼容 OpenAI 的 API 与其交互。 📝 详细摘要 这条推文为开发者提供了一个实用的命令行示例。它演示了如何使用 `llama-server` 为 Gemma 4
📅 2026-04-04 08:22 (12 天前) Hugging Face 人工智能 1 分鐘 ★ 82
Gemma 4 OpenClaw 本地 LLM GGUF
谷歌发布 Gemma 4,采用 Apache 2.0 许可
📌 一句话摘要 Clement Delangue 宣布谷歌发布 Gemma 4,强调了其 Apache 2.0 许可,并提供了本地运行指南。 📝 详细摘要 Hugging Face 首席执行官 Clement Delangue 强调了谷歌凭借 Gemma 4 的发布重返开源 AI 领域。他特别指
📅 2026-04-03 13:41 (13 天前) clem 🤗 人工智能 3 分鐘 ★ 88
Gemma 4 谷歌 开源 Apache 2.0
llama.cpp 在 Mac Studio 上实现高效推理
📌 一句话摘要 llama.cpp 在 M2 Ultra 上运行 Gemma 4 26B 达到 300 tokens/s,支持 WebUI 与 MCP。 📝 详细摘要 展示了 llama.cpp 在 Mac Studio M2 Ultra 硬件上运行 Gemma 4 26B (Q8_0) 的出色
📅 2026-04-03 07:32 (13 天前) Berryxia.AI 人工智能 1 分鐘 ★ 87
llama.cpp Gemma 4 Local LLM Mac Studio
在 Mac 上实现高性能的本地 Gemma 4 推理
📌 一句话摘要 Clement Delangue 展示了 Gemma 4 在 Mac 上以惊人的速度本地运行,突显了 llama.cpp 的高效性。 📝 详细摘要 这条推文转发并强调了 Georgi Gerganov 的演示,展示了 Gemma 4 在 Mac Studio 上本地运行的情况。它
📅 2026-04-03 03:48 (13 天前) clem 🤗 人工智能 1 分鐘 ★ 88
Gemma 4 llama.cpp 本地推理 Mac
Hugging Face 整合 llama.cpp 团队,推动本地 AI 发展
📌 一句话摘要 Clement Delangue 宣布 Georgi Gerganov 及 ggml.org 团队加入 Hugging Face,以进一步开发本地 AI 基础设施。 📝 详细摘要 Hugging Face 首席执行官 Clement Delangue 正式宣布,广受好评的 lla
📅 2026-03-31 06:58 (16 天前) clem 🤗 人工智能 1 分鐘 ★ 90
HuggingFace llama.cpp ggml 本地AI
本地模型部署中脚手架的重要性
📌 一句话摘要 Clement Delangue 指出,本地模型性能问题往往源于集成层,并引用了 llama.cpp 创建者提供的详细技术分析。 📝 详细摘要 在延续此前推文核心观点的基础上,Clement Delangue 通过引用 Georgi(llama.cpp 的创建者)详尽的技术回复,
📅 2026-03-31 05:08 (16 天前) clem 🤗 人工智能 1 分鐘 ★ 89
本地 LLM llama.cpp 模型部署 AI 基础设施
来自 Georgi Gerganov 的引用
📌 一句话摘要 Georgi Gerganov 解释说,在编码智能体中使用本地模型之所以困难,是因为推理链条脆弱且碎片化,涉及聊天模板、提示词构建和细微的 Bug。 📝 详细摘要 llama.cpp 的创建者 Georgi Gerganov 指出了本地 LLM 采用过程中面临的系统性挑战,特别是
📅 2026-03-31 05:31 (16 天前) Simon Willison 人工智能 1 分鐘 ★ 83
本地 LLM llama.cpp 推理 编码智能体
Georgi Gerganov 谈本地编程 Agent 面临的挑战
📌 一句话摘要 Georgi Gerganov 指出,运行本地编程 Agent 的困难主要源于驱动框架和提示词构建问题,而非模型本身的能力不足。 📝 详细摘要 Simon Willison 分享了 llama.cpp 创建者 Georgi Gerganov 关于在本地模型上实现高性能编程 Age
📅 2026-03-31 04:28 (16 天前) Simon Willison 人工智能 1 分鐘 ★ 82
本地大模型 编程 Agent llama.cpp 推理