全部 未讀 (11821) ★ 收藏 (0) 🤖 人工智能 (7594) 📊 商业科技 (1791) 💻 软件编程 (1198) 📁 个人成长 (736) 🎨 产品设计 (209) 📁 生活文化 (109) 📁 投资财经 (71) 📁 媒体资讯 (69) 📁 AI 产品 (39) 📁 AI (5)
篩選中: 🏷️ KV 缓存 共 3 篇 ✕ 清除篩選
11823
全部文章
11821
未讀
140
今日新增
0
收藏
📡 Poller 最後抓取: 16 分鐘前 (04-16 14:00)
BestBlogs 精選 (11804)

🏷️ 熱門標籤

AI Agent 1324 AI 智能体 734 Claude Code 645 Anthropic 622 LLM 563 AI 编程 501 OpenClaw 498 开源 439 AI 安全 396 AI 396 Claude 384 OpenAI 362 软件工程 354 开发者工具 343 生产力 308 GitHub 251 自动化 238 AI 基础设施 227 AI 开发 225 MCP 223
关于 AI 模型性能下降的技术假设
📌 一句话摘要 Antirez 指出,用户感知到的 AI 模型性能下降可能不仅仅是人类的主观偏差,也可能源于激进的 KV 缓存量化等技术变更。 📝 详细摘要 这条推文探讨了用户中普遍存在的认知——AI 模型似乎会随着时间推移而性能下降。虽然这通常被归因于人类的主观偏差,但作者提出了另一种技术层面
📅 2026-03-30 22:55 (16 天前) antirez 人工智能 1 分鐘 ★ 81
AI LLM KV 缓存 量化
英伟达称其可在不改变模型权重的情况下将 LLM 记忆缩小 20 倍
📌 一句话摘要 英伟达研究人员推出了 KV 缓存变换编码(KVTC),这是一种非侵入式技术,它利用媒体压缩原理,将 LLM 记忆使用量减少 20 倍,并将初始响应时间加快 8 倍。 📝 详细摘要 英伟达发布了 KV 缓存变换编码(KVTC),这是一种旨在解决大型语言模型(LLM)推理中“记忆墙”
📅 2026-03-18 06:43 (29 天前) Ben Dickson 人工智能 9 分鐘 ★ 90
KV 缓存 LLM 推理 英伟达 模型压缩
为什么要在乎 LLM 中的提示词缓存?
📌 一句话摘要 本文解释了提示词缓存如何通过在多个请求中重用预计算的 token 前缀来优化 LLM 性能和成本。 📝 详细摘要 本文对提示词缓存进行了技术深度探讨,这是一种旨在降低大语言模型(LLM)应用延迟和成本的机制。文章首先区分了 LLM 推理中计算密集型“预填充”阶段和内存密集型“解码
📅 2026-03-14 01:11 (03-14 01:11) Maria Mouschoutzi 人工智能 2 分鐘 ★ 78
提示词缓存 LLM 推理 KV 缓存 成本优化