SuperPortia Reading
總覽
文章
簡報
🔍 搜尋
全部
未讀 (11821)
★ 收藏 (0)
🤖 人工智能 (7594)
📊 商业科技 (1791)
💻 软件编程 (1198)
📁 个人成长 (736)
🎨 产品设计 (209)
📁 生活文化 (109)
📁 投资财经 (71)
📁 媒体资讯 (69)
📁 AI 产品 (39)
📁 AI (5)
篩選中:
🏷️ KV 缓存
共 3 篇
✕ 清除篩選
11823
全部文章
11821
未讀
140
今日新增
0
收藏
📡 Poller
最後抓取:
16 分鐘前
(04-16 14:00)
BestBlogs 精選 (11804)
🏷️ 熱門標籤
AI Agent
1324
AI 智能体
734
Claude Code
645
Anthropic
622
LLM
563
AI 编程
501
OpenClaw
498
开源
439
AI 安全
396
AI
396
Claude
384
OpenAI
362
软件工程
354
开发者工具
343
生产力
308
GitHub
251
自动化
238
AI 基础设施
227
AI 开发
225
MCP
223
●
关于 AI 模型性能下降的技术假设
📌 一句话摘要 Antirez 指出,用户感知到的 AI 模型性能下降可能不仅仅是人类的主观偏差,也可能源于激进的 KV 缓存量化等技术变更。 📝 详细摘要 这条推文探讨了用户中普遍存在的认知——AI 模型似乎会随着时间推移而性能下降。虽然这通常被归因于人类的主观偏差,但作者提出了另一种技术层面
📅 2026-03-30 22:55
(16 天前)
antirez
人工智能
1 分鐘
★ 81
AI
LLM
KV 缓存
量化
●
英伟达称其可在不改变模型权重的情况下将 LLM 记忆缩小 20 倍
📌 一句话摘要 英伟达研究人员推出了 KV 缓存变换编码(KVTC),这是一种非侵入式技术,它利用媒体压缩原理,将 LLM 记忆使用量减少 20 倍,并将初始响应时间加快 8 倍。 📝 详细摘要 英伟达发布了 KV 缓存变换编码(KVTC),这是一种旨在解决大型语言模型(LLM)推理中“记忆墙”
📅 2026-03-18 06:43
(29 天前)
Ben Dickson
人工智能
9 分鐘
★ 90
KV 缓存
LLM 推理
英伟达
模型压缩
●
为什么要在乎 LLM 中的提示词缓存?
📌 一句话摘要 本文解释了提示词缓存如何通过在多个请求中重用预计算的 token 前缀来优化 LLM 性能和成本。 📝 详细摘要 本文对提示词缓存进行了技术深度探讨,这是一种旨在降低大语言模型(LLM)应用延迟和成本的机制。文章首先区分了 LLM 推理中计算密集型“预填充”阶段和内存密集型“解码
📅 2026-03-14 01:11
(03-14 01:11)
Maria Mouschoutzi
人工智能
2 分鐘
★ 78
提示词缓存
LLM 推理
KV 缓存
成本优化