全部 未讀 (11821) ★ 收藏 (0) 🤖 人工智能 (7594) 📊 商业科技 (1791) 💻 软件编程 (1198) 📁 个人成长 (736) 🎨 产品设计 (209) 📁 生活文化 (109) 📁 投资财经 (71) 📁 媒体资讯 (69) 📁 AI 产品 (39) 📁 AI (5)
篩選中: 🏷️ 稀疏注意力 共 3 篇 ✕ 清除篩選
11823
全部文章
11821
未讀
140
今日新增
0
收藏
📡 Poller 最後抓取: 1 小時前 (04-16 14:00)
BestBlogs 精選 (11804)

🏷️ 熱門標籤

AI Agent 1324 AI 智能体 734 Claude Code 645 Anthropic 622 LLM 563 AI 编程 501 OpenClaw 498 开源 439 AI 安全 396 AI 396 Claude 384 OpenAI 362 软件工程 354 开发者工具 343 生产力 308 GitHub 251 自动化 238 AI 基础设施 227 AI 开发 225 MCP 223
北大团队改造 DeepSeek 注意力,速度快四倍还不丢精度
📌 一句话摘要 北京大学张牧涵团队提出 HISA 稀疏注意力机制,通过分层索引解决长文本下的计算瓶颈,在不损失精度且无需重训的情况下,将 DeepSeek 等模型的索引速度提升 2-4 倍。 📝 详细摘要 本文介绍了北京大学人工智能研究院提出的新型稀疏注意力机制 HISA(分层索引稀疏注意力)。
📅 2026-04-06 23:25 (9 天前) 听雨 人工智能 1 分鐘 ★ 92
DeepSeek HISA 稀疏注意力 长文本优化
IndexCache,一种新型稀疏注意力优化器,可使长上下文 AI 模型推理速度提升 1.82 倍
📌 一句话摘要 IndexCache 是一种新型稀疏注意力优化技术,通过跨层缓存索引来减少 DeepSeek 风格模型中的冗余计算,在不影响性能的前提下显著提升推理速度。 📝 详细摘要 IndexCache 解决了 DeepSeek 稀疏注意力(DSA)架构中的计算瓶颈问题,即“闪电索引器”(l
📅 2026-03-28 01:59 (19 天前) Ben Dickson 人工智能 1 分鐘 ★ 88
LLM 稀疏注意力 推理优化 DeepSeek
IndexCache:通过索引复用加速稀疏注意力
📌 一句话摘要 IndexCache 提出通过跨层索引复用,以加速 Transformer 模型中的稀疏注意力机制。 📝 详细摘要 这条推文介绍了“IndexCache”,这是一种旨在加速 Transformer 模型中稀疏注意力的技术方法。通过在不同层之间复用索引,该方法减少了冗余计算,有望在
📅 2026-03-14 00:10 (03-14 00:10) AK 人工智能 1 分鐘 ★ 83
稀疏注意力 推理优化 Transformer IndexCache