全部 未讀 (11757) ★ 收藏 (0) 🤖 人工智能 (7554) 📊 商业科技 (1778) 💻 软件编程 (1192) 📁 个人成长 (734) 🎨 产品设计 (207) 📁 生活文化 (108) 📁 投资财经 (71) 📁 媒体资讯 (69) 📁 AI 产品 (39) 📁 AI (5)
篩選中: 🏷️ MSA 共 4 篇 ✕ 清除篩選
11759
全部文章
11757
未讀
76
今日新增
0
收藏
📡 Poller 最後抓取: 1 小時前 (04-16 10:00)
BestBlogs 精選 (11740)

🏷️ 熱門標籤

AI Agent 1314 AI 智能体 732 Claude Code 641 Anthropic 620 LLM 563 OpenClaw 497 AI 编程 492 开源 438 AI 396 AI 安全 394 Claude 380 OpenAI 360 软件工程 353 开发者工具 340 生产力 308 GitHub 248 自动化 238 AI 基础设施 227 AI 开发 224 MCP 223
EverMind MSA:挑战 RAG 的超长上下文记忆机制
📌 一句话摘要 介绍开源项目 EverMind MSA,通过整合记忆与注意力机制,实现 1 亿 token 的超长上下文能力。 📝 详细摘要 该推文介绍了 EverMind 开源的 MSA 项目,该方案试图通过将记忆与注意力机制直接整合,替代传统的 RAG 外接数据方式。MSA 支持 1 亿 t
📅 2026-04-07 18:00 (8 天前) GitHubDaily 人工智能 1 分鐘 ★ 81
EverMind MSA 长上下文 RAG
MSA:实现 AI 人类级记忆的技术方案
📌 一句话摘要 深度解析 MSA(Memory Sparse Attention)技术,探讨其在 AI 记忆扩展方面的潜力与局限。 📝 详细摘要 作者详细解读了 MSA 技术,对比了其与参数修改、RAG 的差异。MSA 通过将记忆与推理解耦、使用独立位置编码等机制,实现了在保持高效的同时扩展 A
📅 2026-03-28 19:43 (18 天前) 向阳乔木 人工智能 1 分鐘 ★ 88
AI MSA 记忆机制 RAG
2 张 A800,让大模型跑 1 亿上下文!陈天桥旗下团队联合北大狠作:直接把记忆写进注意力机制!记忆和推理完美解耦了!网友:优雅!RAG 真完了
📌 一句话摘要 陈天桥旗下 Evermind 团队联合北大推出 MSA 架构,通过将检索集成进注意力机制,实现 2 张 A800 驱动 1 亿 token 超长上下文推理。 📝 详细摘要 本文详细介绍了由 Evermind 团队与北京大学联合发表的突破性研究:存储稀疏注意力(MSA)。该技术旨在
📅 2026-03-20 12:34 (26 天前) 51CTO技术栈 人工智能 1 分鐘 ★ 85
MSA 长上下文 注意力机制 RAG
MSA (Memory Sparse Attention) 论文解析:大模型长记忆的新突破
📌 一句话摘要 MSA 架构通过端到端训练实现线性复杂度的超长记忆,在 1 亿 token 上下文下保持高精度,且推理成本极低。 📝 详细摘要 该推文介绍了 Memory Sparse Attention (MSA) 论文,指出其通过将记忆直接融入注意力机制,实现了大模型的原生超长记忆。相比 R
📅 2026-03-20 07:55 (27 天前) Berryxia.AI 人工智能 4 分鐘 ★ 88
MSA Memory Sparse Attention LLM 长上下文