全部 未讀 (11821) ★ 收藏 (0) 🤖 人工智能 (7594) 📊 商业科技 (1791) 💻 软件编程 (1198) 📁 个人成长 (736) 🎨 产品设计 (209) 📁 生活文化 (109) 📁 投资财经 (71) 📁 媒体资讯 (69) 📁 AI 产品 (39) 📁 AI (5)
篩選中: 🏷️ Attention Residual 共 10 篇 ✕ 清除篩選
11823
全部文章
11821
未讀
140
今日新增
0
收藏
📡 Poller 最後抓取: 1 小時前 (04-16 14:00)
BestBlogs 精選 (11804)

🏷️ 熱門標籤

AI Agent 1324 AI 智能体 734 Claude Code 645 Anthropic 622 LLM 563 AI 编程 501 OpenClaw 498 开源 439 AI 安全 396 AI 396 Claude 384 OpenAI 362 软件工程 354 开发者工具 343 生产力 308 GitHub 251 自动化 238 AI 基础设施 227 AI 开发 225 MCP 223
黄仁勋:Token 是新大宗商品。中国:收到,已卖疯
📌 一句话摘要 本文探讨了中国 AI 大模型在全球 Token 市场的崛起,重点分析了月之暗面(Kimi)在底层架构创新(Attention Residuals)上的突破以及中国模型凭借极致效率跑通商业飞轮的现状。 📝 详细摘要 文章以黄仁勋在 GTC 大会提出的「Token 是新大宗商品」为引
📅 2026-03-24 07:46 (23 天前) 人人都是产品经理 人工智能 1 分鐘 ★ 86
Token 经济学 Kimi DeepSeek Attention Residuals
Attention 之后,Kimi 终于对 Transformer 的残差连接动手了!附论文英中对照版
📌 一句话摘要 本文深入解读了 Kimi (月之暗面) 提出的 Attention Residuals 架构,该方案通过在深度维度引入注意力机制取代传统残差连接的固定累加,实现了跨层信息的按需检索与高效聚合。 📝 详细摘要 文章详细介绍了 Kimi 团队针对 Transformer 核心组件——
📅 2026-03-21 18:31 (25 天前) AINLP 人工智能 6 分鐘 ★ 86
Transformer 残差连接 Attention Residuals Kimi
从推理架构的角度,谈谈 Attention Residual 架构一些背后的想法
📌 一句话摘要 本文从 AI Infra 推理架构角度,深入分析 Attention Residual 架构的设计思考,阐述如何通过 Block AttnRes 和 two-phase computation 在几乎不增加延迟和成本的前提下显著增强模型表达能力,并分享了从 Full AttnRes
📅 2026-03-21 09:20 (26 天前) 青稞AI 人工智能 2 分鐘 ★ 92
Attention Residual 推理架构 模型优化 two-phase computation
一文读懂 KIMI 杨植麟的 GTC2026 演讲,Kimi 技术路线图全景剖析和深度学习架构的重构与演进
📌 一句话摘要 本文深度剖析了 Kimi 杨植麟在 GTC2026 发布的万亿参数模型 K2.5 及其核心技术突破,涵盖优化器创新、长文本架构重构及颠覆性的“注意力残差”设计。 📝 详细摘要 文章详尽解读了月之暗面(Moonshot AI)在 GTC2026 上的技术演讲及最新学术报告。核心内容
📅 2026-03-19 18:31 (27 天前) Web3天空之城 人工智能 2 分鐘 ★ 93
Kimi K2.5 Attention Residuals MuonClip MoE
前有 DeepSeek,后有 Kimi!马斯克狂赞的中国双子星,炸穿大模型 10 年地基
📌 一句话摘要 本文深入解析了 Kimi(月之暗面)提出的「Attention Residuals」架构创新,探讨其如何通过改进残差连接机制解决深度模型中的信息稀释问题,并对比了其与 DeepSeek mHC 方案的差异及工程落地价值。 📝 详细摘要 文章详细解读了 Kimi 在 NVIDIA
📅 2026-03-19 19:11 (27 天前) 夕小瑶科技说 人工智能 2 分鐘 ★ 88
Kimi Moonshot AI Attention Residuals 深度学习架构
杨植麟 GTC 最新演讲:AI 研究的范式变了!我们要重构 Transformer 的“地基” !首次公开 KimiK2.5 技术路线!
📌 一句话摘要 杨植麟在 GTC 2026 披露了 Kimi K2.5 技术路线,强调通过重构 Transformer 底层架构(如 Attention Residuals)及构建智能体集群来实现智能上限的突破。 📝 详细摘要 文章详细记录了月之暗面创始人杨植麟在英伟达 GTC 2026 上的主
📅 2026-03-18 15:14 (29 天前) 51CTO技术栈 人工智能 2 分鐘 ★ 82
Kimi 月之暗面 Transformer Attention Residuals
马斯克下场点赞!Kimi 这篇论文撬动了大模型的「祖传地基」
📌 一句话摘要 月之暗面(Kimi)发布《Attention Residuals》技术报告,通过将注意力机制引入深度残差连接,挑战并重构了大模型沿用十年的底层架构,显著提升了训练效率。 📝 详细摘要 文章深入解析了 Kimi 团队提出的“注意力残差”(Attention Residuals, A
📅 2026-03-19 01:30 (28 天前) 莫崇宇 人工智能 6 分鐘 ★ 91
Attention Residuals Transformer 残差连接 模型架构
Kimi 新架构让马斯克叹服!17 岁高中生作者一战成名
📌 一句话摘要 Kimi 团队推出 Attention Residuals 架构,通过将注意力机制引入深度残差连接实现“时间-深度对偶”,在显著提升大模型训练效率的同时解决了深层网络的信息稀释问题。 📝 详细摘要 本文报道了月之暗面(Kimi)团队在模型架构上的重大突破——Attention R
📅 2026-03-17 14:51 (03-17 14:51) 克雷西 人工智能 15 分鐘 ★ 87
Kimi Attention Residuals 模型架构 Transformer
Kimi 论文可视化解析:Attention Residuals 架构创新
📌 一句话摘要 博主利用 K2.5 对 Moonshot AI (Kimi) 发布的关于 Attention Residuals 架构的重磅论文进行了可视化解释。 📝 详细摘要 该推文引用了 Moonshot AI 的最新研究成果。该论文提出了一种名为 Attention Residuals 的
📅 2026-03-17 08:53 (03-17 08:53) 歸藏(guizang.ai) 人工智能 1 分鐘 ★ 88
Kimi Moonshot AI Attention Residuals 模型架构
Kimi 发布 Attention Residuals 神经网络架构创新
📌 一句话摘要 月之暗面(Kimi)提出“注意力残差”机制,通过智能挑选层间信息提升模型计算效率 1.25 倍。 📝 详细摘要 该推文详细介绍了 Kimi (Moonshot AI) 最新发布的论文成果:Attention Residuals(注意力残差)。该架构打破了传统 Transforme
📅 2026-03-17 00:03 (03-17 00:03) Berryxia.AI 人工智能 1 分鐘 ★ 88
Kimi Moonshot AI Attention Residuals Transformer