全部 未讀 (12207) ★ 收藏 (0) 🤖 人工智能 (7774) 📊 商业科技 (1914) 💻 软件编程 (1214) 📁 个人成长 (761) 🎨 产品设计 (214) 📁 生活文化 (130) 📁 媒体资讯 (80) 📁 投资财经 (76) 📁 AI 产品 (39) 📁 AI (5)
篩選中: 🏷️ 压缩 共 28 篇 ✕ 清除篩選
12209
全部文章
12207
未讀
79
今日新增
0
收藏
📡 Poller 最後抓取: 1 小時前 (04-18 16:01)
BestBlogs 精選 (12188)

🏷️ 熱門標籤

AI Agent 1367 AI 智能体 737 Claude Code 655 Anthropic 647 LLM 564 AI 编程 534 OpenClaw 501 开源 444 AI 安全 408 Claude 400 AI 398 OpenAI 371 软件工程 359 开发者工具 348 生产力 308 GitHub 254 自动化 241 AI 基础设施 229 AI 开发 226 MCP 225
PrismML 发布 1.58bit 开源模型 Ternary Bonsai
📌 一句话摘要 PrismML 发布了 Ternary Bonsai 系列开源模型,采用三元权重,在极致压缩的同时保持高性能,支持多种部署环境。 📝 详细摘要 这条推文宣布了 PrismML 公司 Ternary Bonsai 系列开源模型的发布。该系列模型的核心创新是使用了三元权重(-1, 0
📅 2026-04-17 08:02 (1 天前) Berryxia.AI 人工智能 1 分鐘 ★ 83
Ternary Bonsai 模型压缩 开源模型 边缘 AI
Hermes Agent 无损上下文压缩插件发布
📌 一句话摘要 一个针对 Hermes Agent 的插件,通过将消息存入 SQLite 并采用分层 DAG 摘要技术,解决了上下文填满时因有损摘要导致信息丢失的问题。 📝 详细摘要 这条推文介绍了一个解决 AI Agent 开发中常见痛点的技术方案。Hermes Agent 在处理长对话时,当
📅 2026-04-16 14:19 (2 天前) Geek 人工智能 1 分鐘 ★ 86
Hermes Agent 上下文管理 无损压缩 SQLite
The Art of Efficient Reasoning: 大道至简做好思维链压缩!
📌 一句话摘要 本文深入探讨了基于 Reward Shaping 实现大语言模型高效推理(思维链压缩)的实验观察与核心洞见,总结了在 Qwen3 系列模型上实现 20-40% 思维链压缩同时保持性能的关键策略与陷阱。 📝 详细摘要 文章围绕一篇名为《The Art of Efficient Re
📅 2026-04-15 19:00 (2 天前) 青稞AI 人工智能 2 分鐘 ★ 87
高效推理 思维链压缩 Reward Shaping Qwen3
Claude 性能感知的下降原因分析
📌 一句话摘要 分析指出 Claude 所谓的「降智」现象实则是由于项目复杂度提升导致上下文压缩与理解难度增加。 📝 详细摘要 该推文针对用户普遍感知的 Claude 模型性能下降(降智)提出了不同观点。作者认为,随着用户处理的项目复杂度增加,长上下文的压缩和关联变得更加困难,这挑战了模型的理解
📅 2026-04-12 17:43 (6 天前) Mr Panda 人工智能 1 分鐘 ★ 76
Claude LLM 上下文压缩 模型性能
一句话理解大模型蒸馏的本质
📌 一句话摘要 模型蒸馏的本质是让廉价且快速的小模型学习大模型的能力,以达到性价比平衡。 📝 详细摘要 作者通过通俗易懂的语言解释了「模型蒸馏」(Distillation)的核心逻辑:由于大语言模型(LLM)运行成本高、推理速度慢,通过技术手段让参数量较小的模型模仿大模型的输出,从而在保留大部分
📅 2026-04-10 11:25 (8 天前) Mr Panda 人工智能 1 分鐘 ★ 81
模型蒸馏 LLM 模型压缩 技术科普
简洁性是衡量模型质量的信号
📌 一句话摘要 推文以伽利略的日心说模型为例,讨论了极度的简洁性(而非即刻的预测优势)往往是卓越科学模型的标志。 📝 详细摘要 作为系列推文的延续,Chollet 解释了简洁性是衡量模型质量的关键指标。他以伽利略的日心说模型为例,说明一个模型即使初始预测能力低于更复杂、已建立的模型(如托勒密体系
📅 2026-04-10 07:12 (8 天前) François Chollet 人工智能 1 分鐘 ★ 82
模型质量 奥卡姆剃刀 科学建模 伽利略
压缩型模型在科学中的价值
📌 一句话摘要 Chollet 认为科学应该优先考虑高压缩比的模型,即那些在预测能力与复杂度之间具有高比率的模型,即便它们只是“基本正确”。 📝 详细摘要 在这条总结性推文中,Chollet 呼吁转变科学处理模型的方式。他建议,具有高“压缩性”(预测能力相对于其复杂度的比率很高)的模型即使预测并
📅 2026-04-10 07:14 (8 天前) François Chollet 人工智能 1 分鐘 ★ 81
模型压缩 预测能力 科学方法 复杂度理论
Claude Code 自动压缩上下文阈值设置方法
📌 一句话摘要 介绍如何通过配置文件设置 Claude Code 自动压缩上下文的 Token 阈值。 📝 详细摘要 作为前一条推文的补充,本推文提供了 Claude Code 的另一个高级配置项:`CLAUDE_CODE_AUTO_COMPACT_WINDOW`。通过在配置文件中设置该参数,用
📅 2026-04-09 23:58 (8 天前) 宝玉 人工智能 1 分鐘 ★ 82
Claude Code Token 管理 上下文压缩 AI 开发工具
TriAttention:支持 4090 本地运行 32B 模型的新技术
📌 一句话摘要 TriAttention 通过全新 KV Cache 压缩方法,实现单张 RTX 4090 部署 32B 大模型,推理速度提升 2.5 倍。 📝 详细摘要 由 @yukangchen_ 团队推出的 TriAttention 技术正式开源。该技术基于 Pre-RoPE 空间的三角函
📅 2026-04-09 07:11 (9 天前) Berryxia.AI 人工智能 1 分鐘 ★ 88
TriAttention KV Cache RTX 4090 本地部署
基本压缩(Elementary Condensation)— LessWrong
📌 一句话摘要 本文探讨了“压缩”理论在可解释性领域的实际应用,利用信息论评分来评估不同的分解方法(如 SAE、PCA、随机)在恢复语言模型中共享概念及其作用域方面的表现。 📝 详细摘要 作者研究了 Eisenstat 在 2025 年提出的“压缩:概念理论”,该理论认为数据结构限制了“概念”应
📅 2026-04-08 08:51 (10 天前) Jan 人工智能 1 分鐘 ★ 88
可解释性 稀疏自编码器 信息论 压缩理论
23 个月的周期:从前沿 AI 到掌上算力
📌 一句话摘要 Tomasz Tunguz 分析了 AI 模型压缩的飞速发展,指出前沿级性能现已能在短短 23 个月内从数据中心迁移到智能手机上。 📝 详细摘要 这条推文强调了 AI 模型压缩的加速步伐,并以 Google 发布 Gemma 4 E4B 为例,展示了前沿级性能如何在移动设备上本地
📅 2026-04-07 01:58 (11 天前) Tomasz Tunguz 人工智能 1 分鐘 ★ 82
AI 压缩 Gemma 4 边缘 AI 模型蒸馏
从零开始理解量化
📌 一句话摘要 本文提供了 LLM 量化的简明技术概述,重点介绍了浮点数机制、离群“超级权重”的关键作用,以及不同位深带来的精度权衡。 📝 详细摘要 Simon Willison 整理并分析了 Sam Rose 关于大语言模型(LLM)量化机制的交互式文章。内容解释了浮点数的二进制表示,并引入了
📅 2026-03-27 00:21 (22 天前) Simon Willison 人工智能 1 分鐘 ★ 87
量化 LLM 模型压缩 浮点数
推荐:TurboQuant KV Cache 压缩技术解析
📌 一句话摘要 转发并推荐了一篇关于 Google TurboQuant 论文的深度解析,该技术通过 PolarQuant+QJL 算法实现 KV Cache 的 3-bit 无损压缩。 📝 详细摘要 作者转发了一篇关于 Google TurboQuant 论文的深度解析。该论文提出了一种利用
📅 2026-03-26 19:25 (22 天前) Mr Panda 人工智能 1 分鐘 ★ 86
TurboQuant KV Cache 大模型推理 Google
Google 新推出的 TurboQuant 算法将 AI 内存处理速度提升 8 倍,成本降低 50% 以上
📌 一句话摘要 Google Research 发布了 TurboQuant,这是一套无需训练的算法套件,可实现高达 6 倍的 KV Cache 压缩和 8 倍的注意力计算性能提升,显著降低了 AI 推理成本和硬件需求。 📝 详细摘要 TurboQuant 解决了大语言模型(LLM)中关键的“K
📅 2026-03-26 03:35 (23 天前) Carl Franzen 人工智能 1 分鐘 ★ 87
TurboQuant LLM KV Cache 模型压缩
谷歌发布 TurboQuant:提升 LLM 效率
📌 一句话摘要 谷歌推出全新的 TurboQuant 算法,显著降低了 LLM 的内存占用并提升了推理速度,实现了高质量的本地 AI 执行。 📝 详细摘要 Alex Finn 重点介绍了谷歌发布的 TurboQuant,这是一种压缩算法,能在不损失精度的情况下,将 LLM 的键值(KV)缓存内存
📅 2026-03-25 13:33 (24 天前) Alex Finn 人工智能 4 分鐘 ★ 82
TurboQuant 谷歌 LLM 模型压缩
AI 记忆管理与人类梦境的类比
📌 一句话摘要 Andrew Chen 将 Claude Code 中的“Auto-dream”记忆巩固功能与人类的生理梦境过程进行了类比。 📝 详细摘要 这条推文重点介绍了 Claude Code 中位于 /memory 目录下的“Auto-dream”功能,它会定期运行一个子智能体(suba
📅 2026-03-24 11:40 (25 天前) andrew chen 人工智能 1 分鐘 ★ 80
Claude Code AI 记忆 上下文压缩 AI 智能体
MiniMax 定理:压缩即智能
📌 一句话摘要 本文深入探讨了「压缩即智能」的核心逻辑,结合信息论、科学史、博弈论与生物学,阐述智能本质上是寻找最小描述长度以实现最大预测能力的过程。 📝 详细摘要 文章系统性地解析了 AI 领域的核心哲学「压缩即智能」。作者从刘慈欣科幻小说《诗云》中的穷举困境出发,指出智能不在于海量数据的堆砌
📅 2026-03-23 18:44 (25 天前) 赛博禅心 人工智能 1 分鐘 ★ 90
压缩即智能 信息论 大语言模型 Minimax 定理
Cursor 自研模型反超 Opus 4.6!价格脚踝斩,氛围编程沸腾了
📌 一句话摘要 Cursor 发布自研编程模型 Composer 2,凭借创新的“自我总结”强化学习技术,在性能超越 Claude Opus 4.6 的同时实现了价格的“脚踝斩”。 📝 详细摘要 本文详细报道了 AI 编程工具 Cursor 推出的自研模型 Composer 2 及其高性能变体。
📅 2026-03-20 12:09 (29 天前) 一水 人工智能 2 分鐘 ★ 82
Cursor Composer 2 AI 编程 强化学习
想进 OpenAI?先解出这道题,百万美元算力已就位
📌 一句话摘要 OpenAI 发起 Parameter Golf 挑战赛,要求在 16MB 产物大小和 10 分钟训练限制下优化模型,旨在挖掘极致的模型压缩与效率优化人才。 📝 详细摘要 本文报道了 OpenAI 推出的全新技术挑战赛——Model Craft Challenge「Paramet
📅 2026-03-19 14:46 (03-19 14:46) 机器之心 人工智能 2 分鐘 ★ 76
OpenAI 模型压缩 Parameter Golf 模型训练优化
英伟达称其可在不改变模型权重的情况下将 LLM 记忆缩小 20 倍
📌 一句话摘要 英伟达研究人员推出了 KV 缓存变换编码(KVTC),这是一种非侵入式技术,它利用媒体压缩原理,将 LLM 记忆使用量减少 20 倍,并将初始响应时间加快 8 倍。 📝 详细摘要 英伟达发布了 KV 缓存变换编码(KVTC),这是一种旨在解决大型语言模型(LLM)推理中“记忆墙”
📅 2026-03-18 06:43 (03-18 06:43) Ben Dickson 人工智能 9 分鐘 ★ 90
KV 缓存 LLM 推理 英伟达 模型压缩