全部 未讀 (12207) ★ 收藏 (0) 🤖 人工智能 (7774) 📊 商业科技 (1914) 💻 软件编程 (1214) 📁 个人成长 (761) 🎨 产品设计 (214) 📁 生活文化 (130) 📁 媒体资讯 (80) 📁 投资财经 (76) 📁 AI 产品 (39) 📁 AI (5)
篩選中: 🏷️ 记忆能力 共 3 篇 ✕ 清除篩選
12209
全部文章
12207
未讀
79
今日新增
0
收藏
📡 Poller 最後抓取: 1 小時前 (04-18 16:01)
BestBlogs 精選 (12188)

🏷️ 熱門標籤

AI Agent 1367 AI 智能体 737 Claude Code 655 Anthropic 647 LLM 564 AI 编程 534 OpenClaw 501 开源 444 AI 安全 408 Claude 400 AI 398 OpenAI 371 软件工程 359 开发者工具 348 生产力 308 GitHub 254 自动化 241 AI 基础设施 229 AI 开发 226 MCP 225
Gary Marcus 谈“对齐打地鼠”研究与 AI 版权风险
📌 一句话摘要 Gary Marcus 指出了一项新研究,证明主流大语言模型(LLM)能够逐字复述受版权保护的书籍,并呼吁社会采取行动保护创作者。 📝 详细摘要 Gary Marcus 对“对齐打地鼠”(Alignment Whack-a-Mole)研究论文发表了批判性看法,该论文表明 GPT-
📅 2026-04-01 21:22 (16 天前) Gary Marcus 人工智能 1 分鐘 ★ 83
AI 版权 Alignment Whack-a-Mole LLM 记忆能力 Gary Marcus
Gary Marcus 评 LLM 的记忆与版权问题
📌 一句话摘要 Gary Marcus 引用《Alignment Whack-a-Mole》研究论文,挑战了 Geoffrey Hinton 关于 LLM 记忆能力的立场。 📝 详细摘要 Gary Marcus 引用了研究论文《Alignment Whack-a-Mole: Finetuning
📅 2026-03-28 08:09 (21 天前) Gary Marcus 人工智能 1 分鐘 ★ 80
LLM 版权 记忆能力 AI 研究
前沿模型依赖于记忆,而非泛化
📌 一句话摘要 肖莱引用 EsoLang-Bench 的结果指出,前沿大语言模型 (LLM) 依赖于内容层面的记忆,而非真正的可泛化问题解决能力。 📝 详细摘要 肖莱参考了 EsoLang-Bench 的测试结果,在该测试中,LLM 在处理不熟悉的编程语言时表现大幅下滑。他认为,当前的前沿模型缺
📅 2026-03-20 01:09 (29 天前) François Chollet 人工智能 1 分鐘 ★ 88
EsoLang-Bench 大语言模型 (LLM) 泛化能力 记忆能力