全部 未讀 (11742) ★ 收藏 (0) 🤖 人工智能 (7549) 📊 商业科技 (1777) 💻 软件编程 (1189) 📁 个人成长 (733) 🎨 产品设计 (207) 📁 生活文化 (104) 📁 投资财经 (71) 📁 媒体资讯 (68) 📁 AI 产品 (39) 📁 AI (5)
篩選中: 🏷️ 深度学习 共 29 篇 ✕ 清除篩選
11744
全部文章
11742
未讀
61
今日新增
0
收藏
📡 Poller 最後抓取: 13 分鐘前 (04-16 08:00)
BestBlogs 精選 (11725)

🏷️ 熱門標籤

AI Agent 1312 AI 智能体 732 Claude Code 641 Anthropic 620 LLM 563 OpenClaw 497 AI 编程 491 开源 438 AI 396 AI 安全 394 Claude 380 OpenAI 360 软件工程 353 开发者工具 339 生产力 308 GitHub 248 自动化 238 AI 基础设施 227 AI 开发 224 MCP 223
Transformer 技术纵深:架构解析与前沿突破(书籍大图 1~12 章)
📌 一句话摘要 本文是《Transformer 技术纵深:架构解析与前沿突破》一书的配套高清图片集,提供了书中前 12 章共 80 余张核心技术图解,以弥补纸质版因成本控制导致的图片尺寸和色彩限制。 📝 详细摘要 本文是作者为其技术书籍《Transformer 技术纵深:架构解析与前沿突破》发布
📅 2026-04-15 21:00 (11 小時前) 罗西的思考 人工智能 1 分鐘 ★ 78
Transformer 大语言模型 技术图解 深度学习
一天仅需 5 毛钱,开源框架替你半夜跑实验!7*24 小时待命
📌 一句话摘要 本文介绍了一个名为 Deep Researcher Agent 的开源 AI Agent 框架,它能够 7*24 小时自动执行深度学习实验的完整循环,通过巧妙的零成本监控和恒定记忆设计,将每日运行成本降至约 5 毛钱,旨在解放研究者的重复劳动时间。 📝 详细摘要 文章详细介绍了开
📅 2026-04-12 10:01 (3 天前) 新智元 人工智能 2 分鐘 ★ 88
AI Agent 深度学习 自动化实验 开源框架
魏智渊:警惕孩子的“低品质勤奋”,教育的本质是深度学习
📌 一句话摘要 教育专家魏智渊指出,机械重复的“低品质勤奋”透支了孩子的认知敏感度,家长应通过建立学习闭环、呵护学习浪漫感及培养深度思考力,帮助孩子在不确定的时代构建核心竞争力。 📝 详细摘要 本文深度解析了教育专家魏智渊关于“低品质勤奋”的观点。作者指出,应试教育中常见的机械刷题属于违反脑科学
📅 2026-04-10 12:28 (5 天前) 武志红 个人成长 1 分鐘 ★ 86
教育理念 深度学习 学习方法 家庭教育
李宏毅老师讲解 Positional Embedding:Transformer 位置编码系统指南
📌 一句话摘要 本文整理了台大李宏毅老师关于 Transformer 位置编码的课程精要,涵盖从绝对位置编码到 RoPE 等主流方案的演进逻辑与技术原理。 📝 详细摘要 文章核心总结了李宏毅老师 2026 春季课程中关于位置编码(Positional Embedding)的教学内容。由于 Sel
📅 2026-04-09 19:25 (6 天前) AINLP 人工智能 5 分鐘 ★ 86
Transformer 位置编码 RoPE 李宏毅
李飞飞:从干洗店走出的 AI 教母
📌 一句话摘要 这段励志故事讲述了李飞飞如何从一名做家政服务的移民,成长为创建 ImageNet 这一点燃深度学习革命的数据集的“AI 教母”。 📝 详细摘要 这条推文介绍了被誉为“AI 教母”的李飞飞博士(Dr. Fei-Fei Li)非凡的成长背景。文章详细描述了她作为一名不会英语的移民,在
📅 2026-04-07 21:28 (8 天前) Nav Toor 人工智能 1 分鐘 ★ 82
Fei-Fei Li ImageNet AI 历史 深度学习
如何在 PyCharm 中训练你的第一个 TensorFlow 模型 | PyCharm 博客
📌 一句话摘要 一份实用且对初学者友好的指南,介绍如何在 PyCharm IDE 中使用 TensorFlow 构建、训练和评估神经网络。 📝 详细摘要 本文为机器学习新手提供了一份分步教程,演示了如何在 PyCharm 中设置 TensorFlow 项目。文章涵盖了完整的开发生命周期,从加载
📅 2026-04-07 18:36 (8 天前) Evgenia Verbina 人工智能 1 分鐘 ★ 80
TensorFlow PyCharm 机器学习 Keras
反思深度学习的局限性
📌 一句话摘要 Gary Marcus 回顾了他 2022 年关于深度学习局限性以及 LLM 缺乏推理能力的文章。 📝 详细摘要 Marcus 分享了他 2022 年 3 月文章的链接,认为深度学习领域已经触及了瓶颈。他重申了自己长期以来的观点:LLM 缺乏真正的推理能力,而业界一直忽视了这些根
📅 2026-04-07 10:10 (8 天前) Gary Marcus 人工智能 1 分鐘 ★ 78
深度学习 LLM AI 局限性 Gary Marcus
警惕工具崇拜:回归深度学习基础
📌 一句话摘要 作者通过个人与妻子的学习对比,指出过度沉迷 AI 工具而忽视底层原理会导致技能积累停滞,强调回归基础的重要性。 📝 详细摘要 推文分享了作者对 AI 学习路径的反思。通过对比自己沉迷于折腾 AI 工具与妻子稳扎稳打学习深度学习算法的经历,作者指出在 AI 时代,掌握底层原理比单纯
📅 2026-04-07 10:16 (8 天前) Mr Panda 个人成长 3 分鐘 ★ 80
AI 学习 深度学习 技能积累 个人成长
深度学习研究的局限性
📌 一句话摘要 François Chollet 批评了许多深度学习研究者视野狭隘,他们将学习完全等同于梯度下降。 📝 详细摘要 François Chollet 指出了深度学习研究社区内一个令人惊讶的局限性:许多从业者未曾了解或无法构想出基于梯度下降的曲线拟合之外的学习范式。这一批评凸显了研究
📅 2026-04-07 08:23 (8 天前) François Chollet 人工智能 1 分鐘 ★ 86
深度学习 AI 研究 梯度下降 François Chollet
曲线拟合与符号学习
📌 一句话摘要 Chollet 对比了曲线拟合与符号学习,认为后者在涉及简单潜在程序的问题上更具优势。 📝 详细摘要 Chollet 在概念上区分了曲线拟合(他将其描述为生成式程序的有损近似)和符号学习(他将其定义为源代码的无损逆向工程)。他认为,虽然符号学习并非万能解决方案,但在潜在程序相对简
📅 2026-04-07 06:06 (9 天前) François Chollet 人工智能 1 分鐘 ★ 87
符号学习 深度学习 AI 理论 曲线拟合
科学中的极端泛化与符号压缩
📌 一句话摘要 François Chollet 认为科学突破依赖于极端泛化和符号压缩,并将其与简单的曲线拟合进行了对比。 📝 详细摘要 Chollet 以原子弹的研发为例,探讨了“极端泛化”的概念。他认为,真正的科学进步是由“符号压缩”驱动的——即将极少量的数据点转化为因果符号规则——而不是目
📅 2026-04-06 00:20 (10 天前) François Chollet 人工智能 3 分鐘 ★ 88
AI 哲学 符号 AI 泛化 深度学习
平均场序列:入门介绍 — LessWrong
📌 一句话摘要 本文介绍了“自适应平均场理论”(Adaptive Mean Field Theory),将其作为一种稳健的神经网络可解释性框架,通过将神经元视为相互作用的粒子,来解释诸如“顿悟”(grokking)和特征学习等涌现行为。 📝 详细摘要 本文是关于应用于神经网络可解释性的“自适应平
📅 2026-04-04 15:30 (11 天前) Dmitry Vaintrob 人工智能 22 分鐘 ★ 89
平均场理论 可解释性 神经网络 统计物理学
DenseNet 论文详解:全连接
📌 一句话摘要 本文全面解析了 DenseNet 架构,阐述了密集块(dense blocks)和过渡层(transition layers)等核心组件,并提供了从零开始的 PyTorch 实现步骤。 📝 详细摘要 本文探讨了 DenseNet(密集连接卷积网络),这是一种旨在缓解深度神经网络中
📅 2026-04-03 22:21 (12 天前) Muhammad Ardi 人工智能 2 分鐘 ★ 85
DenseNet 计算机视觉 深度学习 PyTorch
#473.AI 革命的起点:AlphaGo 十周年,从围棋巅峰到攻克科学难题的深度复盘
📌 一句话摘要 深度对话 DeepMind 核心成员,复盘 AlphaGo 如何通过「直觉与计算结合」开启 AI 革命,并揭秘将 AI 游戏算法转化为攻克蛋白质折叠、矩阵乘法等科学难题的核心逻辑。 📝 详细摘要 本期播客是对 Google DeepMind 官方节目的深度克隆与翻译,邀请了 Al
📅 2026-03-28 05:56 (19 天前) 跨国串门儿计划 人工智能 2 分鐘 ★ 91
AlphaGo 强化学习 AlphaFold 深度学习
François Chollet 谈智能的第一性原理与 ARC
📌 一句话摘要 François Chollet 在 Lightcone 播客中探讨了当前深度学习的局限性、ARC 基准测试以及通往真正 AGI 的路径。 📝 详细摘要 在本期 Lightcone 播客中,François Chollet 探讨了扩展深度学习的基本局限性,并主张采用第一性原理的方
📅 2026-03-27 22:00 (19 天前) Y Combinator 人工智能 1 分鐘 ★ 88
François Chollet ARC AGI 深度学习
运动脉冲:从视觉动态中测量物理帧率
📌 一句话摘要 一篇新的研究论文介绍了一种从视觉动态中测量物理帧率的方法,为运动感知和分析提供了新见解。 📝 详细摘要 这条推文介绍了一篇题为《运动脉冲》(The Pulse of Motion) 的研究论文,该论文提出了一种基于视觉动态测量物理帧率的技术。这项工作探讨了 AI 模型如何解读视频
📅 2026-03-27 04:22 (20 天前) AK 人工智能 1 分鐘 ★ 78
AI 研究 计算机视觉 运动分析 物理帧率
LLM 架构图库更新:新增差异对比工具
📌 一句话摘要 Sebastian Raschka 更新了他的 LLM 架构图库,新增了一个用于对比模型架构的差异工具。 📝 详细摘要 Sebastian Raschka 为他的 LLM 架构图库进行了重大升级,其中最亮眼的就是新增的“差异对比”工具。该功能允许用户直接对比不同的 LLM 架构,
📅 2026-03-27 01:55 (20 天前) Sebastian Raschka 人工智能 3 分鐘 ★ 80
LLM AI 架构 Sebastian Raschka 模型对比
现代 LLM 注意力机制变体可视化指南
📌 一句话摘要 Sebastian Raschka 提供了一份详尽的指南,对大语言模型中使用的现代注意力机制进行了可视化解析。 📝 详细摘要 这条推文分享了一篇详尽的教学文章,通过可视化方式拆解了 LLM 中各种注意力机制的变体。它为理解现代注意力机制的架构细节提供了一个清晰、整合的参考,对于希
📅 2026-03-22 20:49 (24 天前) Sebastian Raschka 人工智能 1 分鐘 ★ 87
LLM 注意力机制 深度学习 AI 架构
深度学习系统对齐的未来可能看起来像“基于可解释性训练”——LessWrong
📌 一句话摘要 文章提出“基于可解释性训练”作为对齐深度学习系统最有前景的方法,认为当前的 RLHF 方法失败是因为它们只优化输出而不控制内部过程,可能导致欺骗性对齐。 📝 详细摘要 本文来自 LessWrong,对 AI 对齐挑战进行了引人深思的分析,并提出了一种名为“基于可解释性训练”的新方
📅 2026-03-21 07:06 (26 天前) williawa 人工智能 7 分鐘 ★ 85
AI对齐 深度学习 可解释性 欺骗性对齐
费曼学习法是人工的反向传播
📌 一句话摘要 将费曼学习法类比为神经网络的人工反向传播,用权重更新解释学习深度。 📝 详细摘要 作者提出了一个精妙的类比:费曼学习法就是人工的反向传播。读懂一个东西不够,还需要用自己的话讲出来。讲不清楚说明梯度没有回传到底层,只是记住表面 token 的排列顺序。费曼方法在测试梯度传到哪一层:
📅 2026-03-21 07:25 (26 天前) 向阳乔木 人工智能 3 分鐘 ★ 89
费曼学习法 反向传播 深度学习 学习方法