全部 未讀 (12252) ★ 收藏 (0) 🤖 人工智能 (7801) 📊 商业科技 (1922) 💻 软件编程 (1219) 📁 个人成长 (764) 🎨 产品设计 (214) 📁 生活文化 (131) 📁 媒体资讯 (80) 📁 投资财经 (77) 📁 AI 产品 (39) 📁 AI (5)
篩選中: 🏷️ 预训练 共 8 篇 ✕ 清除篩選
12254
全部文章
12252
未讀
124
今日新增
0
收藏
📡 Poller 最後抓取: 36 分鐘前 (04-18 22:00)
BestBlogs 精選 (12233)

🏷️ 熱門標籤

AI Agent 1371 AI 智能体 738 Claude Code 656 Anthropic 652 LLM 564 AI 编程 538 OpenClaw 502 开源 445 AI 安全 410 Claude 401 AI 398 OpenAI 371 软件工程 359 开发者工具 349 生产力 308 GitHub 254 自动化 241 AI 基础设施 229 AI 开发 226 MCP 225
论文秀 Live#36|ICLR 独作突破×Oral 精选× LLM 训练推理新方法
📌 一句话摘要 本文预告并介绍了蚂蚁技术团队将在直播中分享的三篇 ICLR 2026 论文,聚焦于 LLM 预训练调度优化、强化学习熵正则化改进以及扩散模型推理加速三大前沿方向。 📝 详细摘要 文章是蚂蚁技术团队对其「论文秀 Live #36」直播活动的预告和内容摘要。直播将重点解读三篇入选 I
📅 2026-04-13 17:11 (5 天前) 蚂蚁技术 AntTech 人工智能 2 分鐘 ★ 84
ICLR 2026 大语言模型 预训练优化 强化学习
中国具身屠榜全球!10 万小时数据炸场,PI、英伟达集体破防
📌 一句话摘要 灵初智能发布具身智能框架 PSI,利用近 10 万小时人类操作数据预训练策略模型 Psi-R2,并结合世界模型 Psi-W0 进行反事实推演,在 MolmoSpaces 榜单上超越 PI 和英伟达 GEAR 等主流方案。 📝 详细摘要 文章报道了灵初智能在具身智能领域的最新突破。
📅 2026-04-12 10:01 (6 天前) 新智元 人工智能 2 分鐘 ★ 88
具身智能 机器人学习 世界模型 人类数据
关于 Anthropic Mythos 模型的推测
📌 一句话摘要 Matthew Berman 指出,“Mythos” 极有可能是 Anthropic 最新一轮预训练跑出的第一个模型。 📝 详细摘要 这条推文对 Anthropic 的模型研发管线提出了推测性见解,认为 “Mythos” 可能是其最近预训练工作的产物。虽然内容简短,但它点出了这家
📅 2026-04-08 05:18 (10 天前) Matthew Berman 人工智能 1 分鐘 ★ 76
Anthropic Mythos LLM AI 模型
daVinci-LLM 全面开源:涵盖权重、数据与训练流程
📌 一句话摘要 daVinci-LLM 正式开源,包括模型权重、数据流水线、训练过程及消融实验。 📝 详细摘要 daVinci-LLM 项目宣布全面开源,不仅提供模型权重,还公开了数据流水线、训练过程及消融实验细节。这对研究人员和开发者深入理解模型预训练科学具有重要参考价值。 📊 文章信息 A
📅 2026-04-01 14:47 (17 天前) 马东锡 NLP 人工智能 1 分鐘 ★ 81
daVinci-LLM 开源模型 预训练 LLM
Cursor 联合创始人解释技术选型路径,事件定性为「沟通事故」
📌 一句话摘要 Cursor 联合创始人 Aman Sanger 详细解释选择 Kimi K2.5 的技术原因(困惑度指标最强),承认发布博客未提基座模型是失误,并定性该事件为「沟通事故」而非许可证纠纷。 📝 详细摘要 该推文是接着上一条的深入分析。推文引用了 Cursor 联合创始人 Aman
📅 2026-03-21 04:58 (28 天前) 宝玉 人工智能 4 分鐘 ★ 82
Cursor Kimi K2.5 Aman Sanger 强化学习
不用任何人类语言训练,大模型反而更强了?
📌 一句话摘要 本文介绍了一种利用神经细胞自动机(NCA)生成的非语言合成数据进行“预预训练”的新范式,显著提升了大模型的训练效率与推理能力。 📝 详细摘要 研究者提出了一种激进的大模型训练路径:在接触人类语言之前,先让模型在神经细胞自动机(NCA)生成的纯合成数据上进行“预预训练”。NCA 数
📅 2026-03-14 14:31 (03-14 14:31) 机器之心 人工智能 6 分鐘 ★ 86
大语言模型 预训练范式 神经细胞自动机 合成数据
Code Concepts:基于编程概念种子生成的大规模合成数据集
📌 一句话摘要 NVIDIA 推出了一种概念驱动的合成数据生成工作流,并发布了一个包含 1500 万个 Python 问题的数据集,使 Nemotron-Nano-v3 的 HumanEval 评分提升了 6 分。 📝 详细摘要 本文详细介绍了 NVIDIA 创建“Code Concepts”的
📅 2026-03-11 23:50 (03-11 23:50) Joseph Jennings, Brandon Norick 人工智能 2 分鐘 ★ 88
合成数据 LLM 预训练 NVIDIA Nemotron Python 编程
去中心化 AI 的重大突破:Templar 完成史上规模最大的预训练
📌 一句话摘要 Templar 通过 Covenant-72B 完成了史上规模最大的去中心化 LLM 预训练,正式向主流 AI 实验室的算力垄断发起挑战。 📝 详细摘要 本推文探讨了 AI 算力日益向少数科技巨头集中的趋势,并强调去中心化替代方案是这一趋势的关键反制力量。文中宣布了一个重要里程碑
📅 2026-03-11 16:25 (03-11 16:25) 0xSammy 人工智能 1 分鐘 ★ 82
去中心化 AI Templar Bittensor LLM 预训练