SuperPortia Reading
總覽
文章
簡報
🔍 搜尋
全部
未讀 (12207)
★ 收藏 (0)
🤖 人工智能 (7774)
📊 商业科技 (1914)
💻 软件编程 (1214)
📁 个人成长 (761)
🎨 产品设计 (214)
📁 生活文化 (130)
📁 媒体资讯 (80)
📁 投资财经 (76)
📁 AI 产品 (39)
📁 AI (5)
篩選中:
🏷️ 误差熵
共 1 篇
✕ 清除篩選
12209
全部文章
12207
未讀
79
今日新增
0
收藏
📡 Poller
最後抓取:
1 小時前
(04-18 16:01)
BestBlogs 精選 (12188)
🏷️ 熱門標籤
AI Agent
1367
AI 智能体
737
Claude Code
655
Anthropic
647
LLM
564
AI 编程
534
OpenClaw
501
开源
444
AI 安全
408
Claude
400
AI
398
OpenAI
371
软件工程
359
开发者工具
348
生产力
308
GitHub
254
自动化
241
AI 基础设施
229
AI 开发
226
MCP
225
●
ICLR 2026 | 清华提出交叉熵分解:“误差熵”才是大模型规模定律真正的驱动项
📌 一句话摘要 清华大学研究团队提出将交叉熵分解为误差熵、自对齐和置信度,发现仅误差熵严格遵循规模定律,从而揭示了大模型缩放失效的深层机制。 📝 详细摘要 本文介绍了清华大学 FAITH Lab 发表在 ICLR 2026 上的研究成果。针对大模型训练中交叉熵规模定律(Scaling Law)在
📅 2026-03-21 13:01
(28 天前)
机器之心
人工智能
6 分鐘
★ 89
Scaling Law
交叉熵分解
误差熵
大语言模型理论