SuperPortia Reading
總覽
文章
簡報
🔍 搜尋
全部
未讀 (11904)
★ 收藏 (0)
🤖 人工智能 (7639)
📊 商业科技 (1811)
💻 软件编程 (1202)
📁 个人成长 (745)
🎨 产品设计 (211)
📁 生活文化 (111)
📁 投资财经 (71)
📁 媒体资讯 (70)
📁 AI 产品 (39)
📁 AI (5)
篩選中:
🏷️ 大语言模型理论
共 1 篇
✕ 清除篩選
11906
全部文章
11904
未讀
223
今日新增
0
收藏
📡 Poller
最後抓取:
1 小時前
(04-16 20:00)
BestBlogs 精選 (11887)
🏷️ 熱門標籤
AI Agent
1332
AI 智能体
734
Claude Code
646
Anthropic
629
LLM
563
AI 编程
508
OpenClaw
499
开源
439
AI 安全
405
AI
396
Claude
389
OpenAI
365
软件工程
357
开发者工具
343
生产力
308
GitHub
251
自动化
238
AI 基础设施
227
AI 开发
225
MCP
223
●
ICLR 2026 | 清华提出交叉熵分解:“误差熵”才是大模型规模定律真正的驱动项
📌 一句话摘要 清华大学研究团队提出将交叉熵分解为误差熵、自对齐和置信度,发现仅误差熵严格遵循规模定律,从而揭示了大模型缩放失效的深层机制。 📝 详细摘要 本文介绍了清华大学 FAITH Lab 发表在 ICLR 2026 上的研究成果。针对大模型训练中交叉熵规模定律(Scaling Law)在
📅 2026-03-21 13:01
(26 天前)
机器之心
人工智能
6 分鐘
★ 89
Scaling Law
交叉熵分解
误差熵
大语言模型理论