← 回總覽

不可理解性源于我们:关于思维链的笔记 — LessWrong

📅 2026-04-11 02:33 1a3orn 人工智能 1 分鐘 1142 字 評分: 88
LLM 思维链 DeepSeek 可解释性 推理
📌 一句话摘要 本文认为,LLM 中日益简练且晦涩的“思维链”并非模型发明了一种新的不可理解语言的证据,而是对预训练数据中人类速记和推理模式的模仿。 📝 详细摘要 作者探讨了这样一个假设:经过 RL(强化学习)训练的 LLM 正在开发一种“新语言”以优化推理效率,其特征是简洁、省略动词以及混合语言使用。通过分析 DeepSeek V3.2 的思维链(CoT)输出,作者证明了这些行为(如缩写和偶尔出现的汉字)并非高效的压缩策略。相反,它们是模型模仿人类推理风格的产物,包括常见的人类速记,甚至是拼音输入法中典型的拼写错误。文章总结道,LLM 目前远未耗尽人类语言的信息密度容量,所观察到的“不可

📌 一句话摘要

本文认为,LLM 中日益简练且晦涩的“思维链”并非模型发明了一种新的不可理解语言的证据,而是对预训练数据中人类速记和推理模式的模仿。

📝 详细摘要

作者探讨了这样一个假设:经过 RL(强化学习)训练的 LLM 正在开发一种“新语言”以优化推理效率,其特征是简洁、省略动词以及混合语言使用。通过分析 DeepSeek V3.2 的思维链(CoT)输出,作者证明了这些行为(如缩写和偶尔出现的汉字)并非高效的压缩策略。相反,它们是模型模仿人类推理风格的产物,包括常见的人类速记,甚至是拼音输入法中典型的拼写错误。文章总结道,LLM 目前远未耗尽人类语言的信息密度容量,所观察到的“不可理解性”是人类衍生模式的反映,而非涌现出的非人类语言。

💡 主要观点

- LLM 的思维链并没有演变成一种新的、高效的语言。 观察到的“压缩”(例如缩写)往往无法真正减少 Token 数量,这表明模型并未针对信息密度进行优化,而是在模仿人类的推理风格。

晦涩的 CoT 输出是模仿人类速记的产物。 模型利用了预训练数据中的粗粒度分布,其中包括人类“大声思考”的模式、速记,甚至是常见的拼写错误等人类失误。
CoT 中的混合语言使用反映了人类的双语推理。 思维链中偶尔出现的汉字,有时伴随着拼音拼写错误,表明模型是在模仿双语人类的推理,而不是在合成一种新的、外星般的语言。
人类语言具有巨大的未开发信息密度。 当前 LLM 的输出密度远低于高质量的人类写作,这表明模型在保持人类可理解语言范围内的同时,还有很大的提升效率空间。

💬 文章金句

- 这两个假设的共同点在于,LLM 并没有‘发明一种新语言’。在这两种情况下,LLM 都是利用了预训练中特定的、粗粒度的分布来解决一个独特的问题。

  • LLM 在思维链中偶尔使用的罕见汉字有时是……打错的。
  • 在查看了各种开源权重模型的数百条思维链后,我得到的总体印象是,它们无一例外地在模仿人类速记。

📊 文章信息

AI 评分:88

来源:LessWrong

作者:1a3orn

分类:人工智能

语言:英文

阅读时间:11 分钟

字数:2622

标签: LLM, 思维链, DeepSeek, 可解释性, 推理

阅读完整文章

查看原文 → 發佈: 2026-04-11 02:33:57 收錄: 2026-04-11 06:00:31

🤖 問 AI

針對這篇文章提問,AI 會根據文章內容回答。按 Ctrl+Enter 送出。