← 回總覽

帮你节省 65% 的 token,这个 GitHub 项目让 Claude 模仿原始人。

📅 2026-04-14 12:37 逛逛GitHub 人工智能 2 分鐘 1612 字 評分: 84
Claude Token 优化 开源项目 AI 编程助手 提示工程
📌 一句话摘要 本文介绍了一个名为 Caveman 的开源 Claude 插件,它通过强制模型模仿“原始人”或使用文言文等极简风格进行回复,实测可节省约 65% 的输出 token,同时附带多种实用子技能和安全机制。 📝 详细摘要 文章介绍了一个名为 Caveman 的开源项目,它是一个针对 Claude Code 的 Skill 插件,由 19 岁的开发者 Julius Brussee 创建。其核心思路是通过赋予 Claude 一个具体的“原始人”人设,强制其使用极简、无废话的风格进行回复,从而大幅减少输出 token 消耗。项目提供 Lite、Full、Ultra 三档压缩强度,以及创

📌 一句话摘要

本文介绍了一个名为 Caveman 的开源 Claude 插件,它通过强制模型模仿“原始人”或使用文言文等极简风格进行回复,实测可节省约 65% 的输出 token,同时附带多种实用子技能和安全机制。

📝 详细摘要

文章介绍了一个名为 Caveman 的开源项目,它是一个针对 Claude Code 的 Skill 插件,由 19 岁的开发者 Julius Brussee 创建。其核心思路是通过赋予 Claude 一个具体的“原始人”人设,强制其使用极简、无废话的风格进行回复,从而大幅减少输出 token 消耗。项目提供 Lite、Full、Ultra 三档压缩强度,以及创新的“文言文模式”,后者利用中文的高信息密度进一步节省 token。文章详细说明了其核心功能,包括配套的自动生成 commit message、代码审查和文件压缩等子技能,并强调了其内置的“安全阀”机制,在必要时会自动退出极简模式以确保安全。作者认为该项目触及了 LLM 输出中充斥礼貌性废话的真实痛点,提供了一种主动约束 AI 表达方式的高效思路,对于高频使用 Claude Code 的开发者具有实用价值。

💡 主要观点

- 通过赋予具体人设(如“原始人”)来约束 AI 输出,比抽象指令更有效。 项目发现,单纯要求 Claude“简洁回答”效果不佳,因为其训练偏好会使其回归啰嗦模式。但赋予一个具体的角色背景(原始人),能更稳定地实现极简输出,这类似于方法派演员的原理。

Caveman 插件提供多档压缩模式和文言文支持,可大幅降低 token 消耗。 插件提供 Lite、Full、Ultra 三档强度,以及创新的文言文模式(分 lite/full/ultra 子档),利用文言文的高信息密度进一步节省 token,实测最高可节省约 65% 的输出 token。
项目包含实用子技能和安全机制,兼顾效率与可靠性。 除了主技能,还提供了自动生成简短 commit message、一行式代码审查和自然语言文件压缩等子技能。同时设计了“auto-clarity”安全阀,在遇到安全警告或复杂指令时会自动恢复正常回复,避免因过度压缩导致误解。

💬 文章金句

- 这个开源项目的核心思路特别简单直接:让 Claude 模仿原始人说话,砍掉所有客套话、解释性废话和修饰词,只留关键信息。

  • 但给它一个具体的人设,比如你是一个原始人,只会说短句,压缩效果就好得多。这个发现挺有意思的,有点像方法派演员,你给一个具体的角色背景,比给一个抽象的指令效果好得多。
  • 文言文这个选择特别有道理。人类历史上信息密度最高的文字系统之一就是文言文,同样一个意思,文言文用字最少,而且中文本身每个字的 token 就比英文少。
  • Caveman 这个项目看似搞笑,但背后触及了一个很真实的痛点:LLM 的输出里大约 70% 是礼貌性的废话,而每一个 token 都是真金白银。
  • 它给我们的启发是,在和 AI 交互的时候,与其被动接受它的啰嗦回复,不如主动约束它的表达方式。而且这个约束越具体越好。

📊 文章信息

AI 初评:84

来源:逛逛GitHub

作者: 逛逛GitHub

分类:人工智能

语言:中文

阅读时间:7 分钟

字数:1652

标签: Claude, Token 优化, 开源项目, AI 编程助手, 提示工程

阅读完整文章

查看原文 → 發佈: 2026-04-14 12:37:00 收錄: 2026-04-14 18:00:40

🤖 問 AI

針對這篇文章提問,AI 會根據文章內容回答。按 Ctrl+Enter 送出。