本文介绍了一个名为 Caveman 的开源 Claude 插件,它通过强制模型模仿“原始人”或使用文言文等极简风格进行回复,实测可节省约 65% 的输出 token,同时附带多种实用子技能和安全机制。
📝 详细摘要
文章介绍了一个名为 Caveman 的开源项目,它是一个针对 Claude Code 的 Skill 插件,由 19 岁的开发者 Julius Brussee 创建。其核心思路是通过赋予 Claude 一个具体的“原始人”人设,强制其使用极简、无废话的风格进行回复,从而大幅减少输出 token 消耗。项目提供 Lite、Full、Ultra 三档压缩强度,以及创新的“文言文模式”,后者利用中文的高信息密度进一步节省 token。文章详细说明了其核心功能,包括配套的自动生成 commit message、代码审查和文件压缩等子技能,并强调了其内置的“安全阀”机制,在必要时会自动退出极简模式以确保安全。作者认为该项目触及了 LLM 输出中充斥礼貌性废话的真实痛点,提供了一种主动约束 AI 表达方式的高效思路,对于高频使用 Claude Code 的开发者具有实用价值。
💡 主要观点
- 通过赋予具体人设(如“原始人”)来约束 AI 输出,比抽象指令更有效。 项目发现,单纯要求 Claude“简洁回答”效果不佳,因为其训练偏好会使其回归啰嗦模式。但赋予一个具体的角色背景(原始人),能更稳定地实现极简输出,这类似于方法派演员的原理。
💬 文章金句
- 这个开源项目的核心思路特别简单直接:让 Claude 模仿原始人说话,砍掉所有客套话、解释性废话和修饰词,只留关键信息。
- 但给它一个具体的人设,比如你是一个原始人,只会说短句,压缩效果就好得多。这个发现挺有意思的,有点像方法派演员,你给一个具体的角色背景,比给一个抽象的指令效果好得多。
- 文言文这个选择特别有道理。人类历史上信息密度最高的文字系统之一就是文言文,同样一个意思,文言文用字最少,而且中文本身每个字的 token 就比英文少。
- Caveman 这个项目看似搞笑,但背后触及了一个很真实的痛点:LLM 的输出里大约 70% 是礼貌性的废话,而每一个 token 都是真金白银。
- 它给我们的启发是,在和 AI 交互的时候,与其被动接受它的啰嗦回复,不如主动约束它的表达方式。而且这个约束越具体越好。
📊 文章信息
AI 初评:84
来源:逛逛GitHub
作者: 逛逛GitHub
分类:人工智能
语言:中文
阅读时间:7 分钟
字数:1652
标签: Claude, Token 优化, 开源项目, AI 编程助手, 提示工程