本文报道了 Linux 内核社区正式采纳的 AI 辅助代码开发新规,核心是允许使用 AI 工具但要求透明标注,且最终责任由人类开发者承担。
📝 详细摘要
文章详细介绍了 Linux 内核社区针对 AI 辅助代码开发制定的首套正式规则。新规包含三个核心要点:1) AI 代理不能添加 Signed-off-by 标签,确保法律合规责任由人类承担;2) 必须使用 Assisted-by 标签明确标注 AI 工具、模型版本及辅助分析工具,以增加透明度;3) 人类开发者对 AI 生成的代码负有全部责任,包括审查、许可合规和后续维护。文章追溯了该政策出台的背景,包括 Nvidia 工程师 Sasha Levin 的实践分享引发的社区讨论,以及维护者 Greg Kroah-Hartman 观察到的 AI 生成报告质量从“垃圾”到“真实有用”的转变。最终,社区选择了务实、中性的“Assisted-by”标签,体现了 Linus Torvalds 将 AI 视为“工具”而非“共同作者”的立场。文章还引用了明尼苏达大学事件作为反面案例,强调了信任和透明在开源协作中的重要性。
💡 主要观点
- Linux 内核允许使用 AI 辅助工具,但通过新规确立了“透明标注、人类担责”的核心原则。 新规要求使用 Assisted-by 标签披露 AI 参与细节,同时明确 Signed-off-by 标签和法律责任必须由人类开发者承担,AI 仅是工具。
💬 文章金句
- AI 工具可以用,但 Linux 内核对代码质量的高要求一点也不会放松。
- 只有人类才能合法签署 Linux 内核的开发者来源证明(Developer Certificate of Origin,DCO)。
- 最终,维护者选择了 Assisted-by,更准确地体现 AI 作为‘工具’的角色,而不是‘共同作者’。
- 对我来说,它就应该是——AI 只是一个工具。
- 评判他人的代码,需要一定的品味。
📊 文章信息
AI 初评:88
来源:InfoQ 中文
作者:InfoQ 中文
分类:软件编程
语言:中文
阅读时间:16 分钟
字数:3868
标签: Linux 内核, AI 辅助编程, 开源治理, 代码审查, 开发者责任