← 回總覽

离职同事被“炼化”成 AI?这届公司已经不需要活人了

📅 2026-04-14 08:32 网易科技 人工智能 2 分鐘 1714 字 評分: 84
AI 伦理 数字分身 知识产权 法律风险 职场未来
📌 一句话摘要 本文以 GitHub 上出现的「张雪峰.Skill」和「同事.Skill」项目为引子,通过律师访谈探讨了将名人或离职员工“炼化”为 AI 数字分身所涉及的法律边界、伦理困境及未来治理方向。 📝 详细摘要 文章从近期 GitHub 上出现的「张雪峰.Skill」项目切入,探讨了利用公开素材训练 AI 数字分身所引发的法律与伦理争议。通过与知识产权律师的对话,文章厘清了几个关键法律事实:使用公有领域素材训练 AI 的侵权性尚无定论,但输出端使用肖像、声音等则明确侵权;核心判定标准在于是否构成“市场替代”;公司使用员工留下的“职务作品”训练 AI 基本合法,但思想和创意本身不受《

📌 一句话摘要

本文以 GitHub 上出现的「张雪峰.Skill」和「同事.Skill」项目为引子,通过律师访谈探讨了将名人或离职员工“炼化”为 AI 数字分身所涉及的法律边界、伦理困境及未来治理方向。

📝 详细摘要

文章从近期 GitHub 上出现的「张雪峰.Skill」项目切入,探讨了利用公开素材训练 AI 数字分身所引发的法律与伦理争议。通过与知识产权律师的对话,文章厘清了几个关键法律事实:使用公有领域素材训练 AI 的侵权性尚无定论,但输出端使用肖像、声音等则明确侵权;核心判定标准在于是否构成“市场替代”;公司使用员工留下的“职务作品”训练 AI 基本合法,但思想和创意本身不受《著作权法》保护。文章进一步讨论了“赛博永生”的讽刺性——AI 技能文件会快速过时,并提出了未来 AI 治理的可能方向,如“知情同意”制度和收益分红机制。最后,文章反思了技术“炼化”背后的人际关系异化风险。

💡 主要观点

- 使用公开素材训练 AI 数字分身,输入端的法律边界尚不明确,但输出端使用肖像、声音等则明确侵权。 律师指出,用名人公开视频、音频训练 AI 是否侵权尚无定论,但让 AI 使用其脸、声音或动嘴说话,则直接侵犯肖像权、声音权和姓名权。

判定 AI 数字分身是否侵权的核心标准是“市场替代”,即是否实质性替代了原主体的市场功能。 如果生成的 AI 数字人(如“赛博张雪峰”)提供的服务替代了原名人公司的业务,就可能构成不正当竞争,这与使用金庸人物名被判侵权的逻辑类似。
公司使用离职员工的“职务作品”训练 AI 基本合法,但员工的“工作思路”不受法律保护。 员工在职期间产出的报告、代码等职务作品著作权归公司,公司用以训练 AI 风险较低。然而,《著作权法》只保护“表达”不保护“思想”,因此个人的方法论和创意可以被公司提炼使用。
AI 技能文件具有“保质期”,社会环境变化会导致其快速过时,甚至可能带来法律连带责任。 基于过去数据训练的 AI 可能给出错误建议,如果造成用户损失且原作者未标明“训练截止期”,可能需承担连带责任,这使得“赛博永生”本质上是“速朽”的。
未来的 AI 治理可能走向“知情同意”和“收益分红”机制,以平衡技术进步与个人权益。 律师建议,炼化个人前应像 App 获取数据权限一样获得明确同意;同时,被炼化者应像职务发明人一样,从 AI 产生的收益中获得分红。

💬 文章金句

- 如果生成的数字人实质性、部分地替代了原作者的市场功能(例如张雪峰本人的咨询服务公司),在法律上就存在巨大争议。

  • 在《著作权法》中,思想和创意是目前暂未受到保护,法律只保护‘表达’。也就是说,公司可以拿走你写过的每一篇文章、录过的每一段视频,甚至可以提炼你的‘方法论’去训练 AI,只要不用你的脸、不用你的声音,那法律风险就不大。
  • 全社会所有的知识已经被喂给 AI 了,现在去纠结一两个人的作品被炼化只是极小的延伸,大的事情,已经发生完了。
  • AI 的 Skill 文件是有训练截止期的,如果用十年前的数据训练,导致 AI 给了用户错误的建议并造成损失,原作者如果没有标明‘训练截止期’,也可能惹上连带责任。
  • 毕竟,人不是 API 接口,不该被封装调用;人走了,回忆该留下,但让那个人真正活着的,是那些不可被提取的、乱七八糟的、活生生的瞬间。

📊 文章信息

AI 初评:84

来源:网易科技

作者:网易科技

分类:人工智能

语言:中文

阅读时间:11 分钟

字数:2548

标签: AI 伦理, 数字分身, 知识产权, 法律风险, 职场未来

阅读完整文章

查看原文 → 發佈: 2026-04-14 08:32:00 收錄: 2026-04-14 18:00:40

🤖 問 AI

針對這篇文章提問,AI 會根據文章內容回答。按 Ctrl+Enter 送出。