← 回總覽

GitHub 将使用 Free、Pro 和 Pro+ 用户的 Copilot 交互数据来训练 AI 模型

📅 2026-04-02 18:17 Steef-Jan Wiggers 人工智能 2 分鐘 1275 字 評分: 85
GitHub Copilot AI 训练数据 隐私政策 数据伦理 开发工具
📌 一句话摘要 自 4 月 24 日起,GitHub 将默认使用 Copilot Free、Pro 和 Pro+ 用户的交互数据来训练 AI 模型,此举引发了严重的隐私和伦理担忧。 📝 详细摘要 GitHub 宣布对其 Copilot 数据使用政策进行重大更新,该政策将于 4 月 24 日生效。根据新条款,个人层级用户(Free、Pro 和 Pro+)的交互数据(包括代码片段、输入内容、仓库结构和导航模式)将被默认用于训练和改进 AI 模型。虽然商业版(Business)和企业版(Enterprise)层级不在此列,但个人用户必须手动选择退出以保护其数据。此举引发了开发社区的强烈抵制,批评

📌 一句话摘要

自 4 月 24 日起,GitHub 将默认使用 Copilot Free、Pro 和 Pro+ 用户的交互数据来训练 AI 模型,此举引发了严重的隐私和伦理担忧。

📝 详细摘要

GitHub 宣布对其 Copilot 数据使用政策进行重大更新,该政策将于 4 月 24 日生效。根据新条款,个人层级用户(Free、Pro 和 Pro+)的交互数据(包括代码片段、输入内容、仓库结构和导航模式)将被默认用于训练和改进 AI 模型。虽然商业版(Business)和企业版(Enterprise)层级不在此列,但个人用户必须手动选择退出以保护其数据。此举引发了开发社区的强烈抵制,批评者指出了退出流程中的“暗黑模式”、专有组织代码的潜在风险,以及在数据处理的“合法利益”基础上可能存在的 GDPR 合规问题。

💡 主要观点

- GitHub 正在为 Copilot 个人层级实施默认加入的训练策略。 自 4 月 24 日起,除非用户主动在账户功能中禁用该设置,否则 Free、Pro 和 Pro+ 用户的数据将被自动用于模型改进。

数据收集范围包括活跃的代码上下文和私有仓库片段。 虽然“静态”代码不会被访问,但在会话期间主动发送给 Copilot 的任何代码(包括光标周围的上下文和仓库结构)都属于训练范围。
该政策为组织带来了重大的安全和知识产权风险。 由于退出设置是在用户层面管理的,如果员工在公司项目中使用个人 Pro 账户,可能会无意中将专有的架构模式和逻辑泄露到全局模型中。
开发社区将这一实施方式称为“暗黑模式”。 批评者认为,通知邮件中缺乏指向设置的直接链接,且无法通过移动应用退出,这损害了用户的自主权和透明度。

💬 文章金句

- GitHub 宣布,自 4 月 24 日起,Copilot Free、Pro 和 Pro+ 用户的交互数据将被用于训练和改进其 AI 模型。

  • 用户被默认加入,如果不想让自己的数据被用于训练,必须手动禁用该设置。
  • 当你使用 Copilot 时,你不仅仅是在获取建议,你还在隐性地教导模型你的领域中什么样的代码才是好的代码。
  • 在包含禁用说明的邮件中,没有提供指向设置页面的直接链接,这是一种暗黑模式。

📊 文章信息

AI 评分:85

来源:InfoQ

作者:Steef-Jan Wiggers

分类:人工智能

语言:英文

阅读时间:3 分钟

字数:681

标签: GitHub Copilot, AI 训练数据, 隐私政策, 数据伦理, 开发工具

阅读完整文章

查看原文 → 發佈: 2026-04-02 18:17:00 收錄: 2026-04-02 20:00:51

🤖 問 AI

針對這篇文章提問,AI 會根據文章內容回答。按 Ctrl+Enter 送出。