自 4 月 24 日起,GitHub 将默认使用 Copilot Free、Pro 和 Pro+ 用户的交互数据来训练 AI 模型,此举引发了严重的隐私和伦理担忧。
📝 详细摘要
GitHub 宣布对其 Copilot 数据使用政策进行重大更新,该政策将于 4 月 24 日生效。根据新条款,个人层级用户(Free、Pro 和 Pro+)的交互数据(包括代码片段、输入内容、仓库结构和导航模式)将被默认用于训练和改进 AI 模型。虽然商业版(Business)和企业版(Enterprise)层级不在此列,但个人用户必须手动选择退出以保护其数据。此举引发了开发社区的强烈抵制,批评者指出了退出流程中的“暗黑模式”、专有组织代码的潜在风险,以及在数据处理的“合法利益”基础上可能存在的 GDPR 合规问题。
💡 主要观点
- GitHub 正在为 Copilot 个人层级实施默认加入的训练策略。 自 4 月 24 日起,除非用户主动在账户功能中禁用该设置,否则 Free、Pro 和 Pro+ 用户的数据将被自动用于模型改进。
💬 文章金句
- GitHub 宣布,自 4 月 24 日起,Copilot Free、Pro 和 Pro+ 用户的交互数据将被用于训练和改进其 AI 模型。
- 用户被默认加入,如果不想让自己的数据被用于训练,必须手动禁用该设置。
- 当你使用 Copilot 时,你不仅仅是在获取建议,你还在隐性地教导模型你的领域中什么样的代码才是好的代码。
- 在包含禁用说明的邮件中,没有提供指向设置页面的直接链接,这是一种暗黑模式。
📊 文章信息
AI 评分:85
来源:InfoQ
作者:Steef-Jan Wiggers
分类:人工智能
语言:英文
阅读时间:3 分钟
字数:681
标签: GitHub Copilot, AI 训练数据, 隐私政策, 数据伦理, 开发工具