GitHub 规则大调整:AI 将获取私有代码库内容
发布时间:2026-03-26 13:45:10 | 责任编辑:吴昊 | 浏览量:3 次
全球最大的代码托管平台 GitHub 近日丢下了一枚重磅炸弹:官方宣布将从 2026 年 4 月 24 日起,开始使用用户的交互数据来训练其 AI 模型。这一举动被不少开发者戏称为“撤销键(CTRL-Z)”操作,因为 GitHub 此前曾多次在公开场合强调对用户私有数据的尊重,而新政策显然打破了这一默契。
“默认加入”引发争议,私有仓库不再绝对私密
根据 GitHub 更新的隐私条款,Copilot 的免费版、个人版(Pro)以及专业增强版(Pro+)用户都在此次数据采集范围内。系统将自动抓取包括代码片段、输入输出内容、光标上下文、甚至文件名和目录结构在内的详尽数据。最令社区不安的是,即使是存储在“私有仓库”中的代码,只要用户在编辑时开启了 Copilot,相关代码片段也可能被摄取用于模型训练。GitHub 首席产品官马里奥·罗德里格斯对此解释称,内部员工的测试证明,加入真实交互数据能显著提升 AI 捕捉 Bug 的准确率,但这种“默认开启”而非“手动加入”的策略,在开发者社区引发了强烈反弹,相关公告下的反对票数瞬间激增。
如何自保:企业用户豁免与手动关闭指南
在这场数据掠夺战中,并非所有用户都处于被动地位。GitHub 明确表示,购买了 Copilot 商业版(Business)和企业版(Enterprise)的付费组织,以及通过认证的学生和教师,将受到合同条款保护,其数据不会被用于训练。
对于普通个人用户,如果不想让自己的代码变成 AI 进化的养料,必须在 4 月 24 日限期前手动完成防御操作。用户需要前往 GitHub 的设置界面,在 Copilot 隐私选项中找到“允许 GitHub 使用我的数据进行 AI 模型训练”并将其关闭。虽然官方辩称这一做法与 Anthropic、JetBrains 等同行的行业惯例保持一致,但在“隐私优先”呼声日益高涨的今天,这种解释显然难以平息社区的怒火。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
