OpenAI 的 Sora 模型遭泄露,具体怎么回事?
发布时间:2024-12-02 16:44:06 · 责任编辑:字母汇 · 浏览量:82 次
当地时间 2024 年 11 月 26 日,OpenAI 的文本转视频 AI 模型 Sora 遭泄露,以下是具体情况:
- 泄露事件经过:Sora 的泄露版本被曾参与测试的艺术家们发布在 Hugging Face 上,这些艺术家通过创建前端界面,使公众可利用其早期访问的认证 token 来生成视频,在 OpenAI 介入并关闭相应权限前,不少人已制造出 AI 视频并流出。泄露的是试用接口,而非模型权重,且此次泄露持续约三小时后,OpenAI 紧急关闭了所有抢先体验艺术家的 Sora 测试权限。
- 艺术家不满原因134 :
- 感觉被利用:艺术家们本是作为早期测试者、红队成员和创意合作伙伴参与 Sora 项目,但他们认为自己实际上是被引诱参与了 “洗白”,成为 OpenAI 的免费研发和公关工具,为其无偿贡献劳动,包括漏洞测试、反馈和实验性工作等,而获得的报酬与 OpenAI 得到的巨额公关和市场推广价值相比微不足道。
- 内容审批限制:OpenAI 对 Sora 的内容审批要求严格,规定每个输出在分享之前都需得到其团队批准,这被艺术家们认为限制了他们的创造性表达和评论的诉求,忽视了他们作为创作者的权益,使得这个早期访问计划更像是为了 PR 和广告,而非真正支持创意。
- 事件影响:
- 引发关注与讨论:此次泄露事件引起了广泛关注和讨论,使 Sora 模型再次成为焦点,人们对 OpenAI 的开发模式、与艺术家的合作方式以及 AI 模型的安全性等问题产生诸多质疑134.
- 安全隐患担忧:Sora 相关项目的泄露引发了人们对 AI 公司数据安全和模型滥用的担忧,尤其是在当前 AI 技术快速发展且应用广泛的背景下,数据和模型的安全性至关重要,此次事件可能会影响公众对 AI 公司保护用户数据和模型安全能力的信任。
- OpenAI 的回应:OpenAI 并未证实 Sora 泄露的真实性,但强调参与 “研究预览” 的艺术家是自愿的,且没有提供反馈或使用该工具的义务。其发言人还指出,数百名艺术家为 Sora 的发展做出了重要贡献,公司很高兴为他们提供免费访问,并将继续通过赠款、活动等计划支持他们,同时也强调艺术家在使用 Sora 时需遵循 “负责任使用” 原则。