首页 > 快讯 > 识别虚假视频对聊天机器人来说颇具挑战,就连OpenAI的工具也难逃陷阱

识别虚假视频对聊天机器人来说颇具挑战,就连OpenAI的工具也难逃陷阱

发布时间:2026-01-26 10:52:32 | 责任编辑:吴昊 | 浏览量:52 次

近日,媒体分析公司 Newsguard 发布的一项研究揭露了当前人工智能领域的一个尴尬现状:尽管 AI 视频生成技术日新月异,但主流 AI 聊天机器人却几乎无法识别这些“深度伪造”内容,甚至连开发者自家的工具也难以幸免。
研究显示,在面对由 OpenAI 视频生成模型Sora制作的虚假视频时,OpenAI 旗下的ChatGPT表现令人失望,其识别错误率竟然高达 92.5%。这意味着,对于大多数由 Sora 生成的视频,ChatGPT 都会将其误认为真实记录。其他巨头同样表现不佳,xAI 的 Grok 错误率更是高达 95%,表现相对较好的是 Google 的 Gemini,但错误率依然维持在 78%。
更令人担忧的是,现有的技术防护手段正形同虚设。虽然Sora会在生成的视频中添加可见水印和不可见的元数据,但研究发现,这些标记可以轻易通过免费工具或简单的“另存为”操作被抹除。一旦水印消失,聊天机器人不仅无法识别造假,有时甚至会“一本正经地胡说八道”,引用虚构的新闻来源来证明虚假视频的真实性。
针对这一问题,OpenAI 方面坦言,ChatGPT目前确实不具备判断内容是否由 AI 生成的能力。由于顶级 AI 视频工具已经能拍出肉眼难辨的素材,而反制手段又滞后于技术发展,这无疑为虚假信息的传播埋下了巨大隐患。

识别虚假视频对聊天机器人来说颇具挑战,就连OpenAI的工具也难逃陷阱

这是一篇关于聊天机器人难以识别假视频,OpenAI 自家工具也被蒙蔽的文章,内容值得关注。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

热门AI推荐