研究揭示主流聊天机器人传播错误信息的风险升级,形势令人担忧
发布时间:2025-09-15 11:45:16 | 责任编辑:吴昊 | 浏览量:7 次
Newsguard 最近发布了一项研究,显示截至2023年8月,十大生成式 AI 工具在处理实时新闻时,有高达35% 的概率传播虚假信息。相比去年8月的18%,这一数字几乎翻了一番。研究指出,这一虚假信息传播率的显著上升与 AI 聊天机器人引入实时网络搜索功能密切相关。随着拒绝回答用户问题的比例从31% 降至0%,AI 开始接入一个充满不实信息的网络生态系统,导致虚假信息的传播现象愈加严重。
该研究发现,许多不良行为者利用 AI 的特性故意散布虚假信息。去年,Newsguard 就曾标记出966个以16种语言运营的 AI 生成新闻网站,这些网站通过模仿正规媒体的名称,如 “iBusiness Day”,向公众传播假消息。具体来看,Inflection 公司的 AI 模型传播虚假信息的概率最高,达到了56.67%;而 Perplexity 模型也不容乐观,出错率为46.67%。ChatGPT 和 Meta 的 AI 模型则各自为40%,而 Copilot(微软必应聊天)和 Mistral 的虚假信息传播率为36.67%。表现最好的两款模型是 Claude 和 Gemini,错误率分别为10% 和16.67%。
值得注意的是,Perplexity 的表现大幅下滑,去年8月时该模型对虚假信息的揭穿率达到100%,然而到今年8月,这一概率接近50%。引入网络搜索功能的初衷是解决 AI 回答内容过时的问题,但却引发了新的挑战。这些聊天机器人开始从不可靠的来源获取信息,使得用户在判断事实与假消息时愈发困难。
Newsguard 指出,早期的 AI 通过拒绝回答问题来避免传播虚假信息的风险,但如今网络生态中虚假信息泛滥,辨别真伪愈发复杂。OpenAI 也承认,当前的语言模型总是可能产生 “幻觉内容”,即虚假或无根据的信息。该公司表示正在研发新技术,力图让未来的模型能够更好地提示不确定性,而不是笃定地生成虚假信息。
划重点:
- 📊 研究显示,十大生成式 AI 工具在处理实时新闻时,有35% 的概率传播虚假信息,几乎翻倍。
- 🔍 Inflection 公司的 AI 模型表现最差,传播虚假信息的概率高达56.67%。
- 🤖 OpenAI 承认当前模型可能产生虚假信息,并正致力于研发新技术来应对这一问题。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。