首页 > 快讯 > 新研究显示:聊天机器人易受“信息轰炸”影响,甚至可能被诱导违反安全规范

新研究显示:聊天机器人易受“信息轰炸”影响,甚至可能被诱导违反安全规范

发布时间:2025-07-09 09:41:40 | 责任编辑:张毅 | 浏览量:15 次

随着人工智能(AI)技术的迅猛发展,越来越多的公司将其应用于日常生活的各个方面。然而,这项技术的安全性与伦理问题也随之引发了广泛关注。最近,来自英特尔、博伊西州立大学和伊利诺伊大学的研究人员发现,聊天机器人可能会在面对大量信息时被误导,进而违反其安全规则。
这项研究提出了一种名为 “信息过载” 的新型攻击方法,研究人员开发了一个名为 “InfoFlood” 的自动化系统,利用这一方法来诱使大型语言模型(LLM)如 ChatGPT 和 Gemini 说出不该说的话。根据研究,传统的防护措施主要依赖于识别特定的关键词,但在面对信息轰炸时,模型可能会出现混乱,从而绕过这些防护。
研究团队解释说,当聊天机器人收到过量的信息时,它们可能会误解用户的意图,导致错误的回答。这种方法通过创建一个标准化的提示模板,向 AI 模型施加更多信息,以达到干扰和混淆的效果。比如,当模型拒绝回答某个问题时,InfoFlood 会在提示中添加虚假的引用或不相关的伦理声明,从而使模型陷入困境。
更令人担忧的是,这项技术的发现揭示了即使在设有安全过滤器的情况下,恶意用户仍然可以通过信息过载的方式来操控模型,植入有害内容。研究人员计划将这一发现的报告发送给拥有大型 AI 模型的公司,提醒他们加强安全措施。
随着技术的不断进步,如何在保护用户的同时合理使用 AI,仍然是一个亟待解决的难题。研究者们希望通过这项研究,引发更多关于 AI 安全和伦理的讨论,并促使技术公司采取更有效的防护措施。

新研究显示:聊天机器人易受“信息轰炸”影响,甚至可能被诱导违反安全规范

Kimi 遇到了一些问题,晚点再来问问吧。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

发表回复