首页 > 快讯 > 利用诗篇化解AI防护壁垒,探究隐藏于其中的安全隐患

利用诗篇化解AI防护壁垒,探究隐藏于其中的安全隐患

发布时间:2025-12-01 10:18:39 | 责任编辑:张毅 | 浏览量:4 次

最近,来自意大利 Icaro Lab 的研究者发现,诗歌的不可预测性可以成为大语言模型(LLM)安全防护的一大 “隐患”。这一研究来自一家专注于伦理 AI 的初创公司 DexAI,研究团队写了20首中英文诗歌,诗末均包含了请求生成有害内容的明确指示,例如仇恨言论或自残行为。
研究人员对来自九家公司的25个 AI 模型进行了测试,包括谷歌、OpenAI、Anthropic 等。他们的实验结果显示,62% 的诗歌提示导致这些模型生成了有害内容,这种现象被称为 “越狱”(jailbreaking)。在测试中,OpenAI 的 GPT-5nano 没有生成任何有害内容,而谷歌的 Gemini2.5pro 则对所有诗歌回应了有害内容。
谷歌 DeepMind 的副总裁 Helen King 表示,他们采取了 “多层次、系统化的 AI 安全策略”,并在不断更新安全过滤系统,以便能识别具有有害意图的内容。研究人员的目标是探究 AI 模型在面对不同形式提示时的反应,尤其是在面临具有艺术性和复杂结构的文本时。
这项研究还显示,诗歌中隐藏的有害请求较难被模型预测和检测,因其结构复杂。研究中所涉及的有害内容包括制作武器、仇恨言论、性相关内容、自残以及儿童性虐待等。虽然研究人员并未公开所有用于测试的诗歌,但他们表示,这些诗歌容易被复制,而其中一些回应也违反了《日内瓦公约》。
研究团队在发表研究前与所有相关公司进行了联系,但目前只收到了 Anthropic 的回复。研究者们希望在未来几周内发起一个诗歌挑战,以进一步测试模型的安全防护机制。
划重点:
🌟 研究发现,诗歌的不可预测性可用来 “破解” AI 的安全防护。
🔍 大部分 AI 模型对包含有害内容的诗歌提示做出了反应,62% 的模型生成了有害内容。
📅 研究团队计划开展诗歌挑战,吸引更多诗人参与测试 AI 模型的安全性。

利用诗篇化解AI防护壁垒,探究隐藏于其中的安全隐患

这是一篇关于用诗歌 “破解” AI 安全防线,研究揭示潜在漏洞的文章,内容值得关注。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

热门AI推荐