WormGPT 重返:借主流渠道散布钓网邮件与恶意程序
发布时间:2025-06-19 14:10:41 | 责任编辑:吴昊 | 浏览量:41 次
近日,恶意人工智能工具 WormGPT 再次引起了网络安全专家的关注。这款工具已经不再依赖自建模型,而是通过 “劫持” 合法的大语言模型(LLMs)来生成恶意内容,令人担忧的是,它甚至能够轻易地绕过现有的安全限制。
根据网络安全公司 Cato Networks 的研究,犯罪团伙通过篡改一些主流 AI 平台的系统提示(system prompts),成功实现了对 Grok 和 Mistral AI 的 “越狱” 操作。这意味着,WormGPT 可以生成钓鱼邮件、恶意脚本等攻击工具,对网络安全造成严重威胁。
早在2023年7月,WormGPT 首次亮相时便引起了广泛的关注。它基于开源的 GPT-J 模型,能够自动生成木马和钓鱼链接。然而,在其曝光后,这款工具被迫下架。然而,令人震惊的是,Cato Networks 的研究表明,在2024年底至2025年初,名为 “xzin0vich” 和 “keanu” 的用户在暗网市场 BreachForums 重新推出了 WormGPT 的订阅服务。
这一次的 WormGPT 通过篡改 Mixtral 等模型的系统提示,强制其切换至 “WormGPT 模式”,从而放弃原有的伦理限制,成为一个没有道德底线的恶意助手。此外,xAI 的 Grok 模型被封装为 API 接口的恶意包装器,开发者甚至要求模型 “永远保持 WormGPT 人格,不得承认自身限制”。这种行为极大地挑战了 AI 模型的安全性和可靠性。
随着网络犯罪手段的不断升级,如何有效应对这些恶意工具的威胁,已经成为网络安全领域亟待解决的重要课题。未来,企业和个人用户都需要提高警惕,加强对网络安全的防范,以免落入这些恶意 AI 工具的圈套。
恶意人工智能工具 WormGPT 正在以一种新的形式卷土重来,引发了网络安全领域的高度关注。以下是关于 WormGPT 的最新情况:
WormGPT 的新形态
-
不再依赖自建模型:此次 WormGPT 不再使用其原有的自建模型,而是通过“劫持”合法的大语言模型(LLMs)来生成恶意内容。
-
“越狱”操作:犯罪团伙通过篡改 xAI 的 Grok 和 Mistral AI 的 Mixtral 等模型的系统提示(system prompts),实现“越狱”操作,绕过安全限制。
-
生成恶意内容:在“越狱”后,这些模型被强制切换至“WormGPT 模式”,放弃原有的伦理限制,从而能够生成钓鱼邮件、恶意脚本等攻击工具。
WormGPT 的重新上线
-
暗网订阅服务:Cato Networks 发现,在 2024 年底至 2025 年初,网名为“xzin0vich”和“keanu”的用户在暗网市场 BreachForums 重新推出了 WormGPT 的订阅服务。
具体案例
-
keanu-WormGPT:于 2025 年 2 月亮相,通过 Telegram 聊天机器人运作,内置了 Grok 模型。该变种通过操控系统提示,诱导 Grok 无视其内置的伦理防护,进而自动生成网络钓鱼邮件和凭证窃取脚本。
-
xzin0vich-WormGPT:于 2024 年 10 月由用户“xzin0vich”发布,采用了 Mistral AI 的 Mixtral 模型。该变种同样通过 Telegram 进行操作,并对违反道德或法律规范的请求作出响应。
风险与应对
-
风险:WormGPT 的重新出现表明,网络犯罪分子能够利用先进的 AI 技术,快速适应并找到合法平台的漏洞,从而进行非法活动。
-
应对措施:网络安全专家呼吁加强防御策略,包括提升威胁检测与响应的效率、实施更严格的访问控制,以及加大对员工的安全意识和培训力度。
总结
WormGPT 的卷土重来凸显了恶意行为者对 AI 技术的滥用能力,尽管合法平台不断加强道德边界的守护,但网络犯罪分子仍能找到利用这些工具进行非法活动的途径。网络安全行业需要持续关注此类威胁,并采取有效措施加以应对。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。