警惕!五分之一的AI推荐软件包为假冒,“Slopsquatting”风险正悄然逼近开发者
发布时间:2025-04-27 11:24:22 | 责任编辑:吴昊 | 浏览量:9 次
网络安全研究人员发出警告,一种名为“Slopsquatting”的新型软件供应链攻击正浮出水面。该攻击利用生成式 AI(如 LLMs)在代码编写时可能产生的“包幻觉”——即推荐不存在的软件包名称——的漏洞。攻击者可以抢先注册这些虚构的名称,并植入恶意代码。
研究团队发现,AI 虚构的软件包名称往往具有高度可信性和重复性,约38% 的幻觉包名与真实包名相似,仅13% 是简单拼写错误,这使得开发者在不加验证的情况下更容易直接采用。
通过对16个代码生成模型的测试,研究人员发现平均20% 的 AI 推荐软件包是伪造的。开源模型的幻觉率更高,例如 DeepSeek 和 WizardCoder 高达21.7%,而商业模型如 GPT-4Turbo 的幻觉率相对较低,为3.59%。CodeLlama 的表现最差,超过三分之一的推荐存在错误。这种威胁在依赖中央包仓库的 Python 和 JavaScript 等生态系统中尤为严重。
实验表明,AI 的“包幻觉”具有高度可复现性,高达43% 的案例中,相同的幻觉连续出现10次,58% 的幻觉会在多次测试中重复出现,这为攻击者精准布局恶意软件包提供了便利。
研究人员认为,当前 AI 模型缺乏足够的安全测试是造成这一问题的主要原因。尽管尚未发现实际的 Slopsquatting 攻击案例,但该技术已具备现实威胁的所有要素。他们呼吁开发社区提高警惕,对 AI 生成的代码建议保持审慎态度,务必进行验证,以防成为新型软件供应链攻击的受害者。
“Slopsquatting”攻击威胁分析
1. 攻击原理
“Slopsquatting”是一种新型的软件供应链攻击,攻击者利用生成式AI(如大型语言模型LLMs)在代码编写过程中可能产生的“包幻觉”现象。所谓“包幻觉”,是指AI在推荐软件包名称时,有时会生成并不存在的名称。攻击者可以抢先注册这些虚构的名称,并在其中植入恶意代码。
2. 攻击特点
-
高度可信性:AI生成的虚假软件包名称往往看起来十分逼真,约38%的虚构包名与真实包名高度相似,仅有13%是简单的拼写错误。
-
高重复性:实验表明,43%的虚构包名在连续10次运行中每次都出现,58%的虚构包名在多次测试中会重复出现。
-
广泛影响:这种攻击在Python和JavaScript等依赖中央包仓库的编程生态系统中尤为严重。
3. 测试数据
研究人员对16个代码生成模型进行了测试,发现平均20%的AI推荐软件包是伪造的。其中,开源模型如DeepSeek和WizardCoder的幻觉率高达21.7%,而商业模型如GPT-4 Turbo的幻觉率相对较低,仅为3.59%。
4. 防范建议
-
提高安全意识:开发者应对AI生成的代码建议保持审慎态度,务必进行验证。
-
建立审核机制:对所有下载的软件包进行严格的安全审查,确保其来源可信。
-
使用专业工具:利用专业的包管理工具,自动监测并报告潜在的安全风险。
-
加强安全教育:定期对团队成员进行网络安全培训,提高他们的安全意识。
目前虽然尚未发现实际的“Slopsquatting”攻击案例,但该技术已具备现实威胁的所有要素。开发者和企业应提高警惕,采取有效措施防范此类攻击。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。