首页 > 快讯 > 多个国家发布警告:AI语音欺诈利用深度伪造技术,即使是熟人声音也难辨真伪
多个国家发布警告:AI语音欺诈利用深度伪造技术,即使是熟人声音也难辨真伪
发布时间:2026-03-16 11:52:15 | 责任编辑:张毅 | 浏览量:3 次
根据 Techradar 的最新研究报告,一种利用 AI 深度伪造(Deepfake)语音的新型诈骗正在全球范围内激增。一项针对美、英、加、法、德、西六国超过 1.2 万名消费者的调查显示,这种模拟熟人声音的来电已成为严重的社会威胁。
调查发现,约四分之一的美国受访者在过去一年内接到过此类 AI 伪造来电。更令人担忧的是,另有 24% 的人表示,自己根本无法从听感上区分电话里的声音究竟是真人还是人工智能。诈骗分子正利用低成本的生成式 AI 工具,将声音克隆技术“武器化”,专门冒充受害者的亲属或信任的联系人。
报告特别指出,这类诈骗对 55 岁以上的老年群体危害最大。由于该群体识别技术伪装的能力相对较弱,人均经济损失已达 1298 美元,是年轻受害者的三倍。目前,此类诈骗数量正以每年 16% 的复合增长率持续上升,形势不容乐观。
面对日益严峻的威胁,电信运营商的角色受到了广泛关注。多数受访者认为诈骗分子目前在技术较量中占据上风,并呼吁政府出台更严格的法规。安全专家强调,面对防御难度极高的 AI 语音克隆,不能仅靠个人识别,运营商必须加快部署“AI 盾牌”系统,利用技术手段过滤非法合成语音,以应对这场失控的“AI 军备竞赛”。
©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
