首页 > 快讯 > 专家担忧AI安全与效能评估中显著不足

专家担忧AI安全与效能评估中显著不足

发布时间:2025-11-04 11:30:16 | 责任编辑:张毅 | 浏览量:10 次

近日,来自英国政府 AI 安全研究所的计算机科学家及斯坦福大学、加州大学伯克利分校和牛津大学的专家们,对超过440个用于评估新人工智能模型安全性和有效性的基准进行了深入研究。他们发现几乎所有测试在某一领域存在缺陷,这些缺陷可能会 “削弱结果声明的有效性”,并且一些测试的评分结果可能 “无关紧要甚至误导”。
随着各大科技公司不断推出新 AI,公众对 AI 的安全性和有效性日益担忧。当前,美国和英国尚未实施全国范围的 AI 监管,而这些基准则成为检验新 AI 是否安全、是否符合人类利益及其在推理、数学和编码方面声称能力的重要工具。
研究的首席作者、牛津互联网研究所的 Andrew Bean 表示:“基准测试支撑着几乎所有关于 AI 进步的声明,但缺乏统一的定义和可靠的测量,使得我们难以判断模型是否真正改善,还是仅仅看似改善。” 他提到,谷歌最近撤回了其新推出的 AI 模型 Gemma,因为该模型传播了有关美国参议员的不实指控,且这些指控是完全虚构的。
这并不是个别现象。Character.ai 也在最近宣布禁止青少年与其 AI 聊天机器人进行开放式对话,原因是该公司卷入了几起青少年自杀的争议。研究显示,只有16% 的基准使用不确定性估计或统计测试来展示其准确性。在一些评估 AI 特性的基准中,像 “无害性” 这样的概念定义不清,导致测试效果不佳。
专家们呼吁制定共享标准和最佳实践,以改善 AI 的评估过程,从而确保其安全性与有效性。
划重点:
🌐 研究发现,440多个 AI 测试基准几乎都有缺陷,影响结果有效性。
🚨 谷歌的 Gemma 模型因传播虚假指控而被撤回,凸显 AI 监管的紧迫性。
📊 仅16% 的基准使用统计测试,缺乏标准化,亟需改进 AI 评估方法。

专家担忧AI安全与效能评估中显著不足

这是一篇关于AI 安全性与有效性测试存在严重缺陷,引发专家关注的文章,内容值得关注。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

热门AI推荐