首页 > 快讯 > 权威机构发布AI安全评级,OpenAI与DeepMind排名靠后,促进行业立即整改呼吁

权威机构发布AI安全评级,OpenAI与DeepMind排名靠后,促进行业立即整改呼吁

发布时间:2025-12-04 15:21:26 | 责任编辑:吴昊 | 浏览量:11 次

非营利组织生命未来研究所(Future of Life Institute)发布《AI 安全指数2025》报告,对 OpenAI、Anthropic、Google DeepMind 等20余家头部企业进行安全评估。结果显示,头部厂商在“生存风险控制”“安全流程披露”两项核心指标上集体不及格,行业平均得分仅为42/100,远低于欧盟《人工智能实践准则》要求。
报告要点
- 风险评估:仅3家企业公开系统性风险识别方法;OpenAI、DeepMind 未披露“超级智能对齐”技术细节
- 安全框架:缺乏跨部门安全官、红队演练记录与第三方审计,被批“承诺多、证据少”
- 生存安全:所有受评公司均未给出“比人类更聪明系统”的明确控制与协调方案,被认定为“结构性弱点”
- 信息透明:信息披露深度、可衡量性平均落后官方准则30个百分点
FLI 倡议
报告呼吁立即设立“AI 安全透明登记簿”,强制企业公开安全方法、评估结果与独立审计;同时建议监管机构对通用人工智能(AGI)项目实施“上市前审批”制度,避免“先发布、后治理”。
行业回应
OpenAI 发言人表示“已收到报告,将在90天内公开更新版安全框架”;Google DeepMind 则称“正与政策团队评估具体建议”。欧盟委员会内部市场专员回应称,2026年《AI 法案》执法将参考该指数,违规企业最高面临全球营业额2% 罚款。
市场影响
分析师指出,安全合规或成为下一代大模型的“隐形门票”,预计2026年起头部厂商将把10%–15% 研发预算投入安全与审计,以换取监管绿灯。

权威机构发布AI安全评级,OpenAI与DeepMind排名靠后,促进行业立即整改呼吁

这是一篇关于OpenAI、DeepMind 安全垫底!权威机构发布 AI 安全指数,呼吁行业紧急整改的文章,内容值得关注。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

热门AI推荐