首页 > 快讯 > 英国提议约束 Meta 在风险评估中运用人工智能

英国提议约束 Meta 在风险评估中运用人工智能

发布时间:2025-06-09 09:01:32 | 责任编辑:吴昊 | 浏览量:3 次

《英国提议约束 Meta 在风险评估中运用人工智能》相关软件官网

Meta AI

近日,英国的互联网安全倡导者向国家通讯监管机构 Ofcom 发出警告,要求限制 Meta(前身为 Facebook)在关键风险评估中使用人工智能(AI)。这一呼吁源于一份报告,报告指出 Meta 计划将高达90% 的风险评估工作交由 AI 自动完成。这一改变引发了对用户安全,特别是未成年用户保护的广泛担忧。
根据英国的《在线安全法》,社交媒体平台有责任评估其服务可能带来的危害,并制定相应的减缓措施。这项风险评估流程被视为法律的关键组成部分,确保用户尤其是儿童用户的安全。然而,多个组织,包括 Molly Rose 基金会、儿童慈善机构 NSPCC 和互联网观察基金会,认为让 AI 主导风险评估是一个 “倒退且极为令人不安的步骤”。
在致 Ofcom 首席执行官梅拉妮・道斯的信中,倡导者们表示,他们强烈敦促监管机构明确指出,风险评估如果完全或主要依赖自动化生成,将不应被视为 “合适且充足”。信中还提到,Ofcom 应质疑平台在风险评估过程中是否可以降低标准的假设。对此,Ofcom 发言人表示,监管机构将认真考虑这一信件中提出的关切,并会在适当的时候做出回应。
Meta 公司则对这一信件做出了回应,强调其在安全方面的承诺。Meta 发言人指出:“我们并没有用 AI 来做出风险决策,而是开发了一种工具,帮助团队识别特定产品所需遵循的法律和政策要求。我们的技术在人工的监督下进行使用,目的是提升管理有害内容的能力,并且我们的技术进步显著改善了安全结果。”
Molly Rose 基金会在组织这封信时,引用了美国广播公司 NPR 的报道,称 Meta 最近的算法更新和新安全功能将主要由 AI 系统批准,而不再经过人工审查。一位匿名的前 Meta 高管表示,这种变化将使公司能够更快推出 Facebook、Instagram 和 WhatsApp 上的应用更新和新功能,但同时也会带来 “更高的风险”,因为潜在问题在新产品发布前不太可能被发现。
NPR 还提到,Meta 正在考虑自动化审查一些敏感领域,包括青少年风险和虚假信息的传播。
划重点:
📉 互联网安全组织呼吁 Ofcom 限制 Meta 使用 AI 进行风险评估,担心对用户安全的影响。
🔍 Meta 回应称并未使用 AI 做出风险决策,而是通过人工监督的工具来提升内容管理能力。
⚠️ 报道指出,Meta 的最新变更可能导致发布新功能时风险增加,潜在问题难以提前识别。

英国提议约束 Meta 在风险评估中运用人工智能

英国并未直接呼吁限制 Meta 利用人工智能进行风险评估,但英国的信息专员办公室(ICO)和通信管理局(Ofcom)对 Meta 的相关行为进行了监管和要求。

  1. ICO 的监管:2024 年 6 月,ICO 发表声明称,Meta 已同意暂停并审查使用 Facebook 和 Instagram 用户数据训练生成式 AI 的计划。这表明 ICO 对 Meta 利用用户数据训练 AI 模型存在担忧,要求其进行更谨慎的评估和审查。
  2. Ofcom 的要求:2025 年 3 月,Ofcom 要求 Meta 等在线服务提供商在 3 月 31 日前完成非法危害风险评估。此外,根据英国的《网络安全法》,从 2025 年 3 月 17 日起,网站和应用程序需要开始实施安全措施以减轻非法内容对儿童和成人构成的风险。这些要求间接促使 Meta 在利用人工智能进行风险评估时需要更加注重合法性和安全性。

此外,Meta 自身也在调整其风险评估策略。2025 年 6 月的报道显示,Meta 计划将高达 90% 的应用更新风险评估工作交由 AI 完成。这一转变引发了内部和外部对其可能增加现实世界中造成危害风险的担忧。不过,Meta 表示人工判断仍将应用于“新颖且复杂的问题”,而自动化审查仅限于“低风险”案例。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

发表回复