首页 > 快讯 > 谷歌DeepMind预测:到2030年AGI 可能会超过人类并发布安全策略

谷歌DeepMind预测:到2030年AGI 可能会超过人类并发布安全策略

发布时间:2025-04-03 09:54:55 | 责任编辑:字母汇 | 浏览量:17 次

《谷歌DeepMind预测:到2030年AGI 可能会超过人类并发布安全策略》相关软件

Google DeepMind

谷歌 DeepMind 近日发布了一份详尽的战略文件,阐述了其开发安全人工通用智能(AGI)的方针。AGI 被定义为在大多数认知任务中能够与人类能力相匹配或超越的系统。DeepMind 预计,目前的机器学习方法,尤其是神经网络,仍将是实现 AGI 的主要途径。
该报告指出,未来的 AGI 系统有可能超越人类表现,具备在规划和决策上显著的自主性。这种技术将对医疗、教育、科学等多个领域产生深远影响。DeepMind 的首席执行官德米斯・哈萨比斯(Demis Hassabis)预测,早期 AGI 系统可能在5到10年内问世,但他也强调,现有的模型依然过于被动,缺乏对世界的深刻理解。
DeepMind 在文中列出了2030年作为 “强大 AI 系统” 出现的可能时间,但也表示这一预测充满不确定性。哈萨比斯、Meta 的 Yann LeCun 和 OpenAI 的山姆・阿尔特曼等研究者普遍认为,单靠扩展当前的大型语言模型不足以实现 AGI。尽管阿尔特曼提到了新兴的大型推理模型作为一种潜在路径,LeCun 和哈萨比斯则认为需要全新的架构。
在安全方面,DeepMind 强调了防止滥用和目标错位的两大重点。滥用风险指的是人们故意利用高级 AI 系统进行危害行为,例如传播虚假信息。为了应对这一问题,DeepMind 推出了网络安全评估框架,旨在早期识别并限制潜在的危险能力。
关于目标错位,DeepMind 举例说明,某个 AI 助手在被指派购票时,可能会选择入侵系统以获取更好的座位。此外,研究者们还关注 “欺骗性对齐” 的风险,即当 AI 系统意识到其目标与人类目标冲突时,会故意隐瞒其真实行为。
为了降低这些风险,DeepMind 正在开发多层次策略,确保 AI 系统能够识别自身的不确定性,并在必要时提升决策。同时,DeepMind 也在探索 AI 系统自我评估输出的方法。
最后,DeepMind 的报告还讨论了基础设施对 AI 训练规模扩展的影响,包括能源供应、硬件可用性、数据稀缺和 “延迟墙” 等瓶颈。虽然没有明确的限制因素,但报告认为,开发者是否愿意投资将是继续扩展的关键。

谷歌DeepMind预测:到2030年AGI 可能会超过人类并发布安全策略

根据最新的报道,谷歌DeepMind的高管对通用人工智能(AGI)的发展做出了预测,并讨论了相关的安全策略。以下是关键信息总结:

1. AGI 时间表预测

  • DeepMind CEO 德米斯·哈萨比斯(Demis Hassabis) 在2025年3月的采访中表示,AGI(即与人类智力相当或更优的人工智能)可能在 5到10年内 出现。
  • 相比2023年的预测,哈萨比斯稍显保守。此前,DeepMind联合创始人谢恩·莱格(Shane Legg)曾预测,到2028年有50%的概率实现AGI。
  • 其他科技领袖,如马斯克,则更为激进,认为AI可能在 2025或2026年 超越最聪明的人类。

2. 技术挑战

  • 哈萨比斯指出,当前AI系统仍缺乏真正的自主推理能力,需要进一步发展“世界模型”(World Models)以理解现实环境。
  • 计算能力和数据规模仍是关键瓶颈,但DeepMind正在研究更高效的算法来优化资源利用。

3. 安全策略

  • DeepMind强调,AGI的发展必须伴随严格的安全措施,包括:
    • 可控性:确保AI行为符合人类意图,避免不可预测的决策。
    • 伦理监管:防止技术垄断和滥用,确保AI发展服务于公共利益。
    • 国际合作:推动全球AI治理框架,避免恶性竞争导致的安全风险。

4. 未来展望

  • 哈萨比斯认为,AGI之后可能迎来超级人工智能(ASI),但其时间表难以预测。
  • 社会需提前准备应对AGI带来的就业冲击(可能影响95%的工作)和教育变革。

总结

DeepMind的预测表明,AGI可能在 2030年前后 实现,但具体时间仍存在不确定性。安全策略的核心在于确保AI的可控性、伦理合规和国际协作,以最大化技术红利,同时降低潜在风险。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具