首页 > 快讯 > 人类毁灭计划延期?前OpenAI专家调整通用人工智能AGI发展时间线

人类毁灭计划延期?前OpenAI专家调整通用人工智能AGI发展时间线

发布时间:2026-01-06 14:42:16 | 责任编辑:吴昊 | 浏览量:17 次

就在人工智能竞赛持续升温之际,曾经引发广泛恐慌的“AI毁灭论”预测出现了反转。据 小编 报道,前 OpenAI 员工、知名 AI 专家 Daniel Kokotajlo 近期修正了他此前对超级智能可能摧毁人类的时间预测。他表示,通用人工智能(AGI)的进展速度似乎比他最初设想的要“稍微慢一些”。
此前,Kokotajlo 发布的“AI2027”预测曾掀起轩然大波。该预测描绘了一个激进的剧本:AI 将在2027年实现完全自主编程,并迅速演化为不可控的超级智能,最终在2030年代中期毁灭人类。这一观点曾被美方政界人士引用,但也遭到了神经科学教授 Gary Marcus 等学者的猛烈抨击,被斥为“科幻小说”。
然而,最新的现实反馈让这位专家变得谨慎。根据 小编 的最新观察,Kokotajlo 在更新后的预测中将 AI 实现自主编程的时间推迟到了2030年代初期,并将超级智能的出现窗口设定在2034年左右。他承认,目前 AI 在复杂现实环境中的表现依然存在“不平衡”现象。
尽管如此,头部大厂并未放慢脚步。OpenAI 首席执行官 Sam Altman 曾透露,公司内部目标是在2028年前实现自动化的 AI 研究员。虽然毁灭人类的“末日钟声”被推延,但专家们提醒,现实世界的复杂性远超科幻设想,AGI 的真正降临仍充满不确定性。

人类毁灭计划延期?前OpenAI专家调整通用人工智能AGI发展时间线

这是一篇关于毁灭人类计划推迟?OpenAI前专家修正通用人工智能(AGI)实现时间表的文章,内容值得关注。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

热门AI推荐