前OpenAI资深人士警告:AI无法‘从错误中学习’,AGI遭遇重大挑战
发布时间:2026-02-03 15:42:07 | 责任编辑:吴昊 | 浏览量:3 次
尽管当前的AI大模型在逻辑推理和任务处理上表现惊人,但一个长期被忽视的技术缺陷可能正成为通往通用人工智能(AGI)道路上的巨大障碍。近日,曾参与 OpenAI 推理模型 o1和 o3开发的核心研究员 Jerry Tworek 在受访时直言:目前的AI模型根本无法从错误中汲取教训。
Tworek 指出,当现有的AI模型在处理问题失败时,开发者往往会陷入一种无力感,因为目前还缺乏有效的机制让模型根据失败经验来更新其内在的知识体系或信念。他形容当前的AI训练过程本质上是“极其脆弱的”,一旦遇到训练模式之外的新挑战,模型就很容易陷入“推理崩溃”的困境,这与人类那种具备自我稳定和自我修复能力的鲁棒性学习方式形成了鲜明对比。
正是为了攻克这一难题,Tworek 已于近期离开 OpenAI,专注于寻找让AI能够自主解决困难、摆脱困境的技术路径。他强调,如果一个模型不能在面对挫折时自我进化,那么它就很难被称为真正的 AGI。在他看来,智能的本质应该像生命一样“总能找到出路”,而当前的AI显然还远未达到这种境界。
划重点:
🧠 核心缺陷:前 OpenAI 研究员 Jerry Tworek 指出当前AI模型缺乏从失败中学习的机制,无法像人类一样通过纠错来更新内部知识。
🚧 AGI障碍:模型在处理未知模式时的“脆弱性”和容易“卡死”的状态,被认为是实现通用人工智能(AGI)的主要技术壁垒。
🛠️ 专家动向:为解决这一根本性难题,o1系列模型的幕后功臣 Tworek 已离职并投身于研发能自主摆脱困境的新一代AI架构。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
