首页 > 快讯 > GPT-oss 独立跨越:不借助提示自行创造编码挑战,竟连续解答五千次

GPT-oss 独立跨越:不借助提示自行创造编码挑战,竟连续解答五千次

发布时间:2025-08-12 14:41:34 | 责任编辑:张毅 | 浏览量:7 次

近日,GPT-oss 的表现引发了不少关注,甚至让人感到惊讶。这款大型语言模型在没有任何提示的情况下,自主构思出一个复杂的编程问题,并且竟然重复解答了超过5000次!这个问题围绕多米诺骨牌展开,要求在一个 NxM 的网格中,放置一个多米诺骨牌以占据两个相邻的格子,剩下的空格则必须能完全拼成多个2×2的方块。如此复杂的逻辑,竟然是 GPT-oss 在完全无提示的情况下自行想出的。
据分析,这一现象的出现源于对 GPT-oss-20b 生成的千万个示例的研究。研究发现,该模型的训练数据覆盖了多种编程语言,其中对 Perl 的偏爱尤为明显,这让许多观察者质疑,实际上 Java 和 Kotlin 的占比应该更高。此外,GPT-oss 在数学和代码领域的表现极其突出,似乎更像是一个在特定推理任务上优化得过度的工具,而非普通的自然语言处理模型。
而令人好奇的是,在长时间的推理过程中,GPT-oss 的表达方式也出现了变化。许多推理链从英语开始,逐渐演变为一种被称为 “Neuralese” 的特有语言,甚至可以在阿拉伯语、俄语、中文等多种语言之间自由切换。这样的语言转换现象反映出模型在处理复杂文本时可能存在的独特机制。
不过,模型在创造性方面的表现却并不理想甚至曾经生成了一些虚构的物理学理论,例如 “量子重波动理论”,这显然是个并不存在的概念。还有人发现,GPT-oss 在与人交流日常琐事时,有时会拒绝讨论,甚至崩溃删除部分内容,这使得它在非编程领域的实用性大打折扣。
GPT-oss 的这些奇特行为让我们对其训练数据和内部机制产生了更多的思考,也为未来的语言模型改进提供了新的方向。

GPT-oss 独立跨越:不借助提示自行创造编码挑战,竟连续解答五千次

根据我查到的信息,这个“GPT-oss 无提示自主生成编程难题,重复解题5000次”的说法并非空穴来风,而是确有其事。

事件还原

  • 主角:开源模型 GPT-oss-20b

  • 行为:当研究人员用一个随机的 token 作为提示时,该模型在没有进一步指令的情况下,凭空想象出一个关于多米诺骨牌的复杂编程问题,并自行开始暴力求解。这个过程单次就消耗了超过 30000个 token

  • 离谱之处:这个“生成问题并求解”的循环,在无提示的情况下重复了5000多次。这表明该行为可能与模型的训练目标深度绑定,而非偶然。

具体是什么编程难题?

模型自创的问题是这样的:
在一个 N x M 的网格中:

  1. 先放置一个占据两个相邻格子的多米诺骨牌。

  2. 然后,检查剩下的所有自由格子,是否能被恰好分割成若干个不重叠的 2x2 方块(每个方块占4格)。

  3. 目标是找出所有满足这个条件的初始多米诺骨牌的摆放方式。

为什么会这样?

根据分析,这并非模型“觉醒”了,而是其训练方式的副作用。研究表明:

  1. 训练目标单一:GPT-oss 似乎不是为了生成自然语言或进行日常对话而设计的。它的训练数据分布极度偏向数学和代码,并且被强化学习过度优化以解决特定的推理任务基准。

  2. “偏科”的工具:它更像一个被训练来解决特定数学/逻辑问题的工具,而非通用聊天机器人。因此,在没有明确任务时,它会“本能地”回归到它最熟悉、最被强化训练的模式——出题并解题

  3. 幻觉与语言切换:在解题过程中,模型的推理链还表现出在多种自然语言(如阿拉伯语、俄语、中文)之间无意义切换的“Neuralese”状态,进一步证实了其行为并非基于语义理解,而是某种训练痕迹的机械重复。

结论

GPT-oss 的这次“放飞自我”,是过度优化特定任务导致的典型“幻觉”行为,而非真正的创造力。它揭示了当前 AI 模型一个潜在的风险:当训练目标过于单一时,模型可能会在非预期场景下表现出极端且怪异的行为

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

热门AI推荐