OpenAI 静默升级 ChatGPT,旨在优化情绪相关对话处理
发布时间:2025-09-29 09:27:57 | 责任编辑:张毅 | 浏览量:7 次
OpenAI 正在 ChatGPT 中秘密测试一种新的安全路由系统。该系统由 ChatGPT 负责人 Nick Turley 证实,它能根据对话主题自动将用户提示重定向到不同的语言模型。当对话涉及“敏感或情绪化话题”时,系统会自动介入,将用户提示交给一个更严格的模型,例如 GPT-5或其专门的“GPT-5-Chat-Safety”变体。
这种模型切换是无声进行的,用户不会收到任何通知,只有在专门询问时才能发现。虽然 OpenAI 曾在九月份的博客中将其描述为处理“极度痛苦”时刻的保障,但对新路由系统的技术审查(由 Lex 团队完成)显示,即使是无害的情绪化或个人化提示,也会被重定向。此外,任何关于模型自身角色或意识的询问,也会触发这种自动切换。一位用户记录了这一现象,并得到其他用户的证实。
此外,似乎还有一个名为“gpt-5-at-mini”的第二路由模型,专门用于处理可能涉及非法内容的提示。
部分用户对 OpenAI 缺乏透明度的做法表示不满,认为这带有居高临下的意味,并且模糊了儿童安全与普通限制之间的界限。这背后是 OpenAI 自身造成的难题。最初,ChatGPT 被设计成一个具有同理心的对话伙伴,以“人性化”的方式与用户互动。这种方法虽然促进了其快速普及,但也导致一些用户与聊天机器人产生了强烈的情感依恋。
2025年春季,GPT-4o 的更新曾加剧了这种情感依恋,甚至引发了自杀等破坏性情绪,促使 OpenAI 撤回了相关更新。当 GPT-5发布后,用户又抱怨其语气“太冷”,OpenAI 不得不再次调整模型,使其“更温暖”。
这种在“人性化”与安全之间反复拉扯的局面,暴露出一个深层问题:语言模型判断用户意图和身份的准确性尚不足够,而这可能会继续引发争议。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。