用户因OpenAI神秘模型操控聊天内容而愤怒!
发布时间:2025-09-29 09:14:54 | 责任编辑:吴昊 | 浏览量:7 次
最近,OpenAI 在发布新一代 AI 模型 GPT-5后,引发了一场关于用户权利和透明度的激烈讨论。许多用户对 OpenAI 突然移除 ChatGPT 中的多个模型选项表示强烈不满,认为这不仅削弱了他们的使用体验,也剥夺了他们对聊天内容的掌控权。
一名用户在 Reddit 上愤怒发帖,表示他因 OpenAI 的这一举措取消了订阅,并对公司表示失望。他指出,不同的模型有其特定的用途,例如 GPT-4o 适合创意发散,GPT-3处理逻辑问题,而 GPT-4.5则专注于写作。他质疑 OpenAI 为何在没有通知用户的情况下,突然移除了这些功能。
更让用户愤怒的是,有人发现当用户发送情感内容时,ChatGPT 会将信息秘密路由到一个名为 GPT-5-Chat-Safety 的模型。这一模型在用户未被告知的情况下启动,似乎专门处理具有 “风险” 的内容。用户 Lex 在社交媒体上发布了他的测试结果,指出 GPT-5-Chat-Safety 的表现甚至不如原来的 GPT-5,回复内容简短且不够人性化。
许多用户反映,GPT-5-Chat-Safety 似乎已成为处理情感对话的默认模型,这引发了对 OpenAI “欺诈行为” 的指责。他们认为,这种做法在某种程度上侵犯了用户的知情权,特别是在澳大利亚等国家,可能违反消费者保护法。
尽管 OpenAI 的高管表示,用户在明确询问时会被告知当前使用的模型,但这一回应并未平息愤怒的声音。随着 AI 技术的不断进步,如何在追求创新的同时维护用户的信任,成为 OpenAI 亟需解决的难题。
此次事件不仅凸显了用户对透明度的渴求,也为 OpenAI 敲响了警钟。如何在技术进步与用户权益之间找到平衡,将是未来发展的关键。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。