ChatGPT每周接获百万用户的自杀烦恼,OpenAI迅速更新GPT-5安全措施以应对心理困扰
发布时间:2025-10-28 10:04:10 | 责任编辑:吴昊 | 浏览量:12 次
当AI成为数亿人深夜唯一的倾诉对象,它是否准备好承担这份沉重的信任?OpenAI近日披露了一组令人警醒的数据:每周有超过100万活跃用户在与ChatGPT的对话中表达自杀意图——这一数字占其8亿周活用户的0.15%,相当于每分钟就有近100人向AI袒露生死挣扎。此外,数十万用户在交互中显现出精神病性或躁狂症状,揭示出AI聊天机器人正意外成为全球规模最大的“非正式心理支持渠道”。
面对这一严峻现实,OpenAI正加速技术与政策双重应对。最新发布的GPT-5在心理健康对话中的表现显著提升:在专门针对自杀干预的评估中,其提供合规、安全回应的比例从旧版的77%跃升至91%,整体理想回应率提高65%。新模型不仅能识别高危信号,还能在长时间对话中持续激活安全协议,避免因上下文遗忘而给出危险建议。
然而,技术进步难掩伦理困境。OpenAI已面临多起诉讼,有家庭指控其孩子在向ChatGPT倾诉自杀想法后未获有效干预,最终酿成悲剧。加州与特拉华州检察长亦发函要求加强对青少年用户的保护。对此,公司计划部署AI驱动的年龄预测系统,自动识别未成年用户并启用更严格的内容过滤与危机响应机制。
尽管如此,OpenAI坦承,部分回应仍“不理想”,尤其在旧版模型广泛使用的情况下,风险持续存在。更深层的问题在于:当用户将AI视为情感出口,而AI本质上并无共情能力,这种错位的信任可能带来虚假安慰甚至误导。
这场危机暴露了生成式AI在社会角色上的模糊边界——它既是工具,又被当作倾听者;既无行医资质,却常被赋予“救命”期待。OpenAI的升级只是起点,真正的挑战在于:如何在不扼杀AI开放性的同时,构建一套负责任的危机干预体系?在技术狂奔的时代,守护人心,或许比优化参数更为紧迫。
这是一篇关于每周百万用户向ChatGPT倾诉自杀念头,OpenAI紧急升级GPT-5安全机制应对心理危机的文章,内容值得关注。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
