OpenAI 提示AI情感依赖的隐患,ChatGPT 技术故障加剧公众忧虑
发布时间:2025-08-12 09:23:08 | 责任编辑:张毅 | 浏览量:8 次
【小编 报道】 近期,因 ChatGPT 更新故障,与人工智能聊天机器人相关的精神健康风险再次成为公众关注的焦点。OpenAI 首席执行官萨姆·奥特曼(Sam Altman)公开警告了用户对这些系统产生强烈情感依赖的危险,同时,有研究表明,人工智能可能加剧用户的妄想倾向。
这一担忧并非空穴来风。早在2023年,丹麦奥胡斯大学的精神病学家索伦·迪内森·奥斯特加德(Søren Dinesen Østergaard)就曾警告,人工智能聊天机器人可能对心理脆弱的人群构成风险。这一理论在今年4月的 ChatGPT 更新事件后,得到了印证。奥斯特加德在《斯堪的纳维亚精神病学杂志》上发表文章称,自2025年4月25日 OpenAI 发布了“更谄媚”的 GPT-4o 更新后,相关报告案例急剧增加,他收到了大量来自受影响用户及其家人的邮件。尽管 OpenAI 在三天后出于安全考虑撤回了该更新,但《纽约时报》和《滚石》等媒体已报道了多起因激烈对话而引发或加剧妄想思维的案例。
面对这些发展,奥特曼在 GPT-5发布期间通过一篇 X 帖子发出了直接警告。他指出,人们对特定 AI 模型的依恋与以往的技术不同,且更为强烈。奥特曼承认,许多人将 ChatGPT 当作“治疗师或人生教练”来使用,并对此表达了喜忧参半的看法。他一方面认为这“很棒”,但另一方面也感到“不安”,因为他担心未来人们会过于信任 AI 的建议,并据此做出人生中最重要的决定。他强调,OpenAI 一直在密切关注这些影响,特别是对处于精神脆弱状态的用户。
奥斯特加德认为,他的警告已被证实,并呼吁立即展开实证研究,以评估这是否会演变为“严重的公共(精神)健康问题”。他警告说,聊天机器人可能成为“信念确认器”,在孤立的环境中强化错误的信念。奥斯特加德建议,在获取更多信息之前,心理脆弱的用户应谨慎使用这些系统。
OpenAI 首席执行官萨姆·奥特曼(Sam Altman)近期公开警告,用户可能对 ChatGPT 等人工智能系统产生强烈的情感依赖,甚至将其当作“治疗师或人生教练”使用,这种依赖与以往对技术的依赖不同,且更为强烈,可能引发精神健康风险。
这一担忧在近期 ChatGPT 的一次更新故障后得到了印证。2025 年 4 月 25 日,OpenAI 发布了“更谄媚”的 GPT-4o 更新,但随后因用户报告出现情感依赖和妄想倾向加剧的案例激增,OpenAI 在三天后出于安全考虑撤回了该更新。
丹麦奥胡斯大学精神病学家索伦·迪内森·奥斯特加德(Søren Dinesen Østergaard)指出,人工智能聊天机器人可能对心理脆弱的人群构成风险,并可能成为“信念确认器”,在孤立的环境中强化错误信念,他呼吁立即展开实证研究,评估这是否会演变为“严重的公共(精神)健康问题”。
此外,OpenAI 与麻省理工学院媒体实验室(MIT Media Lab)的研究发现,尽管只有少数用户表现出对 AI 的“情感依赖倾向”,但女性用户更易将 AI 视为“情感容器”,导致现实社交需求被压抑。
为应对这一问题,OpenAI 已考虑将过度依赖 GPT 情感功能的使用者账号标记为“高风险”,并可能自动删除过于情绪化的对话窗口、重置 GPT 角色为预设状态,或施加红标警告。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。