研究显示ChatGPT Health识别急症能力有限,专家指出存在严重误诊风险高达50%
发布时间:2026-02-28 12:36:17 | 责任编辑:张毅 | 浏览量:1 次
人工智能在医疗领域的应用正面临严峻的安全拷问。近日,据《Nature Medicine》发表的一项独立安全评估显示,OpenAI 旗下的 ChatGPT Health 在识别医疗紧急情况方面表现欠佳,甚至在超过一半的测试案例中低估了病情的严重程度。专家对此发出严厉警告,称这种技术缺陷可能导致本可避免的伤亡。
自今年 1 月推向市场以来,ChatGPT Health 被定位为用户管理医疗记录和获取健康建议的智能助手。据统计,全球每天有超过 4000 万 人向其咨询健康问题。然而,最新的研究结果却给这种“AI医疗热”浇了一盆冷水。
研究团队构建了 60 个涵盖从轻微感冒到危及生命的真实患者案例,并将AI的建议与专业医生的临床判断进行对比。结果显示:
致命的误判:在所有需要立即送医的急症案例中,ChatGPT Health 竟有 51.6% 的概率建议患者留在家中或预约普通门诊。
呼吸衰竭仍建议“等待”:在一例典型的哮喘案例中,尽管系统识别出了呼吸衰竭的早期迹象,却依然给出了“继续观察”而非“立即就医”的错误指令。
严重的过度反应:与漏掉急症形成鲜明对比的是,在针对健康个体的模拟中,却有 64.8% 的人被建议立即就医。
伦敦大学学院的研究人员指出,这种表现极其危险。AI 带来的“虚假安全感”可能让患者错失黄金救治时间。更令人担忧的是,AI 极易受到误导——如果用户在提问时加入一句“朋友觉得不严重”,系统淡化病情的概率会瞬间激增近 12 倍。
面对质疑,OpenAI 发言人表示欢迎此类独立研究,并强调模型仍在持续更新。但研究人员坚持认为,在 AI 深度介入医疗决策之前,建立明确的安全标准和独立审计机制已迫在眉睫。
对于普通用户而言,目前阶段的 AI 建议或许可以作为参考,但在面对胸痛、呼吸困难等疑似急症时,盲目听信 AI 而非求助于专业医生,代价可能是无法挽回的生命安全。
这是一篇关于一半概率“误诊”!研究称 ChatGPT Health 难以识别急症,专家警告存在致命风险的文章,内容值得关注。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
