自10月29日起,OpenAI修订ChatGPT规定:不再提供医疗、法律及财务咨询
发布时间:2025-11-03 18:04:06 | 责任编辑:张毅 | 浏览量:9 次
OpenAI于10月29日正式更新ChatGPT使用政策,明确禁止模型提供专业医疗、法律或财务建议。此举旨在规避监管风险、降低误导隐患,重塑AI在高风险领域的应用边界。新规核心内容包括:拒绝解读医学影像、辅助诊断、起草或解释法律合同、提供个性化投资策略或税务规划。
用户若提出此类需求,系统将统一回复引导咨询人类专家。政策覆盖ChatGPT全部模型及API接口,确保执行一致性。专业人士仍可用于一般性概念讨论或数据整理,但不得直接面向终端用户输出“受托性”建议。此调整受全球监管驱动。欧盟《人工智能法案》即将生效,将高风险AI纳入严格审查;美国FDA对诊断类AI工具要求临床验证。OpenAI此举避免被认定为“软件即医疗设备”,同时防范潜在诉讼。业内认为,这是对欧盟罚款(最高GDP6%)与美国法律风险的主动应对。
用户反应两极。部分个体用户遗憾失去“低成本咨询”渠道,称曾依赖AI节省专业费用;但医疗与法律界普遍支持,认为AI“伪专业”输出易引发误诊或纠纷。数据显示,超40% ChatGPT查询属建议类,医疗与财务占比近30%,政策或导致短期流量下滑。行业影响深远。Google、Anthropic等或跟进限制,垂直AI工具(如认证版法律/医疗模型)有望兴起。中国企业如百度已先行合规,国内监管趋严下,创新需在“沙盒”机制中探索。
OpenAI强调,目标是“平衡创新与安全”。此更新延续其Model Spec框架,预计2025年2月进一步迭代。AI从“全能助手”向“有限辅助”转型,已成行业共识。未来,技术突破与伦理约束将并行,GPT-5时代或带来新平衡。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
