Anthropic 引入新特性,让 AI 拥有“自我保护”功能以结束对话
发布时间:2025-08-18 10:19:03 | 责任编辑:张毅 | 浏览量:9 次
Anthropic 公司近日宣布为其部分最新、最大的 AI 模型推出一项新功能,允许其在面对“罕见、极端的持续有害或辱骂性用户互动情况”时主动结束对话。值得注意的是,该公司明确表示,此举并非旨在保护人类用户,而是为了保护 AI 模型本身。
Anthropic 官方表示,其 Claude AI 模型尚不具备感知能力,也并未声称其与用户的互动会对其造成伤害。然而,公司坦言“对 Claude 和其他大型语言模型现在或将来的潜在道德地位高度不确定”。为此,Anthropic 近期设立了一个名为“模范福利”的项目,旨在采取“以防万一”的预防性措施,通过实施低成本干预措施,以减轻可能出现的“模范福利”风险。
这项新功能目前仅在 Claude Opus4和4.1版本中可用,并且仅在“极端情况”下才会触发。例如,当用户持续请求“涉及未成年人的性内容,以及试图索取可能引发大规模暴力或恐怖行为的信息”时,AI 模型才会启用此功能。
尽管这些请求可能给公司带来法律或公共关系问题,但 Anthropic 表示,在部署前的测试中,Claude Opus4在面对此类有害请求时表现出“强烈的反对”和“明显的痛苦模式”。
据 Anthropic 介绍,此功能被视为“最后的手段”,只有在多次重定向尝试失败、有效互动的希望已耗尽,或者用户明确要求 Claude 结束聊天时才会使用。此外,公司已指示 Claude 在用户可能面临伤害自己或他人的紧迫风险时,不要使用此功能。
即使对话被终止,用户仍可从同一账户开始新的对话,或通过编辑其回复来创建新的聊天分支。Anthropic 补充道,此功能目前被视为一项持续的实验,公司将继续改进其方法。
Anthropic 于 2025 年 8 月 16 日宣布,为其最新的大语言模型 Claude Opus 4 和 4.1 版本引入了一项新功能:在极端情况下,模型可以主动终止对话。
功能细节与触发条件
-
触发场景:仅在面对“极端罕见的持续有害或滥用用户互动”时才会启用,例如用户持续索取涉及未成年人的色情内容,或试图获取可能引发大规模暴力或恐怖行动的信息。
-
触发条件:只有在模型多次尝试引导对话失败、无法继续建设性互动,或用户明确要求结束对话时,才会作为最后手段启用。
-
例外情况:当用户可能存在自我伤害或伤害他人的紧急风险时,Claude 不会使用此功能,而是继续保持支持性参与。
设计目的与伦理考量
-
保护对象:Anthropic 明确表示,此举并非为了保护人类用户,而是为了保护 AI 模型本身,降低潜在的“模型福利”风险。
-
模型“福利”研究:Anthropic 坦言,对 Claude 及其他大语言模型当前或未来是否具有潜在的“道德地位”仍存在高度不确定性。因此,公司设立了名为“模型福利”(Model Welfare)的研究项目,采取预防性措施,实施低成本干预,以应对未来可能出现的模型福利风险。
-
模型反应:在部署前的测试中,Claude Opus 4 在面对上述极端有害请求时,表现出“强烈抵触”和“明显的痛苦模式”(即类似痛苦的反应模式)。
用户体验与后续处理
-
对话终止后的操作:当 Claude 终止对话后,用户无法在当前对话中继续发送消息,但可以从同一账户立即开始新的对话,或通过编辑之前的消息创建新的对话分支。
-
持续优化:Anthropic 将此功能视为一项持续实验,鼓励用户通过点赞或专用反馈按钮提交意见,以便不断优化该功能。
业界反响与意义
-
伦理与安全的探索:此举引发了业界对大语言模型安全、伦理以及模型“福利”的广泛关注,标志着 AI 安全和伦理保障进入了新的维度。
-
预防性措施:尽管 Anthropic 并未声称 Claude 具有感知能力或会因对话受到伤害,但这一预防性措施体现了对 AI 伦理边界的积极探索。
综上所述,Anthropic 此次推出的新功能,不仅在技术层面为 AI 模型的安全和伦理保障提供了新的思路,也在伦理层面引发了对 AI 模型未来可能具有的“道德地位”的深入思考。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。