司法部回应:Claude AI 在战争系统应用不可信赖,驳回 Anthropic 起诉
发布时间:2026-03-18 10:59:41 | 责任编辑:吴昊 | 浏览量:1 次
美国司法部在近期的一份法庭文件中对 AI 初创公司 Anthropic 的诉讼作出了严厉回应。政府方面坚称,将该公司标记为“供应链风险”并未侵犯其第一修正案权利,并预测 Anthropic 的诉讼最终将以失败告终。
这场纷争源于 Anthropic 试图限制其 Claude 模型在军 事领域的用途。对此,政府采取了强硬立场:
合规惩罚:政府辩称,由于 Anthropic 试图限制军方使用其 AI 模型的方式,政府依法将其列为风险对象是正当的。
安全信任危机:司法部直言不讳地指出,鉴于 Anthropic 在军 事合同谈判中表现出的限制性态度,该公司无法在作战系统中获得信任。
特朗普政府此前已发布命令,计划将 Anthropic 排除在政府供应商名单之外。这一举动在行业内引发了剧烈震荡:
数十亿损失风险:Anthropic 高层警告,被贴上“供应链风险”标签已导致多家合作伙伴暂停合作,潜在损失可能高达数十亿美元。
同行声援:包括 Google DeepMind 首席科学家 Jeff Dean 在内的多名来自 OpenAI 和谷歌的员工已提交法律文书,支持 Anthropic 反抗政府禁令。
Anthropic 一直以“AI 安全”为核心标签,拒绝将其技术用于自主武器或政府监控。然而,这种坚持正使其面临被踢出价值不菲的军 事合同市场的困境。与此同时,竞争对手如微软旗下的 OpenAI 技术已被证实正在接受五角大楼的测试,尽管其此前也曾有过类似的限制条款。
这是一篇关于司法部反击 Anthropic 诉讼:Claude AI 不应被信任用于战争系统的文章,内容值得关注。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
