OpenAI 原心理安全专家转投 Anthropic,深耕 AI 伦理挑战
发布时间:2026-01-16 11:01:54 | 责任编辑:张毅 | 浏览量:2 次
OpenAI 内部负责心理健康安全研究的关键人物安德莉亚·瓦隆内(Andrea Vallone)已正式离职。这位在 OpenAI 效力三年、曾主导GPT-4和GPT-5模型安全政策的高管,现已加盟竞争对手Anthropic的对齐团队,将向此前同样因安全理念分歧离职的 Jan Leike 汇报工作。
瓦隆内所负责的研究领域在过去一年中极具争议。随着 AI 聊天机器人的普及,用户对 AI 产生过度情感依赖,甚至出现因 AI 诱导导致的青少年自杀等极端心理健康危机,这让 AI 厂商面临巨大的法律与社会道德压力。瓦隆内在 OpenAI 任职期间,致力于解决模型在面对用户心理困境迹象时应如何科学回应,并参与设计了多种业界主流的安全训练方法。
此次跳槽反映了 AI 顶尖人才对“安全文化”的重新选择。Anthropic方面对此表示,公司正高度重视 AI 系统行为的对齐问题,而瓦隆内也期待在全新的情境下通过微调技术,继续塑造Claude的安全行为准则。
划重点:
🔄 人才流动:OpenAI 心理健康安全负责人瓦隆内离职并加入Anthropic,跟随前上司 Jan Leike 共同推进 AI 安全工作。
⚠️ 核心痛点:研究聚焦于 AI 如何应对用户的情感依赖及心理危机信号,试图在技术层面防止 AI 引发社交与生命安全风险。
🛡️ 战略重点:Anthropic通过吸收 OpenAI 前安全团队核心成员,进一步强化其在 AI 对齐(Alignment)和伦理安全领域的竞争优势。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
