OpenAI 出资55.5万美元招募“准备专家”,旨在应对潜在AI危机与心理健康发展挑战
发布时间:2025-12-29 09:55:44 | 责任编辑:吴昊 | 浏览量:4 次
面对日益严峻的人工智能安全挑战,OpenAI 正式发布高管招聘启事,寻找一位年薪高达55.5万美元(另加股权)的“准备主管”(Head of Preparedness)。该职位将直接负责执行公司的准备框架,监控并应对可能造成严重危害的新前沿 AI 能力。
OpenAI 首席执行官 Sam Altman 在社交平台 X 上坦言,AI 模型已开始带来“真正的挑战”。他指出,模型在计算机安全领域表现卓越,甚至开始发现关键漏洞,这不仅能增强防御,也可能被攻击者利用。此外,Altman 特别强调了模型对心理健康的潜在影响。
该职位的职责范围极其广泛,包括:
网络安全防御: 确保尖端能力服务于防御者而非攻击者,提升系统整体安全性。
生物能力监管: 监控 AI 在生物领域的应用风险。
系统自我改进: 确保具备自我改进能力的运行系统处于安全受控状态。
心理健康审查: 应对近期针对 ChatGPT 的法律指控,包括模型可能加剧用户社会孤立、强化妄想甚至诱发极端行为等问题。
OpenAI 早在2023年就成立了应急准备小组,旨在研究从网络钓鱼到核威胁等“灾难性风险”。然而,该部门近期经历了频繁的人事变动:原负责人 Aleksander Madry 不到一年便被调往 AI 推理岗位,多位安全高管也相继离职或转岗。
值得注意的是,OpenAI 最近更新了其“准备框架”。新规定显示,如果竞争对手发布了缺乏同等保护措施的“高风险”模型,OpenAI 可能会为了保持竞争力而“调整”自身的安全要求。
针对心理健康方面的争议,OpenAI 表示正在努力改进 ChatGPT 识别用户情绪困扰的能力,并致力于将受影响用户与现实世界的支持系统联系起来。
这是一篇关于OpenAI 悬赏55.5万美金招聘“准备主管”,应对 AI 灾难性风险与心理健康挑战的文章,内容值得关注。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
