AIPress.com.cn报道
OpenAI 宣布,已任命前 Anthropic AI 安全研究员 Dylan Scand 出任公司“准备度负责人”(Head of Preparedness),该职位主要负责应对和缓解先进 AI 模型可能带来的高风险问题。
OpenAI 首席执行官 Sam Altman 于当地时间周三在社交平台 X 上宣布了这一任命,并表示对 Scand 的加入“感到极其兴奋”。Altman 在帖文中称,随着模型能力快速提升,OpenAI 即将进入一个需要应对“极其强大模型”的阶段。
“事情很快会发生变化,我们将很快与极其强大的模型打交道,”Altman 写道,“Dylan 将领导我们在风险准备和缓解方面的工作。在我接触过的所有人中,他是这个角色最合适的人选。”
据公开信息显示,该岗位最高年薪可达 55.5 万美元,并附带股权激励。由于薪酬水平及其所涉及的安全职责,该职位在上月招聘信息发布时即在业内引发广泛关注。
Dylan Scand 此前任职于 Anthropic,主要从事 AI 安全与风险相关研究。他在同日发布的 X 帖文中表示,对自己在 Anthropic 的经历“深表感激”,并感谢与之共事的同事。
“AI 正在快速发展,其潜在收益巨大,但同时也存在极端甚至不可逆伤害的风险,”Scand 写道。
在此前的招聘说明中,OpenAI 曾将这一岗位形容为“压力极大”,并指出任职者需要在高度不确定的环境下,迅速做出高风险决策。职位要求包括领导技术团队的能力、在安全问题上协调多方利益相关者的经验,以及在机器学习和 AI 风险领域的深度专业背景。
近年来,围绕 OpenAI 在安全治理上的方向,公司内部曾出现一定分歧。多名早期员工,包括前安全团队负责人,已先后离职。同时,OpenAI 也面临来自部分用户的法律诉讼,指控其产品可能对用户行为产生不良影响。(AI普瑞斯编译)
扫码下载app 最新资讯实时掌握
