AIPress.com.cn报道
4月7日消息,美国媒体《纽约客》近日发布一项调查称,根据数百页此前未公开的内部文件和备忘录,OpenAI在发展过程中逐渐削弱了其最初强调的人工智能安全优先理念。
报道指出,这些材料包括 OpenAI 前首席科学家 Ilya Sutskever 撰写的内部备忘录,以及现任 Anthropic 首席执行官 Dario Amodei 在担任 OpenAI 安全负责人期间记录的超过200页笔记。文件内容显示,公司早期提出的核心理念——即认为人工智能可能带来重大风险,并应建立优先考虑公共利益而非利润的组织结构——在后续商业化过程中逐渐发生变化。
OpenAI最初以非营利机构形式成立,后来在2019年引入微软投资并转型为“有限利润”结构。调查称,在这一转型过程中,一些原本设计用于约束公司行为的安全机制逐渐被弱化。例如,阿莫迪曾主张在公司章程中加入“合并与协助条款”,即如果其他机构更接近安全实现通用人工智能(AGI),OpenAI应停止竞争并将资源转移支持该机构。但据称在最终投资协议中,微软获得了对相关安排的否决权。
报道还提到,公司董事会结构后来发生变化。曾在2023年短暂解雇首席执行官Sam Altman 的董事会成员陆续离开,而新的董事会成员被认为与管理层关系更为密切。针对当时导致奥特曼被解职的争议,一项独立调查据称并未形成公开书面报告。
在人工智能安全研究方面,OpenAI曾在2023年宣布将约 20% 的计算资源 用于“超级对齐”团队,以研究防止人工智能造成严重社会风险。但《纽约客》报道称,该团队实际获得的算力比例远低于这一水平,且随后被解散。
针对上述说法,奥特曼在接受采访时表示,他个人的看法与一些传统AI安全观点并不完全一致,但公司仍将继续开展与安全相关的研究项目。
调查还提到,一些前员工和合作伙伴曾对奥特曼的管理风格提出质疑。部分内部文件中记录了相关批评意见,不过奥特曼对此予以否认,并表示自己从未被Y Combinator正式解职。
该报道认为,OpenAI最初试图证明强大人工智能可以在公共利益框架下发展,但随着公司规模扩大、商业合作增加,一些原有治理机制和安全承诺出现调整。目前,OpenAI仍在推进更大规模模型研发并持续寻求新的融资。(AI普瑞斯编译)
扫码下载app 最新资讯实时掌握
