该基金由 Renaissance Philanthropy 协助管理,总规模已超过 2700 万英镑,成为目前规模较大的独立对齐研究专项资助项目之一。OpenAI 表示,此次出资不会改变既有的遴选机制,也不会新增独立评审流程,而是扩大本轮已完成评估的高质量项目的资助数量。
在生成式 AI 迈向更高能力阶段的背景下,如何确保通用人工智能(AGI)在安全边界内发展,成为行业与政策层面反复讨论的话题。OpenAI 方面指出,前沿实验室在模型访问权限与算力资源方面具备独特优势,能够推进与前沿模型紧密结合的对齐方法,例如通过“迭代部署”方式,在逐步提升能力的同时加强安全护栏。然而,这并不意味着对齐研究应局限于大型实验室内部。
公司认为,一个健康的对齐生态需要独立研究团队参与,探索不同理论路径和概念框架,包括那些可能不完全契合当前主流技术路线的研究方向。随着 AGI 发展路径仍存在高度不确定性,未来的关键突破或许会改变对齐问题的基本形态。因此,支持多元化、非关联性的外部研究被视为降低系统性风险的重要组成部分。
The Alignment Project 的资助范围覆盖多个学科领域,包括计算复杂性理论、博弈论与经济学、认知科学、信息论以及密码学等。单个项目通常获得 5 万至 100 万英镑不等的资金支持,并可根据需要获得算力资源及专家咨询。
作为英国政府体系下的研究机构,UK AI Security Institute 隶属于英国科学、创新与技术部(DSIT),其职责聚焦于人工智能带来的重大安全风险评估与治理能力建设。该机构已建立涵盖政府、学术界、产业界与慈善组织的跨部门合作网络,并具备成熟的科研资助执行经验。
OpenAI 表示,AI 的未来形态难以精准预测,技术进展可能快于预期。在这种背景下,“AI 韧性”、民主化参与以及逐步部署策略将成为关键原则。公司强调,确保 AGI 安全且惠及所有人,不可能由单一机构完成,需要更加广泛、独立且多样化的研究力量参与。(AI普瑞斯编译)
