×
加载中...
OpenAI 启动网络安全可信访问计划,加强 GPT-5.3-Codex 防御能力
鞭牛士 2026-02-06 10:04

AIPress.com.cn报道

2月6日消息,OpenAI 宣布推出 Trusted Access for Cyber(网络安全可信访问) 试点计划,旨在在强化基础安全防护的同时,将其最具网络安全能力的前沿模型优先用于防御性场景,降低潜在滥用风险。

OpenAI 表示,其最新模型 GPT-5.3-Codex 是目前网络安全能力最强的推理模型。随着模型能力从辅助代码补全发展到可长时间自主完成复杂任务,其在漏洞发现、修复和安全响应方面的潜在价值显著提升,同时也对安全治理提出更高要求。

在此背景下,OpenAI 引入基于身份与信任的访问框架,希望在释放模型防御潜力的同时,确保相关能力被用于安全防护用途。作为配套措施,OpenAI 还宣布将投入 1000 万美元 API 使用额度,用于加速网络安全防御相关工作。

OpenAI 指出,高能力网络安全模型有助于不同规模的组织提升安全防护水平、缩短响应时间并增强系统韧性,对整体软件安全基线具有提升作用。随着多家厂商陆续推出具备网络安全能力的模型,包括开放权重模型,OpenAI 希望其模型从一开始即服务于防御场景。

在具体机制上,OpenAI 认为,网络安全操作往往存在使用意图上的模糊性,例如漏洞扫描既可能用于合规修复,也可能被用于攻击准备。过度限制可能对正当安全研究造成阻碍。因此,该信任访问机制试图在降低防御方摩擦的同时,防止恶意行为发生。

目前,GPT-5.3-Codex 已内置针对明显恶意请求的拒绝机制,并结合自动化分类监测潜在异常网络安全行为。对于涉及高风险网络安全工作的使用场景,OpenAI 提供多种访问路径,包括个人用户的身份验证、企业级团队的统一申请,以及面向安全研究人员的邀请制项目。

OpenAI 强调,即便获得可信访问权限,用户仍需遵守其使用政策与服务条款,相关能力不得用于数据外泄、恶意软件开发或未经授权的破坏性测试。公司表示,将根据试点反馈持续调整安全策略和访问机制。

同时,OpenAI 还扩展了其网络安全资助计划,通过 API 使用额度支持在开源软件和关键基础设施领域具有漏洞修复经验的安全团队,进一步推动防御性网络安全能力的应用。(AI普瑞斯编译)

扫码下载app 最新资讯实时掌握