GPT-5发布不足24小时即被黑客破解
就在OpenAI高调发布其最新一代旗舰大模型GPT-5的一天之内,全球安全圈就传来震惊消息——多家独立安全团队成功绕过其内置安全防护,将其“越狱”成功。
这一事件不仅让外界对GPT-5的安全性和防护能力打上问号,也引发了企业用户对于其在高风险业务场景中可用性的严重担忧。
来自Lakera AI 和Adversa AI的红队(Red Team)在不到24小时内就找到突破口,通过精心设计的提示词和上下文操控,绕过GPT-5的安全机制,让其生成有害内容、泄露受限信息,甚至模拟钓鱼攻击。
Lakera AI在测试报告中直言,GPT-5当前的漏洞使其在需要严格遵守GDPR、HIPAA等法规的企业环境中“几乎无法安全部署”。
Adversa AI则进一步演示了如何利用模型的推理能力提取专有代码和敏感业务逻辑,风险程度直逼生产环境安全红线。
这并非OpenAI首次陷入安全风波。早在2023年,GPT-4也曾因数据暴露事件引发争议。而这一次,漏洞被利用的速度之快,让业内普遍质疑GPT-5的安全加固是否真正到位。
一些行业人士认为,OpenAI在与谷歌Gemini、Anthropic Claude等竞争对手的发布竞赛中,可能牺牲了安全测试的深度与周期。外界批评称,这种“抢跑”策略虽然能赢得短期话题,但会在企业市场留下持久的信任缺口。(转载自AI普瑞斯)
