OpenAI突然发布两款开源“open‑weight”语言模型:gpt‑oss‑120b与gpt‑oss‑20b,为自2019年GPT‑2以来首款开放模型。之前OpenAI一直倡导闭源策略,被马斯克和一票AI大佬打趣为CloseAI,难道这是要转性了吗?

性能亮点
gpt‑oss‑120b拥有约117B参数(含128个专家层,每个token激活约5.1B参数),在推理与工具调用任务上接近或超过o4‑mini表现,能运行于单片H100 GPU上。
gpt‑oss‑20b参数规模约21B(激活约3.6B参数),可在带有16GB内存的消费类硬件环境运行,与o3‑mini在常见推理benchmarks上表现相当或更优。
技术架构与可定制性
两款模型均采用Mixture-of-Experts (MoE) 架构,支持Apache 2.0许可,可用于商用、二次开发与本地部署。具备链式思维 (CoT)、函数调用、Web浏览与Python执行能力,推理水平可调(低、中、高)以平衡速度与性能。
安全与部署合作
在发布前,OpenAI已利用其Preparedness Framework对gpt‑oss‑120b进行了对抗性微调测试,确认其在生物、安全、自主提升等三个高风险类别上未达“高风险”程度。模型可通过AWS Bedrock、Azure Model Catalog、Ollama、vLLM、Hugging Face等平台部署。
行业影响与对比定位
OpenAI 领导层表示,此举旨在促进开放创新,与DeepSeek、Llama、Mistral等开源势力竞争。CEO Sam Altman强调,这将推动研究与产品开发,让更多开发者基于美国技术栈构建项目。
(转载自AI普瑞斯)
