11月4日消息,Lambda 宣布与微软达成一项数十亿美元规模的战略合作协议,双方将部署数万颗 Nvidia 生产的图形处理器,以支持大型 AI 训练与推理基础设施。

Lambda 表示,目前尚未披露该协议的具体数额与硬件部署时间,但已确认将利用该资源为微软的云服务及其 AI 模型扩展提供支撑。
Lambda 的首席执行官 Stephen Balaban 在一份声明中表示:“看到微软和我们团队一起部署这些庞大规模的 AI 超级计算机,非常令人振奋。”他指出,这次合作是两家公司 8 年合作关系迈向“下一步”的表现。
从背景来看,这笔协议的意义不只是一次采购合同,更反映出全球 AI 模型规模与云基础设施的需求正在迎来急速扩张时代。
Lambda 表示,其所部署的硬件包括 Nvidia GB300 NVL72 系列,这一代加速器被认为是专为大规模语言模型及生成式 AI 场景设计。
对于微软而言,此次与 Lambda 的合作既是其 Azure 云服务继续扩展 AI 能力的体现,也是其在 AI 基础设施供应链中加固布局的一环。
在微软自身及其合作伙伴对大型模型训练、实时推理、智能代理服务需求上升的背景下,确保算力来源与规模成为战略焦点。
与此同时,这也让 Nvidia 处于产业链关键位置。其 GPU 芯片正成为训练和运行下一代 AI 模型的核心硬件,而 Lambda 与微软的合作则进一步彰显了其在生态中的中心地位。
对 Nvidia 而言,算力不仅是产品,更是通往 AI 时代的“入口许可证”。
从商业与行业视角来看,这一合作释放出两个信号:其一,AI 基础设施正在从“配套服务”跃升至“战略资源”;其二,云服务商、模型公司与硬件厂商之间的协同将成为未来竞争的重要维度。
未来几年,在大模型训练及智能代理普及的过程中,拥有对数十万 GPU、数百万 CPU 调度与部署能力的一方将具备极强竞争力。(转载自:AI普瑞斯)
更多AI资讯请点击:http://www.aipress.com.cn/
扫码下载app 最新资讯实时掌握
