AIPress.com.cn报道
1 月 29 日,蚂蚁集团旗下的灵波科技开源了名为 LingBot-World 的世界模型。这是继空间感知模型(LingBot-Depth)和 VLA 基座模型之后,蚂蚁在具身智能领域的第三次重磅发布。
官方宣称,该模型在视频质量、动态交互和长时一致性上,已经可以媲美谷歌的 Genie 3。这意味着,开发者现在拥有了一个免费、开源且高性能的“数字演练场”,无论是用来训练机器人、开发游戏,还是做自动驾驶模拟,都变得触手可及。
目前,LingBot-World在适用场景、生成时长、动态程度、分辨率等方面均处于业界顶尖水平。

视频生成领域有一个常见难题叫"长时漂移":生成时间一长,就可能出现物体变形、细节塌陷、主体消失或场景结构崩坏。LingBot-World通过多阶段训练和并行化加速,实现了近10分钟的连续稳定无损生成,为长序列、多步骤的复杂任务训练提供支撑。
在压力测试中,镜头最长移开60秒后返回,目标物体仍然存在且结构一致。

交互性能方面,LingBot-World可实现约16 FPS的生成吞吐,端到端交互延迟控制在1秒以内。用户可以通过键盘或鼠标实时控制角色和相机视角,画面随指令即时反馈。
此外,用户可以通过文本触发环境变化和世界事件,比如调整天气、改变画面风格或生成特定事件,同时保持场景几何关系相对一致。
模型具备零样本泛化能力,仅需输入一张真实照片(如城市街景)或游戏截图,即可生成可交互的视频流,无需针对单一场景进行额外训练或数据采集。
为解决高质量交互数据匮乏的问题,LingBot-World采用混合采集策略:一方面清洗大规模网络视频覆盖多样化场景,另一方面结合游戏采集和虚幻引擎合成管线,从渲染层直接提取无UI干扰的画面,同步记录操作指令和相机位姿,为模型学习"动作如何改变环境"提供精确对齐的训练信号。
具身智能规模化落地面临的核心挑战是复杂长程任务的真机训练数据极度稀缺。LingBot-World凭借长时序一致性、实时交互响应,以及对"动作-环境变化"因果关系的理解,能够在数字世界中"想象"物理世界,为智能体提供低成本、高保真的试错空间。
模型还支持场景多样化生成(如光照、摆放位置变化),有助于提升具身智能算法在真实场景中的泛化能力。
目前LingBot-World模型权重和推理代码已面向社区开放。
扫码下载app 最新资讯实时掌握
