蚂蚁灵波开源可交互的世界模型LingBot-World
创始人
2026-01-29 16:47:29

IT之家 1 月 29 日消息,蚂蚁集团旗下具身智能公司 —— 蚂蚁灵波科技今日宣布开源世界模型 LingBot-World

LingBot-World 是一个专为交互式世界模型设计的开源框架。其核心LingBot-World-Base致力于提供高保真、可控制且逻辑一致的模拟环境。该模型由一个可扩展数据引擎(Scalable Data Engine)驱动,通过从大规模游戏环境中学习物理规律与因果关系,实现了与生成世界的实时交互。

视频质量动态程度长时序一致性交互能力等关键指标上,LingBot-World 均展现出业界领先的性能。

视频生成领域普遍存在“长时漂移”问题,即生成时间一长,便可能出现物体变形、细节塌陷、主体消失或场景结构崩坏等现象。针对这一难题,LingBot-World 通过多阶段训练及并行化加速策略,实现了近 10 分钟的连续稳定无损生成,为长序列、多步骤的复杂任务训练提供支撑。

在官方的压力测试中,即便镜头移开长达 60 秒后返回,场景中的核心物体依然能保持其结构与外观的一致性。

▲ 高动态环境下,镜头长时间移开后返回,车辆形态外观仍保持一致

▲ 镜头长时间移开后返回,房屋仍存在且结构一致

LingBot-World 告别了随机的“幻觉”式生成。它支持精细化的、由动作驱动的生成(action-conditioned generation),能够响应用户指令,渲染出符合物理真实感的动态场景。

此外,LingBot-World 可实现约 16 FPS 的生成吞吐,并将端到端交互延迟控制在 1 秒以内。这意味着,用户可以通过键盘或鼠标实时控制角色与相机视角,画面能够根据指令即时反馈。

模型还支持通过文本指令触发环境变化与世界事件,例如调整天气、改变画面风格,并在保持场景几何关系相对一致的前提下完成动态生成。

为解决世界模型训练中高质量交互数据匮乏的问题,LingBot-World 采用了一种创新的混合数据采集策略:

  • 一方面,通过清洗大规模网络视频以覆盖多样化的场景;
  • 另一方面,结合游戏采集与虚幻引擎(UE)合成管线,从渲染层直接提取无 UI 干扰的纯净画面,并同步记录下操作指令与相机位姿。

得益于此,LingBot-World 具备了更好的 Zero-shot 泛化能力。仅需输入一张真实的城市街景照片或游戏截图,模型即可生成对应的可交互视频流,无需针对单一场景进行额外训练,降低了在不同场景中的部署与使用成本。

目前,LingBot-World 模型权重及推理代码已全面开源,IT之家附开源地址如下:

相关内容

热门资讯

OpenAI推出Prism:G... IT之家 1 月 28 日消息,OpenAI 当地时间 27 日宣布推出由 GPT-5.2 驱动的免...
马斯克达沃斯预言:AI将如何重... 引言:未来已来,只是尚未均匀分布。马斯克在达沃斯的发言,为我们勾勒出一幅充满挑战与机遇的未来图景。 ...
聚焦AI应用,这只特色ETF火... 最近的市场,正在释放一种并不寻常的信号。 不是指数的全面突破,也不是权重板块的集体异动,而是一股来自...
蚂蚁灵波开源可交互的世界模型L... IT之家 1 月 29 日消息,蚂蚁集团旗下具身智能公司 —— 蚂蚁灵波科技今日宣布开源世界模型 L...
蚂蚁灵波开源具身大模型Ling... 继昨日开源高精度空间感知模型 LingBot-Depth后,蚂蚁集团旗下灵波科技今日宣布全面开源具身...