
两张图就能重构3D空间?清华&NTU利用生成模型解锁空间智能新范式
两张图就能重构3D空间?清华&NTU利用生成模型解锁空间智能新范式最少只用2张图,AI就能像人类一样理解3D空间了。ICCV 2025最新中稿的LangScene-X:以全新的生成式框架,仅用稀疏视图(最少只用2张图像)就能构建可泛化的3D语言嵌入场景,对比传统方法如NeRF,通常需要20个视角。
最少只用2张图,AI就能像人类一样理解3D空间了。ICCV 2025最新中稿的LangScene-X:以全新的生成式框架,仅用稀疏视图(最少只用2张图像)就能构建可泛化的3D语言嵌入场景,对比传统方法如NeRF,通常需要20个视角。
空间智能的落地还需要多久?现在就可以了。
在我看来,没有空间智能,通用人工智能就不完整。这是“AI教母”李飞飞在最新访谈中对AGI的判断——是的,李飞飞也开始谈论AGI了。
AI能看图,也能讲故事,但能理解“物体在哪”“怎么动”吗? 空间智能,正是大模型走向具身智能的关键拼图。
因为眼睛受伤暂时失去立体视觉,李飞飞更加坚定了做世界模型的决心。
本文第一作者为前阿里巴巴达摩院高级技术专家,现一年级博士研究生满远斌,研究方向为高效多模态大模型推理和生成系统。通信作者为第一作者的导师,UTA 计算机系助理教授尹淼。尹淼博士目前带领 7 人的研究团队,主要研究方向为多模态空间智能系统,致力于通过软件和系统的联合优化设计实现空间人工智能的落地。
人形机器人、无人机、智能汽车这三个领域将成为空间智能的爆发点。对于具身智能(Embodied Intelligence),真实的物理环境就是最好的老师
World Labs 是由著名 AI 专家、斯坦福大学教授李飞飞于 2024 年创办的初创公司,致力于开发具备“空间智能”的下一代 AI 系统。
李飞飞空间智能创业公司World Labs,开源一项核心技术!
杯子在我的左边还是右边?