
一张图,快速生成可拆分3D角色!腾讯清华新SOTA | CVPR 2025
一张图,快速生成可拆分3D角色!腾讯清华新SOTA | CVPR 2025任意一张立绘,就可以生成可拆分3D角色!
任意一张立绘,就可以生成可拆分3D角色!
近年来,扩散模型在图像与视频合成领域展现出强大能力,为图像动画技术的发展带来了新的契机。特别是在人物图像动画方面,该技术能够基于一系列预设姿态驱动参考图像,使其动态化,从而生成高度可控的人体动画视频。
跨模态因果对齐,让机器更懂视觉证据!
无需物理引擎,单个模型也能实现“渲染+逆渲染”了!
何恺明LeCun联手:Transformer不要归一化了,论文已入选CVPR2025。
今年,CVPR共有13008份有效投稿并进入评审流程,其中2878篇被录用,最终录用率为22.1%。
在 Sora 引爆世界模型技术革命的当下,3D 场景作为物理世界的数字基座,正成为构建动态可交互 AI 系统的关键基础设施。当前,单张图像生成三维资产的技术突破,已为三维内容生产提供了 "从想象到三维" 的原子能力。
挑战多图数学推理新基准,大模型直接全军覆没?!
CVPR 2025,混合新架构MambaVision来了!Mamba+Transformer混合架构专门为CV应用设计。MambaVision 在Top-1精度和图像吞吐量方面实现了新的SOTA,显著超越了基于Transformer和Mamba的模型。
北京大学、上海人工智能实验室、南洋理工大学联合推出 DiffSensei,首个结合多模态大语言模型(MLLM)与扩散模型的定制化漫画生成框架。该框架通过创新的掩码交叉注意力机制与文本兼容的角色适配器,实现了对多角色外观、表情、动作的精确控制