
纯自回归图像生成模型开源来了,复旦联手字节seed共同捍卫自回归
纯自回归图像生成模型开源来了,复旦联手字节seed共同捍卫自回归基于Transformer的自回归架构在语言建模上取得了显著成功,但在图像生成领域,扩散模型凭借强大的生成质量和可控性占据了主导地位。
基于Transformer的自回归架构在语言建模上取得了显著成功,但在图像生成领域,扩散模型凭借强大的生成质量和可控性占据了主导地位。
最近,来自大连理工和莫纳什大学的团队提出了物理真实的视频生成框架 VLIPP。通过利用视觉语言模型来将物理规律注入到视频扩散模型的方法来提升视频生成中的物理真实性。
“AI小作坊”究竟是如何做到的?
港中文和清华团队推出Video-R1模型,首次将强化学习的R1范式应用于视频推理领域。通过升级的T-GRPO算法和混合图像视频数据集,Video-R1在视频空间推理测试中超越了GPT-4o,展现了强大的推理能力,并且全部代码和数据集均已开源。
2025年4月中旬,快手和字节这两个老对手,在AI视频生成领域,再次狭路相逢。先是4月14日,字节跳动的视频生成基础模型Seaweed,低调上线了官网,还释出了技术报告。
在 Sora 之前,就已经受到全世界用户的认可的生成式视频工具是什么?——可灵 AI。无需折腾剪辑软件,几分钟,就能拿到自然如实拍,画面质感如电影的动态视频。
字节Seed团队视频生成基础模型,来了。
虽然扩散模型在视频生成领域展现出了卓越的性能,但是视频扩散模型通常需要大量的推理步骤对高斯噪声进行去噪才能生成一个视频。这个过程既耗时又耗计算资源。例如,HunyuanVideo [1] 需要 3234 秒才能在单张 A100 上生成 5 秒、720×1280、24fps 的视频。
从海底的慢动作漂浮到战场的史诗旋转,这十个视频全是Google Veo 2的神来之笔!它能让你的点子秒变大片级画面,快来围观这场创意狂欢。
AI 圈永远不缺「新活」。