ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星
5020点击    2025-04-19 17:05

昨天,视频生成进入了超低显存时代!


这次出手的是AI界的「赛博佛祖」、ControlNet的作者、斯坦福大学博士生张吕敏。


他提出了以渐进式生成视频的新方法——FramePack,才过去一天对应的开源项目已有2600多star。


新方法采用独特的压缩结构和抗漂移采样方法,有效缓解了遗忘和漂移难题,提升了视频质量和连贯性。


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


论文链接:https://arxiv.org/abs/2504.12626


项目链接:https://lllyasviel.github.io/frame_pack_gitpage/


现在只要一台RTX 3060 6GB笔记本,就能用单图生成5秒、30 FPS共150帧的视频。


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


从古代仕女图到卡通形象,通通一键动起来!


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


相同的配置,还可以生成单图生成60s的共1800帧视频。


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星

不仅如此,作者还开源了功能完备的桌面级软件,提供GUI,使用非常简单。


在左侧上传图片,并在下方输入提示词,右侧就开始显示生成的视频及预览。


由于采用逐段落帧预测模型,视频会持续延长生成:


  • 每个段落会显示独立进度条。系统会实时预演下一段落的潜在空间效果。


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


a jellyfish dances in the sea(一只水母在海中起舞)


网友惊呼:这下视频生成要进入超超超低显存时代了,迈入大众GPU了!马上就去实测!


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


简单总结一下,FramePack的特点有:


  • 使用13B模型和6GB显存的笔记本GPU,能够以完整的30 FPS速率扩散(生成)数千帧。


  • 在单个8xA100/H100节点上,能够以64的批大小微调13B视频模型,适用于个人或实验室。


  • RTX 4090生成速度可达2.5秒/帧(未优化)或1.5秒/帧(使用teacache)。


  • 没有时间步长蒸馏。技术上是视频扩散,但使用体验上更接近图像扩散。


FramePack


FramePack是一种全新的神经网络结构:下一帧预测(next-frame prediction model 或next-frame-selection prediction model )。


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


新方法旨在攻克视频生成中的遗忘和漂移问题。


FramePack的设计理念十分巧妙,它根据输入帧的重要性进行压缩。


预测下一帧时,输入帧的重要性并不相同。


比如在人物跑步的视频里,离预测时刻越近的帧,对预测人物下一帧的动作和位置就越关键。


FramePack通过定义长度函数

ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


来确定每个帧的上下文长度,其中λ>1是压缩参数,L_f是每帧的基础上下文长度。


通过这个函数,越不重要的帧,上下文长度被压缩得越厉害。


经过压缩处理,总上下文长度会遵循几何级数变化:


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


当视频帧数T趋向于无穷大时,总上下文长度会收敛到固定值:


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


这意味着,无论输入视频多长,FramePack都能将总上下文长度控制在固定上限内,避免因输入帧过多导致计算量爆炸,有效解决了模型处理大量帧时的计算难题。


考虑到硬件对计算的优化偏好,论文中主要讨论λ=2的情况。


在实际应用中,FramePack还有一些细节要处理。比如针对不同压缩率的输入投影,使用独立的神经网络层参数能让学习过程更稳定。


当输入帧长度非常大时,FramePack提供了三种处理尾部帧的方式:


  • 可以直接删除尾部帧。也可以让每个尾部帧增加一个潜在像素来扩展上下文长度。或者对所有尾部帧进行全局平均池化,然后用最大的内核处理。


在实际测试中发现,这几种方式对视觉效果的影响相对较小。


另外,由于不同压缩内核编码的输入上下文长度不同,FramePack还需要进行RoPE对齐。


FramePack变体


为满足不同应用场景需求,提升视频生成质量,FramePack还有多种变体。


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


一种变体是重复和组合压缩级别,提高压缩率。


比如在图1-(b)中,采用4的幂次方序列,每个级别重复3次,这样能让帧宽度和高度的内核大小保持一致,使压缩更紧凑。


压缩也可以在时间维度上进行,如图1-(c)所示,使用2的幂次序列,在同一张量中编码多个帧,这种方式与DiT架构天然契合。


FramePack还创新了帧重要性的建模方式。


除了基于时间接近度判断重要性,在图1(d)中,给最旧的帧分配全长上下文,在需要强调初始信息的应用场景中,能更好地保留关键信息。


图1(e)将起始帧和结束帧视为同等重要,同时对中间帧应用更高的压缩。


在图像到视频生成任务中,这种方式很有效,因为用户提供的初始帧往往承载关键信息,赋予它们更高重要性可以提升最终生成视频的质量。


抗漂移采样


漂移一直是视频生成中的顽疾,FramePack提出的抗漂移采样方法为这一问题提供了新思路。


研究发现,漂移通常发生在模型仅依赖过去帧进行预测的因果采样过程中。


如果模型能获取未来帧的信息,哪怕只有一帧,就能有效避免漂移。基于这一发现,FramePack提出了双向上下文的抗漂移采样方法。


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


传统采样方法,如图2-(a)是按时间顺序迭代预测未来帧,而抗漂移采样则不同。


改进后的方法,如图2-(b),在第一次迭代时,同时生成起始和结束部分,后续迭代再填充中间的间隙。


这样一来,结束帧在一开始就被确定下来,后续生成的帧都朝着这个目标靠近,有效防止了漂移。


还有一种反向抗漂移采样方法,如图2-(c),这种方法在图像到视频生成任务中表现出色。


它将用户输入图像作为高质量的第一帧,然后按反向时间顺序生成后续帧,不断优化生成的帧以接近用户输入的第一帧,从而生成高质量的视频。


FramePack实力如何?


为了验证FramePack的性能,研究人员进行了大量消融实验。


FramePack基于Wan和HunyuanVideo两种基础模型,涵盖了文本到视频和图像到视频的生成结构。


数据集方面,遵循LTXVideo的数据集收集流程,收集了多种分辨率和质量水平的数据。


为全面评估FramePack的性能,实验采用了多种评估指标,包括多维度指标、漂移测量指标和人工评估。


多维度指标评估涵盖清晰度、美学、运动、动态、语义、解剖结构和身份等多个方面。


当视频发生漂移时,视频开头和结尾部分在各种质量指标上会出现明显差异。


作者提出了起止对比度


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


,其中V是测试视频,V_start代表前15%的帧,V_end代表最后15%的帧,M可以是运动分数、图像质量等任意质量指标。


该指标通过计算起始和结束部分质量指标的绝对差值,直观反映出漂移的严重程度,并且由于使用绝对差值,不受视频帧生成顺序的影响。


研究人员通过A/B测试收集用户偏好,每个消融架构会生成100个结果,A/B测试在不同的消融架构中随机分配,确保每个消融架构至少有100次评估。


最终,通过ELO-K32分数和相对排名反映用户对视频的喜好程度。


消融实验结果


在采样方法对比中,反向抗漂移采样表现最为突出。


它在7个评估指标中的5个上取得最佳成绩,并且在所有漂移指标上都表现优异。这充分证明了反向抗漂移采样方法在减少误差累积、提升视频质量方面的有效性。


从生成帧数的角度来看,人工评估显示,每段生成9帧的配置在ELO分数上,明显高于生成1帧或4帧的配置,说明生成9帧能给用户带来更好的视觉感知。


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


普通采样虽然在动态指标上获得最高分数,但这很可能是漂移效应导致的,并非真正的质量提升。


研究人员还发现,同一采样方法下,不同配置选项之间的差异相对较小且具有随机性。


这意味着采样方法的选择对整体性能差异的影响更为关键,而具体配置选项的微调对性能的影响相对有限。


与替代架构的比较


为全面评估FramePack的性能,研究人员将其与替代架构做了对比。


这些替代架构包括重复图像到视频、锚帧、因果注意力、噪声历史和历史引导等方法,


它们分别从不同角度尝试解决视频生成中的长视频生成、计算瓶颈和漂移等问题。


FramePack在多个方面表现出色。


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


FramePack在3个全局指标上取得最佳结果。漂移指标方面,更是全面领先,证明其解决漂移问题的有效性。


从人工评估的ELO分数来看,FramePack得分最高,表明在主观感受上,生成的视频质量更受认可。


FramePack为视频生成技术带来新突破。它通过独特的压缩结构和抗漂移采样方法,有效缓解了遗忘和漂移问题,提升了视频生成的质量和效率。


作者介绍


Lvmin Zhang


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


Lvmin Zhang是斯坦福大学计算机系的博士生,主要研究领域为计算机图形学和生成模型。


在今年的ICLR投稿中,经过rebuttal,他成功拿下最近几年的首个满分论文!


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星


在ICLR 2025满分论文中,作者介绍了一种扩散式光照编辑模型的训练方法


Lvmin Zhang还是ControlNet的作者,这是一种创新的神经网络架构,显著增强了预训练扩散模型的条件控制能力。


参考资料:


https://lllyasviel.github.io/frame_pack_gitpage/


文章来自于微信公众号 “新智元”,作者 :KingHZ 英智


ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星

关键词: AI , ControlNet , AI作图 , FramePack
AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

2
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0