
视觉Token无缝对齐LLMs词表!V²Flow:基于LLMs实现高保真自回归图像生成
视觉Token无缝对齐LLMs词表!V²Flow:基于LLMs实现高保真自回归图像生成视觉Token可以与LLMs词表无缝对齐了!
来自主题: AI技术研报
7158 点击 2025-04-03 15:48
视觉Token可以与LLMs词表无缝对齐了!
研究者提出了FAST,一种高效的动作Tokenizer。通过结合离散余弦变换(DCT)和字节对编码(BPE),FAST显著缩短了训练时间,并且能高效地学习和执行复杂任务,标志着机器人自回归Transformer训练的一个重要突破。
Sora、Genie等模型会都用到的Tokenizer,微软下手了—— 开源了一套全能的Video Tokenizer,名为VidTok。
tokenizer对于图像、视频生成的重要性值得重视。
在生成式模型的迅速发展中,Image Tokenization 扮演着一个很重要的角色,例如Diffusion依赖的VAE或者是Transformer依赖的VQGAN。这些Tokenizers会将图像编码至一个更为紧凑的隐空间(latent space),使得生成高分辨率图像更有效率。
技术大神卡帕西离职OpenAI以后,营业可谓相当积极啊。