
无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25
无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25Diffusion Transformer模型模型通过token粒度的缓存方法,实现了图像和视频生成模型上无需训练的两倍以上的加速。
来自主题: AI技术研报
5855 点击 2025-02-28 15:06
Diffusion Transformer模型模型通过token粒度的缓存方法,实现了图像和视频生成模型上无需训练的两倍以上的加速。
36氪获悉,Bridgewise LTD(以下简称「Bridgewise」)宣布完成数千万美元的战略融资,本轮融资由SIX集团、Group 11和L4 Venture Builder等战略投资者主导。本轮融资的资金主要用于AI平台的研发以及全球市场的扩张。
AI大模型驱动产业变革,机遇和挑战并存。
在这个信息爆炸的时代,我们每天都在被海量的数据淹没。如何从这些数据中挖掘出有价值的信息,已经成为了一个亟待解决的问题。今天,我们要给大家带来一个震撼人心的消息——AI界的两大神器,Hebbia和Wiseflow,正在改变我们获取和处理信息的方式。
Open-Sora-Plan迎来又一次升级。新的Open-Sora-Plan v1.3.0版本引入了五个新特性:性能更强、成本更低的WFVAE;Prompt refiner;高质量数据清洗策略;全新稀疏注意力的DiT,以及动态分辨率、动态时长的支持。
AI 播客知识管理应用 Podwise 的 ARR 年收入突破了 12000 美元