
360AI推出DiT架构下"省钱版"ControlNet, 参数量骤减85%性能达到SOTA!
360AI推出DiT架构下"省钱版"ControlNet, 参数量骤减85%性能达到SOTA!现有的可控Diffusion Transformer方法,虽然在推进文本到图像和视频生成方面取得了显著进展,但也带来了大量的参数和计算开销。
现有的可控Diffusion Transformer方法,虽然在推进文本到图像和视频生成方面取得了显著进展,但也带来了大量的参数和计算开销。
我想在沙漠里建一个室内滑雪场。DeepSeek:可以,详细计划如下。这是阿里国际站首个AI搜索引擎Accio接入DeepSeek之后的演示首秀。即便是这么离谱的想法,它还是在短短30秒内搜索了大量资料、反复推理,给出了一份有理有据的商业计划。
GRPO(Group Relative Policy Optimization)是 DeepSeek-R1 成功的基础技术之一,我们之前也多次报道过该技术,比如《DeepSeek 用的 GRPO 占用大量内存?有人给出了些破解方法》。
近年来,大型语言模型(LLMs)在代码相关的任务上展现了惊人的表现,各种代码大模型层出不穷。这些成功的案例表明,在大规模代码数据上进行预训练可以显著提升模型的核心编程能力。
这家初创公司希望让大公司争夺大众市场,而自己专注于吸引行业专业人士,并与 Lionsgate 达成一笔里程碑式的交易。
Diffusion Transformer模型模型通过token粒度的缓存方法,实现了图像和视频生成模型上无需训练的两倍以上的加速。
这位曾用代码构建童话世界的工程师,被困在了由 AI 工具引发的一场噩梦里。
当DeepSeek引发业界震动时,元始智能创始人彭博正专注于一个更宏大的愿景。
当传统音乐制作仍被繁复的乐理知识与高昂的录音成本筑起高墙,一群理想主义者正用AI重新书写规则。从乐队主唱到AI音乐创业者,郭靖(Joe)的十年探索,恰是音乐行业从“精英创作”向“全民表达”演进的时代缩影——他曾因工具掣肘埋没作品,却在自学编程的硅谷岁月里顿悟:技术不该是艺术的门槛,而应是创作者的翅膀。
进入到 2025 年,视频生成(尤其是基于扩散模型)领域还在不断地「推陈出新」,各种文生视频、图生视频模型展现出了酷炫的效果。其中,长视频生成一直是现有视频扩散的痛点。