众所周知,开发顶级的文生图(T2I)模型需要大量资源,因此资源有限的个人研究者基本都不可能承担得起,这也成为了 AIGC(人工智能内容生成)社区创新的一大阻碍。同时随着时间的推移,AIGC 社区又能获得持续更新的、更高质量的数据集和更先进的算法。
众所周知,开发顶级的文生图(T2I)模型需要大量资源,因此资源有限的个人研究者基本都不可能承担得起,这也成为了 AIGC(人工智能内容生成)社区创新的一大阻碍。同时随着时间的推移,AIGC 社区又能获得持续更新的、更高质量的数据集和更先进的算法。
随着 Sora 的爆火,人们看到了 AI 视频生成的巨大潜力,对这一领域的关注度也越来越高。
根据 OpenAI 披露的技术报告,Sora 的核心技术点之一是将视觉数据转化为 patch 的统一表征形式,并通过 Transformer 和扩散模型结合,展现了卓越的扩展(scale)特性。
Reddit和OpenAI及谷歌,竟有着如此错综复杂的关系?最近,Reddit和谷歌双双官宣了一项6000万美元的合作协议,Reddit的数据将帮助谷歌训练AI模型。巧的是,Altman正是Reddit股东之一。
2023 年年底,很多人都预测,未来一年将是视频生成快速发展的一年。但出人意料的是,农历春节刚过,OpenAI 就扔出了一个重磅炸弹 —— 能生成 1 分钟流畅、逼真视频的 Sora。
误会了误会了,被传为“Sora作者之一”的上交大校友谢赛宁,本人紧急辟谣。
提到视频生成,很多人首先想到的可能是 Gen-2、Pika Labs。但刚刚,Meta 宣布,他们的视频生成效果超过了这两家,而且编辑起来还更加灵活。
根据一篇推特文章报道,社交媒体巨头 Meta 推出了用于内容编辑和生成的最新人工智能 (AI) 模型。 该公司正在推出两种人工智能驱动的生成模型,一个是 Emu Video,利用 Meta 之前的 Emu 模型,能够根据文本和图像输入生成视频剪辑;另一个是模型 Emu Edit 专注于图像处理,有望提高图像编辑的精度。
字节正在跑步AI化,产品侧刚刚宣布对外测试AI对话产品豆包,又接连一口气在Github上发布两个AI视频项目。一个主多模态动画生成,另一个则专注文本导向的视频编辑。