
三问“中国AI生成物可版权性第二案”
三问“中国AI生成物可版权性第二案”还记得北互SD(Stable Diffusion,一种AI绘画生成工具)第一案吗? 现在第二案来了。
还记得北互SD(Stable Diffusion,一种AI绘画生成工具)第一案吗? 现在第二案来了。
如今,机器人学习最大的瓶颈是缺乏数据。与图片和文字相比,机器人的学习数据非常稀少。目前机器人学科的主流方向是通过扩大真实世界中的数据收集来尝试实现通用具身智能,但是和其他的基础模型,比如初版的 StableDiffusion 相比,即使是 pi 的数据都会少七八个数量级。
今日凌晨,Stability AI 发布了 Stable Diffusion 3.5 的提示指南。该指南提供了 Stable Diffusion 3.5 的实用提示技巧,让使用者能够快速准确地完善图像概念,更好地使用 Stable Diffusion 3.5 这一在可定制性、高效性能、多样化输出和多功能风格方面均表现出色的模型。
扩散模型(Diffusion Models, DMs)已经成为文本到图像生成领域的核心技术之一。凭借其卓越的性能,这些模型可以生成高质量的图像,广泛应用于各类创作场景,如艺术设计、广告生成等。
过去 24 小时内发布或更新的 AI 服务包括但不限于 Stable Diffusion 3.5 最强模型全家桶、能操作用户电脑的 Claude 3.5 Sonnet、Genmo 开源的可商用的 Mochi 1 DiT、Runway 推出的一款生成式角色表演工具…… 以及我们这里要介绍 Ideogram Canvas,一款基于 AI 的无限创意画板服务,可用于组织、生成、编辑和组合图像。
就在刚刚,Stability AI发布了自家最强的模型Stable Diffusion 3.5,而且是一个全家桶,包含三个版本。
打造更强大文生图模型新思路有—— 面对Flux、stable diffusion、Omost等爆火模型,有人开始主打“集各家所长”。
本期AGI路线图中关键节点:DiT架构、Stable Diffusion 3.0、Flux.1、ControlNet、1024×1024分辨率、医学影像、英伟达Eagle模型、谷歌Med-Gemini系列模型、GPT-4o端到端、Meta Transfusion模型。
阿里放大招了,就在刚刚,通义万相AI视频功能正式开放。5秒的视频,在手机端APP不限次数免费用!连今晚音乐节的MV都是AI直出。试用后我们惊喜地发现,更懂中国风的AI视频,它真的来了。
这篇文章是笔者之前AI手写连笔书法生成的一个工作,是联合中央美院几位非常知名的老师完成的。当时提出的思路相对简单,主要结构是基于对抗生成网络(GAN)。虽然方法在大模型横行今天可能已经不算太新颖,但近期一些基于diffusion的AIGC工作还是关注到了这篇文章,并产生了一些启发。笔者认为这些灵感仍具有一定价值,因此在这里做个分享。由于一些公式和指标不太友好,为了不影响阅读故省略。