根据一篇推特文章报道,社交媒体巨头 Meta 推出了用于内容编辑和生成的最新人工智能 (AI) 模型。 该公司正在推出两种人工智能驱动的生成模型,一个是 Emu Video,利用 Meta 之前的 Emu 模型,能够根据文本和图像输入生成视频剪辑;另一个是模型 Emu Edit 专注于图像处理,有望提高图像编辑的精度。
这些模型仍处于研究阶段,但 Meta 表示,其测试结果反映,这2个工具可以为创作者、艺术家和动画师提供潜在的创作可能。
根据 Meta 的博客文章,Emu Video 采用“分解”方法进行训练,将训练过程分为两个步骤,以使模型能够响应不同的输入:
“我们将这个过程分为两个步骤:首先,根据文本提示生成图像,然后根据文本和生成的图像生成视频。这种视频生成的“分解”或分割方法使我们能够有效地训练视频生成模型。”
同一模型可以根据文本提示对图像进行“动画”处理。根据 Meta 的说法,Emu Video 不依赖“深度级联模型”,而是仅使用两个扩散模型以每秒 16 帧的速度生成 512x512 的四秒长视频。
Emu Edit 专注于图像处理,将允许用户删除或添加图像背景、执行颜色和几何变换以及图像的本地和全局编辑。
“我们认为,首要目标不应该只是制作一个‘可信’的图像。相反,模型应该专注于精确地仅更改与编辑请求相关的像素,”Meta 指出,并声称其模型能够精确地遵循指令:
“例如,当添加文本‘Aloha!’时 对于棒球帽来说,帽子本身应该保持不变。”
Meta 使用计算机视觉任务训练 Emu Edit,数据集包含 1000 万张合成图像,每张图像都有一个输入图像和任务描述,以及目标输出图像。该公司表示:“我们相信这是迄今为止同类中最大的数据集。”
Meta 首席执行官马克·扎克伯格 (Mark Zuckerberg) 在9 月份的Meta Connect 活动中透露, Meta 新发布的鸸鹋模型使用了 11 亿条数据进行训练,其中包括用户在 Facebook 和 Instagram 上分享的照片和说明文字。
监管机构正在密切审查 Meta 的人工智能工具,导致这家科技公司采取谨慎的部署方式。最近,Meta透露,它将不允许政治竞选活动和广告商使用其人工智能工具在 Facebook 和 Instagram 上制作广告。然而,该平台的一般广告规则不包括任何专门针对人工智能的规则。
文章来自 “ cointelegraph ”