# 热门搜索 #
搜索
AI配音版Sora视频刷屏!绝美逼真音效打破「无声电影」,或颠覆万亿美元产业
9535点击    2024-02-20 11:02
Sora突破之后的突破又来了!语音初创公司ElevenLabs放大招,直接用AI给Sora经典视频完成了配音。网友惊呼离AI完全生成电影又近了一步。


虽然一些人不想承认,但AI视频模型Sora的开年王炸,确实给影视行业带来了颠覆性的影响!


OpenAI Sora各种逼真视频的生成足以让人惊掉下巴,有网友却表示,现在的Sora视频更像是「无声电影」。



如果再给它们配上音效,现实可就真的就不存在了......


就在今天,AI语音克隆初创公司ElevenLabs给经典的Sora演示视频,完成了绝美的配音。



听过之后,让人简直颅内高潮。


从建筑物到鲨鱼无缝切换视频中,可以听到小鸟叽喳,狗在狂吠,不同动物叫声糅杂在一起,非常空灵。



汽车卯足劲向前行驶的声音,偶尔还能听到石子与轮胎的摩擦音。



还有这欢乐喜庆的中国舞龙表演,敲锣打鼓人声鼎沸,好不热闹。



地铁在轨道中咔哒咔哒行驶,还伴有空气被压缩发出隆~隆~的声音,让人有种耳塞的赶脚。



机器人的专属配音,直接将赛博风拉满,听过后就知道是那种「熟悉的味道」。



东京街头上,靓丽的女人提着手提包在路边行走,高跟鞋哒哒哒与步伐完全吻合。还有那汽车鸣笛,路人说话的声音体现的淋漓尽致。



惊涛骇浪撞击着岩石,海鸥在高空中飞翔,叫声高亢嘹亮。



老奶奶开心地吹灭蜡烛,笑容洋溢在每个人的脸上,片刻美好,只希望时间能够按下暂停键。



三只可爱的金毛在雪地中嬉戏打闹,兴奋地汪汪大叫。



更令人震撼的是,下面这个视频直接配出了「纪录片」的高级感。



在片尾,ElevenLabs表示,以上所有的配音全部由AI生成,没有一点编辑痕迹。



网友惊呼,「这简直离完全由AI生成电影又近了一步」!



堪称突破后的突破!



需要补充的是,ElevenLabs的配音不是看视频直接生成的,还是需要prompt之后才能完成。



不过,这种梦幻联动确实让人眼前一亮,或许OpenAI的下一步就是进一步扩展多模态能力,将视频、音频同时呈现。


到时候,被革命的不仅仅是影视行业,甚至是配音、游戏领域,也要发生翻天覆地的变化!



向量空间中建模,让LLM理解隐式物理规则


那么,视频到音频的精准映射,该如何突破呢?


对此,英伟达高级科学家Jim Fan做了一个比较全面的分析:


为了精确配合视频内容,配音不仅需要文本信息,视频像素也至关重要。


若想精确地实现「视频-音频」的无缝匹配,还需要LLM在其潜在空间内理解一些「隐式的物理原理」。


那么,一个端到端的Transformer需要掌握以下能力,才能正确模拟声波:


- 确定每个物体的种类、材质和空间位置。


- 识别物体间的复杂互动,比如棍子是敲在木头、金属还是鼓面?敲击的速度如何?


- 辨识场景环境,是餐厅、空间站、黄石国家公园还是日本神社?


- 从模型的内存中提取物体及其环境的典型声音模式。


- 应用「软性」的、已学习的物理规则,组合并调整声音模式的参数,或者即时创造全新的声音,类似于游戏引擎中的「程序化音频」。


- 对于复杂场景,模型需要根据物体的空间位置,将多条声音轨道叠加起来。


所有这些能力都不是通过显式模块实现的!它们是通过大量时间对齐的视频和音频配对,通过梯度下降法学习得来的。


模型的注意力层将利用其权重来实现这些功能,以达到扩散的目标。



目前,我们还没有创造出如此高质量的「AI音频引擎」。


Jim Fan挖出了5年前来自MIT团队的一项关于「The Sound of Pixels」的研究,或许从这里可以找到一些灵感。



这个项目中,研究人员提出了像素级声源定位系统PixelPlayer。


通过结合声音和图像信息,AI能够以无监督的方式从图像或声音中识别目标、定位图像中的目标,甚至分离目标视频中的声源。


当你给定一个输入视频,PixelPlayer可以联合地将配音分离为目标组件,以及在图像帧上定位目标组件。


值得一提的是,它允许在视频的「每个像素」上定位声源。



具体来说,研究人员利用了图像和声音的自然同时性,来学习图像声源定位模型。


PixelPlayer学习了近60个小时的音乐演奏,包括独奏和二重奏。它以声音信号作为输入,并预测和视频中空间定位对应的声源信号。


在具体训练过程中,作者还利用了自然声音的可加性来生成视频,其中构成声源是已知的。与此同时,还通过混合声源来训练模型生成声源。



这仅是视觉-音频联合学习(Audio-Visual Learning)研究中的一瞥,过去在这一方向领域的研究也是数不胜数。


比如,在ECCV 2018被接收的Oral论文「Learning to Separate Object Sounds by Watching Unlabeled Video」,同样使用了视觉信息指导声源分离。



论文地址:https://arxiv.org/pdf/1804.01665.pdf


比起MIT的那项研究,这篇论文除了在音乐,还在自然声上进行了实验。


以往的研究,都将为未来视频-音频完成精准映射进一步铺路。


正如这几天被人们炒的火热的Sora模型,背后架构采用的是Diffusion Transformer一样,正是基于前辈们的成果。


话又说回来,网友发出疑问,「那得需要多少年,LLM才能完全遵守物理达则中的所有可能参照系」?



别慌!


有没有可能OpenAI早已接近,甚至是实现AGI,只不过不想让我们知道?




估值11亿刀,前谷歌大佬创AI语音初创公司


前文提到的ElevenLabs,是由前谷歌机器学习工程师Piotr Dąbkowski和前Palantir部署策略师Mateusz Staniszewski,在2022年共同创立的一家利用AI实现语音合成与文本转语音的公司。


这两位创始人都来自波兰,他们在看到美国电影不尽人意的配音后,萌生了创建ElevenLabs的想法。


尽管ElevenLabs没有固定办公地点并且仅有15名员工,但它却在2023年6月以约1亿美元估值成功筹集到了1900万美元的 A 轮融资。


到了2024年1月22日,ElevenLabs又在B轮融资中筹集了额外的8000万美元,使估值达到了11亿美元。同时,公司还宣布推出了一系列新产品,包括声音市场、AI 配音工作室和移动应用等。



自去年1月发布beta版平台以来,ElevenLabs便受到了创作者们的热捧。


2023年3月,喜剧演员Drew Carey通过ElevenLabs的声音克隆工具,在他的广播节目《Friday Night Freakout》中复刻了自己的声音。


2023年3月,流媒体自动化服务Super-Hi-Fi携手ElevenLabs,利用后者的软件和ChatGPT生成的提示词,为其虚拟DJ配音,推出了全自动的「AI Radio」广播服务。


6月13日,Storytel宣布与ElevenLabs达成独家合作,后者将专门为Storytel的核心市场量身定制声音,制作AI叙述的有声读物。


在游戏领域,ElevenLabs正与瑞典的Paradox Interactive和英国的Magicave等开发商进行合作。


ElevenLabs的技术还被用于多语言视频配音,帮助内容创作者准确复制几乎任何语言的任何口音。此外,明星粉丝也通过ElevenLabs使用他们偶像的声音创作鼓舞人心的信息。


OpenAI下一次颠覆,又是万亿美元产业?


还记得ChatGPT诞生之后,OpenAI随后为其「联网」,并发布了全新的插件功能。


那些初创公司们紧跟着,上线了一大波插件应用。



没想到,从3月发布截止到11月,仅仅半年多的时间,一些初创公司却遭到「屠杀」。


在首届开发者大会上,Sam Altman首次公布定制GPTs,以及即将上线的GPT Store。


可以说,基于OpenAI接口构建创业公司,产品忽然就失去了意义。许多初创公司的产品,已经没有了护城河。


当时有网友便发问,OpenAI入局智能体后,全球十家头部Agent初创公司接下来该做什么?



而现在,首个AI视频模型Sora的横空出世,已经让许多影视行业的人,倍感恐慌。



有网友表示,「Sora虽然有一些不完美之处(可以检测出来),例如从物理效果可以看出它是人工合成的。但是,它将会革命性地改变许多行业。


想象一下可以生成动态的、个性化的广告视频进行精准定位,这将是一个万亿美元的产业」!



对于Sora的应用前景,有望在未来成为视频制作领域的重要工具。


等OpenAI发布能够视频-音频大模型之后,对于如上专门配音的初创公司ElevenLabs来说,都将是一场「灾难」。


「我认为大多数人都不能理解,这对不久的将来的生活意味着什么」。



未来,无论是电影、电视剧、广告,甚至游戏等领域,高质量视频创作,都将被AI入侵。


在那一天还没到来之前,想想我们还能做些什么?


参考资料:

https://twitter.com/elevenlabsio/status/1759240084342059260

https://twitter.com/DrJimFan/status/1759287778268025177


文章来自于微信公众号 “新智元”,作者 “新智元”


关键词: AI配音版 , Sora , ElevenLabs , LLM
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
声音克隆

【开源免费】MockingBird是一个5秒钟即可克隆你的声音的AI项目。

项目地址:https://github.com/babysor/MockingBird

2
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

3
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

4
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0