ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
黄仁勋与扎克伯格最新实录:Meta的开源哲学是从哪来的?
8184点击    2024-07-30 16:02

自 1974 年在科罗拉多州博尔德市首次举办以来,SIGGRAPH一直是展示计算机图形领域开创性研究的一个主要平台。


北京时间 7 月 30 日早上 6 点,NVIDIA 创始人兼 CEO 黄仁勋和 Meta 创始人兼 CEO 马克·扎克伯格在 SIGGRAPH 2024 上就 AI 领域新突破进行炉边谈话。



以下是黄仁勋与扎克伯格炉边对话实录全文:


 生成式AI及其对Meta产品的影响


黄仁勋: 你能相信吗?他是现代计算的先驱之一,我必须邀请他参加Siggraph。马克,欢迎你的加入,很高兴你能来。这里是Siggraph,你知道的,参会者中有90%是博士。Siggraph的一大亮点是,它展示了计算机图形、图像处理、人工智能和机器学习的结合。多年来,一些公司在这里展示了令人惊叹的技术,包括Disney、Pixar和Epic Games等。当然,也不得不提英伟达,我们今年在这里提交了20篇关于人工智能与仿真交叉领域的论文。我们正在利用人工智能进行大规模、高速度的模拟,例如使用可微分物理来创建模拟环境,为人工智能生成合成数据。因此,这两个领域真正地融合在一起,为我们在Meta所做的工作感到自豪。Meta,你们在AI领域的成就令人赞叹。当媒体报道过去几年Meta如何投入AI领域时,我们都在使用来自Meta的PyTorch。你们在计算机视觉、语言模型、实时翻译等方面的开创性工作非常出色。我的第一个问题是,你如何看待当今生成式人工智能在广告领域的进步,以及你们如何利用这些进展来增强业务运营或引入新功能?


扎克伯格:是的,这确实是一个重大的话题。我很高兴能来到这里。Meta已经在Siggraph领域工作了8年了。虽然相比之下你们有28年的历史,但我对我们所取得的进展感到非常兴奋。例如,在2018年,我们展示了早期虚拟现实和混合现实头显中的手部追踪技术,以及我们在编解码器化身领域取得的进展,我们希望通过消费者级头显实现照片级逼真的化身。我们还完成了许多关于显示系统的工作,这将使混合现实头显更加轻便,比如采用先进的光学堆栈和显示系统。我非常兴奋能来这里讨论元宇宙和AI的进展。


在2018年,我们展示了我们在虚拟现实和混合现实技术中的一些早期手部跟踪工作。我们非常兴奋地完成了许多显示系统的研究,这些研究使得混合现实头显变得非常轻便,采用了先进的光学堆栈和显示系统。


我们在这个领域已经工作了一段时间,所有这些围绕生成式AI的工作构成了一场有趣的革命。我们已经开发了一系列大型产品,例如Instagram和Facebook的推荐系统,这些系统在过去几年里发生了显著的变化,现在它们更多地依赖于推荐不同的公共内容。随着生成式AI的加入,我们迅速进入了一个新领域,这将使我们能够创造全新的内容。


 推荐系统和生成式AI的进展


黄仁勋: 但我认为很少有人意识到,我们正在运行世界上最大的计算系统之一,即推荐系统。


扎克伯格: 是的,这是一条完全不同的道路。这并不是人们通常所说的通用AI,而是越来越普遍地建立在所有变压器架构上的。


黄仁勋: 将非结构化数据嵌入到特征中,这是我们一直在推动的质量改进的重要因素之一。


扎克伯格: 是的,过去,我们有不同的模型来处理不同类型的内容,比如用于推荐短视频的模型和用于推荐长视频的模型。但现在,我们正在努力创建更通用的推荐模型,这将使系统能够展示任何符合要求的内容,从而提高效率。


这只是我们所做的核心部分将如何演变的一个例子。这些技术不仅能够展示你今天想看的有趣内容,还能帮助你长期建立你的网络,识别你可能想关注的人或账户。


黄仁勋: 这些多模态网络在识别模式和弱信号方面表现得更好。AI在你们公司的深入应用非常有趣。你们已经建立了GPU基础设施,这对运行大型推荐系统非常重要。


扎克伯格: 是的,这已经发展了20年。现在的AI不仅是基于术语的简单交互,而是包含了一个决策树,我们可以在脑海中模拟不同的决策结果。这就是我们对创造者AI的愿景,它将极大地促进我们的创新和内容创作。


我们希望授权所有使用我们产品的人,无论是平台上的创作者还是小企业,他们都可以创建自己的AI代理,以便更好地与客户互动和销售。我们称这套工具为AI工作室,它将使每个创作者都能构建自己的AI版本,作为他们社区可以与之互动的代理或助手。


如果你是一个创造者,你会希望更多地参与到你的社区中,但时间是有限的。通过创造这些代理人,我们可以在有限的时间内做更多的事情,这就像你在社交系统上发布内容的一种新方式,允许代理人帮助完成这些任务。


同样地,我认为将来会有这样一种情况:人们可以为各种不同的用途创建自己的AI代理。有些是定制的、实用的,他们需要进行微调和训练;有些则是为了娱乐,或者仅仅是为了有趣,带有一点傻气或幽默的态度。虽然我们可能不会将元AI定位为助手,但我认为人们对查看和互动这些代理非常感兴趣。我们看到一个有趣的用例是人们使用这些代理来应对复杂的社交情景,无论是职业上的,如何获得晋升或加薪的咨询,还是私人生活中的矛盾和冲突。


扎克伯格: 我们希望不只有一种大型AI供人们互动。如果有多样性,我相信世界会更加美好、有趣。


黄仁勋: 如果你是艺术家,你有自己的风格,你可以微调一个AI模型来反映这种风格。你可以要求它按照你的艺术风格创作,或者给它一件艺术品作为灵感。这将是非常酷的事情,未来每个网站或餐厅都可能拥有这样的AI。


扎克伯格: 就像未来每个企业都有电子邮件地址、网站和社交媒体账户一样,我认为每个企业都将拥有一个AI代理来与客户互动。这将解决一些历史上非常困难的问题,比如客户支持通常与销售分开运作,但实际上应该是一体化的。


黄仁勋: 你正在构建这些东西,我是你们的一个客户。


扎克伯格: 作为CEO,你必须处理很多事情,但当你在组织中建立概念时,通常组织是分开的,因为它们针对不同的目标进行了优化。但理想的情况是,作为顾客,你不需要关心不同的渠道。如果你买的东西有问题,你只希望有一个地方可以解决问题并以不同方式与企业互动。这同样适用于创作者。


黄仁勋: 这就是与客户的互动,尤其是如果他们的反馈能使你的公司变得更好。所有的AI互动都将捕获机构知识,这些知识可以用于分析并改进AI。


扎克伯格: 是的,这个商业模式将更加整合,我们还处于相当早期的alpha阶段。但AI工作室允许人们创建他们的自定义代理和不同的东西,并开始使用这些工具,我对此感到非常兴奋。


黄仁勋: 我可以使用AI工作室来微调我的图像集合吗?


扎克伯格: 是的,我们将实现这一点。


黄仁勋: 然后我可以加载我写的所有东西,这样AI就可以使用这些信息作为我的数据库吗?


扎克伯格: 是的,基本上就是这样。


黄仁勋: 每次我回到它,它都会再次加载它的记忆,就像我们的谈话从未中断过一样。


扎克伯格: 正如任何产品一样,随着时间的推移它会变得更好。有了训练工具,它的表现会更好。这不仅仅是关于你想让它说什么,通常创作者和企业也有他们想要避免的话题。


这不仅仅是文本。随着时间的推移,我们希望能够通过视频与代理人交流。我认为我们很快就能实现这一点。即使基础模型的进展现在停止了,我认为我们应该为行业进行五年的产品创新,找出如何最有效地使用到目前为止建造的所有东西。


黄仁勋: 我喜欢你的愿景,每个人都可以拥有AI,每个企业都可以在我们的公司拥有AI。我希望每个工程师和每个软件开发人员都拥有一个AI。我喜欢你的愿景是,你相信每个人和每个公司都应该能够制造自己的AI。所以当你开源Llama时,你实际上是开源的。我觉得那很棒。顺便说一句,我认为Llama2.1可能是去年AI领域最大的事件。及其原因。


扎克伯格: 我以为是H-100,但你知道的。


黄仁勋: 这是一个鸡还是蛋的问题。哪个先出现。


扎克伯格: H-100。是的,Llama2实际上不是H-100。


黄仁勋: 是的,这个100,谢谢。我之所以说这是最大的事件,是因为它激活了每个行业的每个企业。突然间,每个医疗保健公司都在建立AI系统。每家公司都在发展AI。无论是大公司、小公司还是初创公司,都在投入到AI的建设中。这使得每个研究人员都能够重新接触AI,因为他们有一个起点可以做一些事情。

 

 Meta的开源哲学从何而来?


黄仁勋: 现在3.1版本已经推出了。我们一起合作部署3.1版本,正在将其推向全球企业,这种兴奋已经超出了预期。我认为它将使各种应用成为可能。但是请告诉我你的开源哲学是从何而来?你知道,你开源了PyTorch,现在它是AI框架的主流。现在你已经开源了LLaMA 3.1,围绕它建立了一个完整的生态系统。我认为这很棒,但这一切的起源是什么?



扎克伯格: 是的,这方面有很多历史。随着时间的推移,我们已经做了很多开源工作。部分原因是,坦率地说,我们是在其他一些科技公司之后开始建设像分布式计算基础设施和数据中心这样的东西。而且正因为如此,当我们建造这些东西的时候,它已经不再是一个竞争优势。所以我们就想,不如开放它,然后我们可以从周围的生态系统中受益。因此我们有很多这样的项目。我认为开放计算是最大的挑战之一,我们进行了服务器设计、网络设计,最终进行了数据中心设计并发布了所有这些。通过使这成为行业标准,所有供应链都围绕它进行组织,这为每个人节省了大量金钱。


黄仁勋: 嗯,开放计算也是使英伟达HGX成为可能的原因,因为我们也为数据中心设计。这种方法确实奏效了。


扎克伯格: 适用于每个数据中心。这是一段非常棒的经历。我们已经使用了许多基础设施工具,比如React和PyTorch。所以当我们开发LLaMA时,我们也采用了类似的方法。对于AI模型,我认为有几种方式来看待这个问题。在公司的过去20年里,建造东西真的很有趣。其中最困难的事情之一就是必须通过竞争对手的移动平台来定位我们的应用程序。所以,一方面,移动平台对行业来说是一个巨大的福音。这很棒。但另一方面,必须通过竞争对手交付产品是具有挑战性的。



所以当你看到这几代计算技术时,存在着巨大的时代偏见,每个人都只关注移动设备并认为,因为苹果设定了条款。虽然技术上有更多的Android手机,但苹果在市场和所有利润上基本上拥有主导地位。所以我希望在下一代计算中,我们能回到一个开放的生态系统胜出的时代。总会有封闭和开放的系统共存,这有其原因。对双方都有好处。我不是极端主义者,我们做封闭源代码的东西。但我认为,对于整个行业正在构建的计算平台来说,如果软件特别是开放的,那么它就具有很大的价值。


对于LLaMA的AI以及我们在AR和VR方面的工作,我们基本上是在制作一个开放的操作系统,类似于Android或Windows。这将使我们能够与许多不同的硬件公司合作,制造各种类型的设备,并基本上将生态系统恢复到一个开放的水平。我非常乐观地认为,在下一代中,开放的系统将会特别成功。


你知道,我只是想确保我们能够获取并构建我们将来要建立的基础技术。有时你被告知,不,你不能通过平台提供商来构建,我只是想,不,为下一代构建,我们将确保这一点。


黄仁勋: 它的发展是一个巨大的传播机会。


扎克伯格: 是的,抱歉,我有点激动。


黄仁勋: 抱歉,我发出了哔哔声。


扎克伯格: 我们做得很好,大概20分钟,但是谈到封闭平台,我会很生气。


黄仁勋: 看,这太棒了。我认为这是一个伟大的世界,有人致力于建造最好的AI,无论他们如何建造它,他们制造它,他们向世界提供它。然后,如果你想建立自己的AI,你仍然可以这样做。使用AI的能力是完全正确的。我不想自己做这件夹克。我更喜欢让这件夹克为我做。开源对我来说并不是唯一重要的,但我认为你可以拥有出色的服务,令人难以置信的服务,以及开放的服务和能力,我们基本上拥有整个光谱。你在LLaMA 3.1上做的事情真的很棒,你有4B和5B参数的模型,还有70B参数的模型,可以用来进行数据合成,使用较大的模型来教授这个模型。尽管较大的模型更加普遍,但它们不那么脆弱,你仍然可以构建较小的模型,以适应特定的操作领域或操作成本。你见过LLaMA Guard吗?我认为LLaMA Guard的设计非常出色。现在你建立一个模型的方式是透明的,你要奉献它,并且有一个世界级的安全团队和道德团队,你可以以这样一种方式建立它,每个人都知道它是正确建立的。所以我真的很喜欢它的这一部分。


扎克伯格: 是的,我把这个想法偏离了轨道。你知道,我确实认为在哪里有这种对齐,我们正在建立它,因为我们想要这个东西存在,我们想要把它从某种封闭的模型中切断。这不仅仅是一个你可以构建的软件,你需要一个生态系统


 人们想要更小的模型


黄仁勋: 所以你知道,我是一个非常重要的老年人,但我很敏捷。这就是CEO必须做的事情。我认识到了一件重要的事情:LLaMA真的很重要。


我们建立了一个概念,将一个AI工厂称为AI铸造厂,这样我们就可以帮助每个人建造他们自己的AI。很多人都有建造AI的愿望,因为一旦他们将其融入他们的数据飞轮中,这就是他们公司的机构知识被编码并嵌入到AI中的方式。开源允许他们这样做,但他们真的不知道如何将整个系统转化为AI。所以我们创造了这个叫做AI铸造厂的东西,我们提供工具和专业知识。我们有能力帮助他们将整个事情变成一个AI服务。当我们完成后,他们就拥有了它。它的输出就是我们所说的Nim,这个神经微型英伟达推理微服务。他们只需下载它,然后在任何他们喜欢的地方运行它,包括在本地。我们拥有一个完整的生态系统,由来自OEM的合作伙伴组成,他们可以将Nims运营到GSIs,我们与之合作创建基于LLaMA的Nims和管道。现在我们正在帮助世界各地的企业做到这一点。这真的是一件非常令人兴奋的事情。这实际上都是由LLaMA引发的。


扎克伯格: 是的,我认为帮助人们从大型模型中提炼出自己的模型的能力将是一个非常有价值的新事物,因为至少我不认为会有一个主要的AI代理,每个人都会与之交流。它不会处于同一水平。我不认为会有一个每个人都使用的模型。


黄仁勋: 我们有一个设计AI的芯片,AI芯片设计AI,我们有一个编写代码的AI软件。我们的AI软件可以理解各种编程语言,因为我们用这些语言编码了各种东西。我们有一个软件AI可以理解Verilog,并帮助我们进行硬件设计。我们还有一个软件AI可以理解我们的错误数据库,知道如何分类错误并将其发送给正确的工程师。这些AI中的每一个都经过了微调,因此我们微调它们,并对其进行保护。比如,如果我们有一个芯片设计AI,我们不希望它涉及政治、宗教等话题,所以我们对其进行了限制。因此,我认为每个公司都会为他们的每个功能构建专门的AI,并且他们需要帮助才能做到这一点。


扎克伯格: 是的,我的意思是,未来的一个大问题是,人们在多大程度上只是使用更大、更复杂的模型,而不是仅仅训练他们自己的模型以用于他们的用途?至少我敢打赌,它们将只是不同模型的大量扩散。


黄仁勋: 我们使用最大的模型。原因是因为我们的工程师们的时间仍然非常宝贵。因此,我们现在得到了405B参数模型的性能优化。如你所知,405B参数模型无法适应任何单一的GPU,无论它有多大。这就是为什么NVLink性能非常重要。


我们每个GPU都通过一个叫做NVLink的非阻塞开关连接。例如,在HGX系统中,有两个这样的开关。我们使所有这些GPU能够协同工作并高效运行。405B参数模型确实在执行时需要这种架构。我们这样做的原因是因为工程师的时间对我们非常宝贵。你知道,我们想要使用最好的模型,实际上它的成本效益只增加了几分钱,谁在乎呢?因此,我们只想确保向他们呈现最佳质量的结果。


扎克伯格: 是啊,我的意思是,四个或五个,我认为大约是推断GPT-4o模型成本的一半。所以在那个层面上,它已经相当不错了。但是,我的意思是,我认为人们正在设备上做事情或者想要更小的模型。他们只是要把它蒸馏下来。这就像是一套完全不同的服务。


黄仁勋: AI正在运行。让我们假装我们正在雇用AI,芯片设计的AI可能是你每小时使用10美元,你知道的。如果你经常使用它,并且你在一大堆工程师中分享AI。因此,每个工程师可能都有一个与他们坐在一起的AI,成本并不高。我们付给工程师很多钱。对我们来说,每小时几美元可以放大某人的能力。这真的很有价值。


扎克伯格: 是的。我的意思是,你不需要说服我。


黄仁勋:如果你还没有雇用AI,那就马上做。这就是我们所说的全部。所以,让我们谈谈下一波技术发展。我真的很喜欢你们在计算机视觉方面的工作。我们经常使用的一个模型是图像分割。现在我们正在视频上训练AI模型,以便能够理解世界模型。我们在机器人和工业数字化方面有很多用例,这些AI模型可以连接到整个生态系统中,以便更好地建模和表示物理世界。这使得机器人在这些模拟环境中能够更好地运行你的应用程序。你将AI带入虚拟世界的愿景真的很有趣。告诉我们这方面的情况。


扎克伯格:是的,好吧。有很多东西要讨论。我们实际上正在展示一个新的模型版本,我认为会在下一个Siggraph会议上展示。它现在不仅能处理图像,还能更快地处理视频。我想这些实际上是我在考艾岛牧场的牛。



黄仁勋:顺便说一句,这些牛有名字吗?


扎克伯格:马克思。


黄仁勋:美味的马克思。


扎克伯格:是的。


黄仁勋:下次我们这样做的时候,马克来到我家,我们一起做了费城芝士牛排。下次你带牛的时候。


扎克伯格:比起你,我更像一个副厨师。真的很好,真的很好。


黄仁勋:这是副主厨的评论。好的,听着,然后在晚上结束时。


扎克伯格:你就像,嘿,你吃够了,对吧?我当时想,我不,我可以再吃一个。你就像,真的?


黄仁勋:你知道,通常当你说一些像你更大的话时。


扎克伯格:是的,那就像是,我们正在制造更多。


黄仁勋:我们正在做更多的奶酪牛排。你吃饱了吗?通常你的客人会说,哦,是的,我很好。


扎克伯格:给我另一个奶酪牛排,Jensen。


黄仁勋:只是想让你知道他有多难解,所以我转过身来准备芝士牛排。我说,再切一些番茄。


扎克伯格:我递给他一把刀。我是一个精密切割机。


黄仁勋:所以他切番茄,每一个都精确到毫米。但真正有趣的是,我预计所有的番茄都会切成薄片,像一副牌一样堆叠起来。但是当我转身时,他说他需要另一个盘子。原因是他切的所有番茄都没有相互接触。一旦他把一片番茄与另一片分开,它们就不能再碰了。


扎克伯格:是的,伙计,如果你想让它们接触,你需要告诉我为什么。我只是个副厨师,好吗?


黄仁勋:这就是为什么他需要一个不会评判的AI。


扎克伯格:是的,就像这样。


黄仁勋:这非常酷。它识别奶牛的轨迹,跟踪奶牛。


扎克伯格:是的,这可以制作很多有趣的效果。因为它将是开放的,整个行业也有很多更严肃的应用。科学家们利用这些技术来研究珊瑚礁和自然栖息地,以及景观的演变等问题。能够在视频中做到这一点,并且作为一个零数据可以与之互动并告诉它你想要跟踪的内容,这是一项非常酷的研究。


黄仁勋:例如,在仓库里,他们有很多摄像头。仓库AI监视一切,比如说,一堆箱子掉了下来,或者有人把水溅到地上,或者发生了其他事故,AI会识别它,生成文本并发送给某人,通知他们帮助正在路上。所以这是一种使用它而不是记录一切的方式。如果发生事故并开始记录每一纳秒的视频,然后返回并检索那个时刻,它只记录重要的东西,因为它知道它在看什么。因此,拥有视频理解模型和视频语言模型对于所有这些有趣的应用程序来说非常非常强大。


 革命性的计算: 智能眼镜和混合现实


黄仁勋: 现在,还有什么?除了跟我谈以外,你们还打算做什么?



扎克伯格:是的,所有的智能眼镜都配备了这些功能。当我们考虑下一个计算平台事业部时,我们会将其细分为混合现实、耳机和智能眼镜。我认为人们更容易接受智能眼镜,因为它几乎适用于今天所有戴眼镜的人。这意味着全球将有超过十亿人使用智能眼镜,这将是一个重大的转变。对于VR耳机,我认为有些人会觉得它适用于游戏或其他用途,而有些人可能不喜欢。


我认为智能眼镜和混合现实头显将共存。智能眼镜将成为永久性的手机替代品,而混合现实头显则更像是工作站或游戏机,当你需要进行更深入的会话时,你会希望它能提供更多计算能力。尽管智能眼镜外形小巧,但它们的计算能力有限,就像手机一样。


黄仁勋:这恰逢各种突破和生成式AI的兴起。


扎克伯格:是的,我们正在从不同的角度解决这些问题。一方面,我们正在开发我们认为理想的全息AR眼镜所需的所有技术,包括定制芯片和显示技术。这些眼镜看起来像普通眼镜,但配备了更多技术。


我们已经接近实现全息影像。在接下来的几年里,我们将进一步接近这一目标。尽管这将是昂贵的,但我相信它最终会成为一个产品。


我们还在与世界顶级眼镜制造商Essilor和Luxottica合作,他们制造了市面上几乎所有大品牌的眼镜。我们的目标是,在保持时尚外形的同时,尽可能多地融入技术。


黄仁勋:眼镜行业的英伟达。


扎克伯格:我想他们可能会喜欢这个比喻。我们一直在努力让下一代产品更具吸引力,同时保留功能性。


黄仁勋:你正在与之交谈的AI非常互动。你现在拥有视觉语言理解能力和实时翻译功能。你可以用一种语言与我交谈,而我听到的却是另一种语言。


扎克伯格:屏幕的加入确实很棒,但它会增加眼镜的重量并提高成本。因此,虽然许多人可能想要全全息显示,也有很多人更喜欢轻薄的眼镜。


黄仁勋:对于工业应用和一些工作场景,这是必需的。


扎克伯格:我认为消费者产品同样重要。在Covid期间,我一直在思考这个问题。我们所有人都变得孤立,大部分时间都在使用Zoom。未来不远,我们将能够进行虚拟会议,感觉就像我们真的在场一样。


黄仁勋:我可以使用我不常戴的设备。


扎克伯格:我们的产品将包括各种款式的眼镜。我认为将它们设计成时尚而实用的框架不会太难。


黄仁勋:这些眼镜现在是宽松的风格。


扎克伯格:是的,这是一种非常实用的风格。


黄仁勋:我正在努力找到自己的道路。


扎克伯格:成为一种风格,这样我就可以在眼镜上市之前影响它。


黄仁勋:你的风格对你的工作有什么影响?


扎克伯格:现在还早,但我觉得如果你的业务未来很大一部分是时尚眼镜,这是我应该开始关注的事情。我们将不得不让我每天都是同样版本的我退休,但这也是关于眼镜的事情。即使是手表或手机,人们也不希望它们看起来都一样。


黄仁勋:是的,我认为那是对的。马克,这是一个我们正在经历的时代,整个计算堆栈正在被重新发明。你知道安德雷称之为软件1和软件2,现在我们基本上处于软件3的时代,我们的计算方式已经从通用计算转变为使用这些生成神经网络。这项技术,生成式AI,对消费者、企业行业和科学产生了前所未有的快速影响。


 英伟达决定继续制造计算机,而不是越来越小的设备


黄仁勋:我们正在制造的产品让我非常兴奋。有人问我是否会有一个Jensen AI?这正是所谓的创意AI,我们只是在构建自己的AI。我加载了我写的所有内容,并进行了微调,希望随着时间的推移,这将成为一个真正伟大的助手和伴侣。这些真的是不可思议的事情。


我们现在可以做的事情太多了。和你一起工作真的很棒。我知道建立一家公司并不容易,你要转变它。当然,从桌面到移动设备,从虚拟现实到AI,所有这些设备,观看真的非常特别。英伟达自己也改变了很多次,我很清楚这有多难。这些年来我们俩都经历了很多挑战。这就是成为先驱和创新者所需的。所以看着你真的很棒。


扎克伯格:同样地,我不确定这是否是一个转折点。如果你继续做你之前的事情,同时还要补充新的内容,那就会有更多的发展。我认为这很有趣,因为看着你们的旅程非常激动人心。


黄仁勋:我们选择了另一条路径。


扎克伯格:是的,确实。


黄仁勋:我们决定继续制造计算机,而不是越来越小的设备。


扎克伯格:这一时期可能看起来不那么时髦。


黄仁勋:确实非常不时髦,但现在看来很酷。我们从构建一个图形芯片、一个GPU开始,现在你们部署一个GPU时,仍然称之为漏斗H-100。你们的数据中心规模已经非常庞大。


扎克伯格:这正是你在Siggraph上得到Jensen问答的方式。


黄仁勋:"哇,让我们出去闲逛吧。"我得到了马克·扎克伯格的Q&A,你是我的客人。我想确保这一点。


扎克伯格:有一天,你会说,"嘿,是的,我们在几周后的Siggraph有活动。"我觉得那天我不会在丹佛做任何事情。听起来很有趣。


黄仁勋:完全正确。哦,那天下午我什么也没做,只是出现了。但这件事太不可思议了。你们建造的这些系统,它们是巨大的系统,非常难以协调,非常难以运行。你说你比大多数人晚进入GPU旅程,但你的经营规模比任何人都要大。这真的令人难以置信。祝贺你所做的一切。你是时尚的偶像。


文章来源于“硅星人Pro”,作者“大模型机动组


关键词: meta , AI , 开源模型 , 人工智能
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
免费使用GPT-4o

【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。

在线使用:https://ffa.chat/

2
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner