ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
黄仁勋最新主题演讲:Blackwell 芯片将打破摩尔定律,解决大模型耗电难题
7925点击    2024-06-04 12:08

6 月 2 日,英伟达创始人黄仁勋在 Computex 2024(2024 台北国际电脑展)上发表主题演讲,分享了人工智能时代如何助推全球新产业革命,并且展示了最新的 Blackwell 芯片和后续的一系列更新节奏。


对于新发布的 Blackwell 芯片,老黄宣称这是「全世界迄今为止制造出来的最复杂、性能最高的计算机。」并且8 年内,1.8 万亿参数 GPT-4 的训练能耗,直接会降到 1/350;而推理能耗则直接降到 1/45000,老黄开始要打破「摩尔定律」了。



演讲主要要点整理如下:


  • 最新量产版 Blackwell 芯片,并称将在 2025 年推出 Blackwell Ultra AI 芯片,下一代 AI 平台命名为 Rubin,2027 年推 Rubin Ultra,更新节奏将是「一年一次」,打破「摩尔定律」。


  • 黄仁勋宣称英伟达推动了大语言模型诞生,其在 2012 年后改变了 GPU 架构,并将所有新技术集成在单台计算机上。


  • 英伟达的加速计算技术帮助实现了 100 倍速率提升,而功耗仅增加到原来的 3 倍,成本为原来的 1.5 倍。


  • 黄仁勋预计下一代 AI 需要理解物理世界。他给出的方法是让 AI 通过视频与合成数据学习,并让 AI 互相学习。


  • 黄仁勋在 PPT 里甚至给 token 敲定了一个中文译名——词元。


  • 黄仁勋表示,机器人时代已经到来,将来所有移动的物体都将实现自主运行。


01

全新计算时代开启


演讲开篇,老黄最先放出了一个Omniverse模拟世界中的演示。


他表示,「英伟达正处于计算机图形模拟和人工智能的交叉点上。这是我们的『灵魂』」。



这一切都是物理世界中的模拟,它的实现,得益于两项基本的技术——加速计算和人工智能,将重塑计算机产业。


到目前为止,计算机行业已有 60 多年的历史,而现在,一个全新的计算时代已然开始。


1964 年,IBM 的 System 360 首次引入了 CPU,通用计算通过操作系统将硬件和软件分离。架构兼容性、向后兼容性等等,所有我们今天所了解的技术,都是从这个时间点而来。


直到 1995 年,PC 革命开启让计算走进千家万户,更加民主化。2007 年,iPhone 推出直接把「电脑」装进了口袋,并实现了云端链接。


可以看出,过去60年里,我们见证了2-3个推动计算行业转变的重要技术节点。



加速计算:一手 GPU,一手 CUDA


而如今,我们将再一次见证历史。老黄表示,「有两个最基础的事情正发生」。


首先是处理器,性能扩展已经大大放缓,而我们所需的计算量、需要处理的数据都在呈指数级增长。


按老黄的话来说,我们正经历着「计算通货膨胀」。


过去的 20 年里,英伟达一直在研究加速计算。比如,CUDA 的出现加速了CPU 负载。事实上,专用的 GPU 效果会更好。



当我们运行一个应用程序,不希望是一个运行 100 秒,甚至是 100 个小时的APP。


因此,英伟达首创了异构计算,让 CPU 和 GPU 并行运行,将过去的 100 个时间单位,加速到仅需要 1 个时间单位。可见,它已经实现了 100 倍速率提升,而功耗仅增加的 3 倍,成本仅为原来的 1.5 倍。



英伟达同时为价值十亿美元的数据中心,配备了 5 亿美元的 GPU,让其变成了「AI工厂」。


有了加速计算,世界上许多公司可以节省数亿美元在云端处理数据。这也印证了老黄的「数学公式」,买得越多,省得越多。


除了 GPU,英伟达还做了业界难以企及的事,那就是重写软件,以加速硬件的运行。


如下图所示,从深度学习cuDNN、物理Modulus、通信Aerial RAN、基因序列Parabricks,到QC模拟cuQUANTUM、数据处理cuDF等领域,都有专用的CUDA软件。



也就是说,没有CUDA,就等同于计算机图形处理没有OpenGL,数据处理没有SQL。


而现在,采用CUDA的生态遍布世界各地。就在上周,谷歌宣布将cuDF加入谷歌云中,并加速世界上受欢迎的数据科学库Pandas。


而现在,只需要点击一下,就可以在CoLab中使用Pandas。就看这数据处理速度,简直快到令人难以置信。



老黄表示,要推行一个全新的平台是「蛋和鸡」的困境,开发者和用户,缺一不可


但是经过20年的发展,CUDA已经打破了这个困境,通过全球500万开发者和无数领域的用户实现了良性循环。有越多人安装CUDA,运行的计算量越大,他们就越能据此改进性能,迭代出更高效、更节能的CUDA。



02

「AI工厂」全栈重塑


2012年,神经网络AlexNet的诞生,将英伟达第一次与AI联系起来。我们都知道,AI教父Hinton和高徒当时在2个英伟达GPU上完成AlexNet的训练。


深度学习就此开启,并以超乎想像的速度,扩展几十年前发明的算法。



但由于,神经网络架构不断scaling,对数据、计算量「胃口」愈加庞大,这就不得不需要英伟达重新发明一切。


2012年之后,英伟达改变了Tensor Core,并发明了NvLink,还有TensorRT、Triton推理服务器等等,以及DGX超算。


当时,英伟达的做法没有人理解,更没人愿意为之买单。


由此,2016年,老黄亲自将英伟达首个DGX超算送给了位于旧金山的一家「小公司」OpenAI。



从那之后,英伟达在不断扩展,从一台超算、到一个超大型数据中心。


直到,2017年Transformer架构诞生,需要更大的数据训练LLM,以识别和学习一段时间内连续发生的模式。



之后,英伟达建造了更大的超算。2022年11月,在英伟达数万个GPU上完成训练的ChatGPT横空出世,能够像人类一样交互。



这是世界第一次看到了生成式AI。它会一次输出一个token,可以是图像、语音、文字、视频,甚至是天气token,全部都是关于生成。


老黄表示,「我们可以学习的一切,现在都可以生成。我们现在已经进入了一个全新的生成式AI时代」。


当初,那个作为超算出现的计算机,已经变成了数据中心。它可以输出token,摇身一变成为了「AI工厂」。


而这个「AI工厂」,正在创造和生产巨大价值的东西。


19世纪90年代末,尼古拉·特斯拉发明了AC Generator,而现在,英伟达正创造可以输出token的AI Generator。


英伟达给世界带来的是,加速计算正引领新一轮产业革命。人类首次实现了,仅靠3万亿美元的IT产业,创造出能够直接服务于100万亿美元产业的一切东西。



传统的软件工厂,到如今AI工厂的转变,实现了CPU到GPU,检索到生成,指令到大模型,工具到技能的升级。


可见,生成式AI推动了全栈的重塑。



从Blackwell GPU到超级「AI工厂」


接下来就让我们看看,英伟达是如何将一颗颗地表最强的Blackwell芯片,变成一座座超级「AI工厂」的。





注意看,下面这块是搭载了Blackwell GPU的量产级主板。


老黄手指的这里是Grace CPU。



而在这里,我们可以清晰地看到,两个连在一起的Blackwell芯片。



在8年里,每一代英伟达芯片的Flops,都增长了1000倍。


与此同时,摩尔定律在这8年里,却似乎逐渐失效了。



即使和摩尔定律最好的时刻相比,Blackwell算力的提升也是惊人的。这将直接导致的结果,就是成本的显著下降。


比如,训练一个1.8万亿参数、8万亿token的GPT-4所用的能耗,直接降至1/350!


Pascal需要消耗的,是1000吉瓦时,这就意味着,它需要一个1000吉瓦的数据中心。(1吉瓦=1000兆瓦)


而且如果这样的数据中心真的存在的话,训练也GPT-4也需要整整一个月的时间。而100兆瓦的数据中心,大概需要一年。这也就是为什么,ChatGPT这样的LLM, 在八年前是根本不可能存在的。


如今有了Blackwell,过去的1000吉瓦时直接可以降到3吉瓦时。


可以说,Blackwell就是为了推理,为了生成token而生的。它直接将每token的能量降低了45000倍。


在以前,用Pascal产生1个token的消耗,相当于两个200瓦的灯泡运行2天。让GPT-4生成一个单词,大概需要3个token。这根本不可能让我们得到如今和GPT-4聊天的体验。


而现在,我们每个token可以只使用0.4焦耳,用很少的能量,就能产生惊人的token。



它诞生的背景,正是运算模型规模的指数级增长。


每一次指数级增长,都进入一种崭新的阶段。


当我们从DGX扩展到大型AI超算,Transformer可以在大规模数据集上训练。


而下一代AI,则需要理解物理世界。然而如今大多数AI并不理解物理规律。其中一种解决办法,是让AI学习视频资料,另一种,则是合成数据。


第三种,则是让计算机互相学习!本质上就和AlphaGo的原理一样。



巨量的计算需求涌来,如何解决?目前的办法就是——我们需要更大的GPU。


而Blackwell,正是为此而生。



Blackwell中,有几项重要的技术创新


第一项,就是芯片的尺寸。


英伟达将两块目前能造出来的最大尺寸的芯片,用一条10TB/s的链路链接起来;然后再把它们放到同一个计算节点上,和一块Grace CPU相连。


在训练时,它被用于快速检查点;而在推理和生成的场景,它可以用于储存上下文内存。


而且,这种第二代GPU还有高度的安全性,我们在使用时完全可以要求服务器保护AI不受偷窃或篡改。


并且,Blackwell中采用的是第5代NVLink。它是第一代可信赖、可使用的引擎,通过该系统,我们可以测试每一个晶体管、触发器、片上内存和片外内存,因此我们可以当场确定某个芯片是否出现故障。


基于此,英伟达将拥有十万个GPU超算的故障间隔时间,缩短到了以分钟为单位。


因此,如果我们不发明技术来提高超算的可靠性,那么它就不可能长期运行,也不可能训练出可以运行数月的模型。


如果提高可靠性,就会提高模型正常的运行时间,而后者显然会直接影响成本。


最后,老黄表示,解压缩引擎的数据处理,也是英伟达必须做的最重要的事之一。


通过增加数据压缩引擎、解压缩引擎,就能以20倍的速度从存储中提取数据,比现在的速度要快得多。


超强风冷DGX & 全新液冷MGX


Blackwell是一个重大的跃进,但对老黄来说,这还不够大。


英伟达不仅要做芯片,还要制造搭载最先进芯片的服务器。拥有Blackwell的DGX超算,在各方面都实现了能力跃升。



集成了Blackwell芯片的最新DGX,能耗仅比上一代Hopper提升了10倍,但FLOPS量级却提升了45倍。


下面这个风冷的DGX Blackwell,里面有8个GPU。



而对应散热器的尺寸也很惊人,达到了15kW,并且是完全的风冷。



如果你喜欢部署液冷系统呢?英伟达也有新型号MGX。


单个MGX同时集成72个Blackwell GPU,且有最新的第五代NVLink每秒130TB的传输速度。NVLink将这些单独的GPU彼此连接起来,因此我们就得到了72个GPU的MGX


介绍完芯片,老黄特意提到了英伟达研发的NVLink技术,这也是英伟达的主板可以越做越大的重要原因。


由于LLM参数越来越多、越来越消耗内存,想要把模型塞进单个GPU已经几乎是不可能的事情,必需搭建集群。其中,GPU通信技术的重要性不亚于计算能力。


英伟达的NVLink,是世界上最先进的GPU互连技术,数据传输速率可以堪称疯狂!


因为如今的DGX拥有72个GPU,而上一代只有8个,让GPU数直接增加了9倍。而带宽量,则直接增加了18倍,AI FLops增加了45倍,但功率仅仅增加了10倍,也即100千瓦。



下面这个NVLink芯片,也堪称是奇迹。


人们之所以意识到它的重要性,是因为它将所有这些不同的GPU连接在一起,从而能够让十万亿参数的LLM运行起来。


500亿个晶体管,74个端口,每个端口400GB,7.2TB每秒的横截面带宽,这本身就是个奇迹。


而更重要的是,NVLink内部还具有数学功能,可以实现归约。对于芯片上的深度学习,这尤其重要。



有趣的是,NVLink技术,大大拓宽了我们对于GPU的想象。


比如在传统的概念中,GPU应该长成这样。



但有了NVLink,GPU也可以变成这么大。



支撑着72个GPU的骨架,就是NVLink的5000根电缆,能够在传输方面节省20kw的功耗用于芯片计算。



老黄拿在手里的,是一个NVLink的主干,用老黄的原话说,它是一个「电气机械奇迹」


NVLink做到的仅仅是将不同GPU芯片连接在一起,于是老黄又说了一句「这还不够宏大」。要连接超算中心内不同的主机,最先进的技术是「无限带宽」(InfiniBand)。但很多数据中心的基础设施和生态,都是基于曾经使用的以太网构建的,推倒重来的成本过高。


因此,为了帮助更多的数据中心顺利迈进AI时代,英伟达研发了一系列与AI超算适配的以太交换机。


网络级RDMA、阻塞控制、适应性路由、噪声隔离,英伟达利用自己在这四项技术上的顶尖地位,将以太网改造成了适合GPU之间点对点通信的网络。



由此也意味着,数百万GPU数据中心的时代,即将到来。



03

全球2800万开发者,即时部署LLM


在英伟达的AI工厂中,运行着可以加速计算推理的新型软件——NIM。



老黄表示,「我们创建的是容器里的AI」。


这个容器里有大量的软件,其中包括用于推理服务的Triton推理服务器、优化的AI模型、云原生堆栈等等。



现场,老黄再一次展示了全能AI模型——可以实现全模态互通。有了NIM,这一切都不是问题。


它可以提供一种简单、标准化的方式,将生成式AI添加到应用程序中,大大提高开发者的生产力。



现在,全球2800万开发者都可以下载NIM到自己的数据中心,托管使用。未来,不再耗费数周的时间,开发者们可以在几分钟内,轻松构建生成式AI应用程序。


与此同时,NIM还支持Meta Llama 3-8B,可以在加速基础设施上生成多达3倍的token。这样一来,企业可以使用相同的计算资源,生成更多的响应。而基于NIM打造的各类应用,也将迸发涌现,包括数字人、智能体、数字孪生等等。



老黄表示,「NVIDIA NIM集成到各个平台中,开发人员可以随处访问,随处运行 —— 正在帮助技术行业使生成式 AI 触手可及」。


智能体组队,万亿美元市场


而智能体,是未来最重要的应用。老黄称,几乎每个行业都需要客服智能体,有着万亿美元的市场前景。


可以看到,在NIM容器之上,大多数智能体负责推理,去弄清任务并将其分解成多个子任务。还有一些,它们负责检索信息、搜索,甚至是使用工具等。


所有智能体,组成了一个team。未来,每家公司都将有大量的NIM智能体,通过连接起来组成一个团队,完成不可能的任务。



GPT-4o躯壳,老黄做出来了


在人机交互这方面,老黄和Sam Altman可以说是想到一起了。他表示,虽然可以使用文字或语音形式的prompt给AI下达指令,但很多应用中,我们还是需要更自然的、更类人的交互方式。


这指向了老黄的一个愿景——数字人。相比现在的LLM,它们可以更吸引人,更有同理心。


GPT-4o虽是实现了无法比拟的类人交互,但缺少的是一个「躯体」。而这次,老黄都帮OpenAI想好了。


未来,品牌大使也不一定是「真人」,AI完全可以胜任。从客户服务,到广告、游戏等各行各业,数字人带来的可能将是无限的。



连接Gen AI的CG技术,还可以实时渲染出逼真的人类面部。


低延迟的数字人处理,遍及全球超过100个地区。



这是由英伟达ACE提供的魔力,能够为创建栩栩如生的数字人,提供相应的AI工具。现在,英伟达计划在1亿台RTX AI个人电脑和笔记本电脑上,部署ACE PC NIM微服务。



这其中包括英伟达首个小语言模型——Nemotron-3 4.5B,专为在设备上运行而设计,具备与云端LLM相似的精度和准确性。



此外,ACE数字人类AI新套件还包括基于音轨生成身体手势——NVIDIA Audio2Gesture,即将推出。


老黄表示,「数字人类将彻底改变各个行业,ACE提供的多模态LLM和神经图形学的突破,使我们更接近意图驱动计算的未来,与计算机的交互将如同与人类的交互一样自然」。


04

预告下一代芯片Rubin


Hopper和Blackwell系列的推出,标志着英伟达逐渐搭建起完整的AI超算技术栈,包括CPU、GPU芯片,NVLink的GPU通信技术,以及NIC和交换机组成的服务器网络。


如果你愿意的话,可以让整个数据中心都使用英伟达的技术。这足够大、足够全栈了吧。但是老黄表示,我们的迭代速度还要加快,才能跟上GenAI的更新速度。


英伟达在不久前就曾放出消息,即将把GPU的迭代速度从原来的两年一次调整为一年一次,要用最快的速度推进所有技术的边界


今天的演讲中,老黄再次实锤官宣GPU年更。但是他又紧跟着叠了个甲,说自己可能会后悔。


无论如何,我们现在知道了,英伟达不久后就会推出Blackwell Ultra,以及明年的下一代的Rubin系列。



05

从孪生地球,到具身AI机器人


除了芯片和超算服务器,老黄还发布了一个所有人都没有想到的项目——数字孪生地球「Earth-2」。


这也许是世界范围内最有雄心的项目(甚至没有之一)。


而且根据老黄的口吻推测,Earth-2已经推进了数年,今年取得的重大突破才让他觉得,是时候亮出来了。


为什么要为建造整个地球的数字孪生?是要像小扎的元宇宙那样,把社交和互动都搬到线上平台吗?


不,老黄的愿景更宏伟一些。他希望在Earth-2的模拟,可以预测整个星球的未来,从而帮我们更好地应对气候变化和各种极端天气,比如可以预测台风的登陆点。



Earth-2结合了生成式AI模型CorrDiff,基于WRF数值模拟进行训练,能以12倍更高的解析度生成天气模型,从25公里范围提高到2公里。


不仅解析度更高,而且相比物理模拟的运行速度提高了1000倍,能源效率提高了3000倍,因此可以在服务器上持续运行、实时预测。


而且,Earth-2的下一步还要将预测精度从2公里提升到数十米,同时考虑城市内的基础设施,甚至可以预测到街道上什么时候会刮来强风。



而且,英伟达想数字孪生的,不止是地球,还有整个物理世界


对于这个狂飙突进的AI时代,老黄大胆预测了下一波浪潮——物理AI,或者说是具身AI。



它们不仅需要有超高的认知能力,可以理解人类、理解物理世界,还要有极致的行动力,完成各种现实任务。


想象一下这个赛博朋克的未来:一群机器人在一起,像人类一样交流、协作,在工厂里创造出更多的机器人。而且,不仅仅是机器人。一切能移动的物体都会是自主的!



在多模态AI的驱动下,它们可以学习、感知世界,理解人类指令,并进化出计划、导航以及动作技能,完成各种复杂任务。


那要怎样训练这些机器人呢?如果让他们在现实世界横冲直撞,代价要比训练LLM大得多。这时,数字孪生世界就大有用武之地了。



正像LLM可以通过RLHF进行价值观对齐一样,机器人也可以在遵循物理规律的数字孪生世界中不断试错、学习,模仿人类行为,最终达到通用智能。


Nvidia的Omniverse可以作为构建数字孪生的平台,集成Gen AI模型、物理模拟以及动态实时的渲染技术,成为「机器人健身房」。



志在做全栈的英伟达也不仅仅满足于操作系统。他们还会提供用于训练模型的超算,以及用于运行模型的Jetson Thor和Orin。


为了适应不同应用场景下的机器人系统,英伟达的Omniverse将逐步扩展为Warehouse生态系统。这个生态将无所不包,从搭配应用程序的SDK和API,到运行边缘AI计算的接口,再到最底层的可定制芯片。


在全栈产品方面,英伟达就是想要做自己的「全家桶」,让别人无路可走。



为了让这个 AI 机器人时代看起来更真实,演示的最后,9 个和老黄有同样身高的机器人再一次一同登场。



正如老黄所说的,「这不是未来,这一切都正在发生」。


参考资料:

https://www.nvidia.cn/events/computex/?ncid=so-wech-642406


文章来自于微信公众号新智元,作者新智元


AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
数字人

【开源免费】Fay开源数字人框架是一个AI数字人项目,该项目可以帮你实现“线上线下的数字人销售员”,

“一个人机交互的数字人助理”或者是一个一个可以自主决策、主动联系管理员的智能体数字人。

项目地址:https://github.com/xszyou/Fay

2
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

3
免费使用GPT-4o

【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。

在线使用:https://ffa.chat/

4
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0

5
无人直播

【开源免费】VideoChat是一个开源数字人实时对话,该项目支持支持语音输入和实时对话,数字人形象可自定义等功能,首次对话延迟低至3s。

项目地址:https://github.com/Henry-23/VideoChat

在线体验:https://www.modelscope.cn/studios/AI-ModelScope/video_chat


【开源免费】Streamer-Sales 销冠是一个AI直播卖货大模型。该模型具备AI生成直播文案,生成数字人形象进行直播,并通过RAG技术对现有数据进行寻找后实时回答用户问题等AI直播卖货的所有功能。

项目地址:https://github.com/PeterH0323/Streamer-Sales