英伟达赢麻了!马斯克xAI超级算力工厂曝光,10万块H100、数十亿美元
英伟达赢麻了!马斯克xAI超级算力工厂曝光,10万块H100、数十亿美元最近几年,随着大语言模型的飞速发展与迭代,科技巨头们都竞相投入巨额财力打造超级计算机(或大规模 GPU 集群)。他们认为,更强大的计算能力是实现更强大 AI 的关键。
来自主题: AI资讯
10666 点击 2024-05-26 13:46
最近几年,随着大语言模型的飞速发展与迭代,科技巨头们都竞相投入巨额财力打造超级计算机(或大规模 GPU 集群)。他们认为,更强大的计算能力是实现更强大 AI 的关键。
提高 GPU 利用率,就是这么简单。
FP8和更低的浮点数量化精度,不再是H100的“专利”了!
Llama 3诞生整整一周后,直接将开源AI大模型推向新的高度。
硅谷的人才争夺战愈演愈烈。
最近,一则数据点出了AI领域算力需求的惊人增长—— 根据业内专家的预估,OpenAI推出的Sora在训练环节大约需要在4200-10500张NVIDIA H100上训练1个月,并且当模型生成到推理环节以后,计算成本还将迅速超过训练环节。
训练下一代万亿级参数大模型的高效芯片诞生了!
英特尔,开始正面硬刚英伟达了。 就在深夜,英特尔CEO帕特·基辛格手舞足蹈地亮出了最新AI芯片——Gaudi 3:
最近一份美国市场研究机构发布的报告火了。报告详细分析了OpenAI部署Sora所需的硬件资源,计算得出,在峰值时期Sora需要高达72万张英伟达H100 来支持,对应成本是1561亿人民币。