AI资讯新闻榜单内容搜索-英伟达

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 英伟达
有钱买卡还不够,10万卡H100集群有多难搭?一文解析算力集群技术要点

有钱买卡还不够,10万卡H100集群有多难搭?一文解析算力集群技术要点

有钱买卡还不够,10万卡H100集群有多难搭?一文解析算力集群技术要点

在英伟达市值猛涨、各家科技巨头囤芯片的热潮中,我们往往会忽视GPU芯片是如何转变为数据中心算力的。最近,一篇SemiAnalysis的技术文章就深入解读了10万卡H100集群的构建过程。

来自主题: AI资讯
8202 点击    2024-06-23 19:25
AI存储:HBM抓着英伟达的命门

AI存储:HBM抓着英伟达的命门

AI存储:HBM抓着英伟达的命门

在AIGC等新应用的推动下,存储行业有望迎来“周期+成长”的共振。

来自主题: AI资讯
2148 点击    2024-06-20 13:38
全球市值第一!英伟达3.3万亿美元登AI王座超微软,老黄却直言忧心忡忡

全球市值第一!英伟达3.3万亿美元登AI王座超微软,老黄却直言忧心忡忡

全球市值第一!英伟达3.3万亿美元登AI王座超微软,老黄却直言忧心忡忡

就在刚刚,英伟达市值超越微软,成为全球市值最高公司!而CEO老黄的净资产也随之增至1170亿美元,成为全球TOP 11富人。随着全世界疯抢英伟达GPU,华尔街对AI的乐观情绪还在狂热飙涨!不过,老黄却担忧起来了……

来自主题: AI资讯
10083 点击    2024-06-20 10:20
大模型压缩量化方案怎么选?无问芯穹Qllm-Eval量化方案全面评估:多模型、多参数、多维度

大模型压缩量化方案怎么选?无问芯穹Qllm-Eval量化方案全面评估:多模型、多参数、多维度

大模型压缩量化方案怎么选?无问芯穹Qllm-Eval量化方案全面评估:多模型、多参数、多维度

基于 Transformer架构的大型语言模型在各种基准测试中展现出优异性能,但数百亿、千亿乃至万亿量级的参数规模会带来高昂的服务成本。例如GPT-3有1750亿参数,采用FP16存储,模型大小约为350GB,而即使是英伟达最新的B200 GPU 内存也只有192GB ,更不用说其他GPU和边缘设备。

来自主题: AI技术研报
10230 点击    2024-06-19 23:30
英伟达开源3400亿巨兽,98%合成数据训出最强开源通用模型!性能对标GPT-4o

英伟达开源3400亿巨兽,98%合成数据训出最强开源通用模型!性能对标GPT-4o

英伟达开源3400亿巨兽,98%合成数据训出最强开源通用模型!性能对标GPT-4o

刚刚,英伟达全新发布的开源模型Nemotron-4 340B,有可能彻底改变训练LLM的方式!从此,或许各行各业都不再需要昂贵的真实世界数据集了。而且,Nemotron-4 340B直接超越了Mixtral 8x22B、Claude sonnet、Llama3 70B、Qwen 2,甚至可以和GPT-4掰手腕!

来自主题: AI技术研报
5565 点击    2024-06-15 15:58
英伟达开源最强通用模型Nemotron-4 340B

英伟达开源最强通用模型Nemotron-4 340B

英伟达开源最强通用模型Nemotron-4 340B

性能超越 Llama-3,主要用于合成数据。

来自主题: AI技术研报
11935 点击    2024-06-15 15:40