AI资讯新闻榜单内容搜索-H100

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: H100
00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

史上最快Transformer芯片诞生了!用Sohu跑Llama 70B,推理性能已超B200十倍,超H100二十倍!刚刚,几位00后小哥从哈佛辍学后成立的公司Etached,宣布再融资1.2亿美元。

来自主题: AI资讯
10247 点击    2024-06-26 17:44
有钱买卡还不够,10万卡H100集群有多难搭?一文解析算力集群技术要点

有钱买卡还不够,10万卡H100集群有多难搭?一文解析算力集群技术要点

有钱买卡还不够,10万卡H100集群有多难搭?一文解析算力集群技术要点

在英伟达市值猛涨、各家科技巨头囤芯片的热潮中,我们往往会忽视GPU芯片是如何转变为数据中心算力的。最近,一篇SemiAnalysis的技术文章就深入解读了10万卡H100集群的构建过程。

来自主题: AI资讯
6223 点击    2024-06-23 19:25
Karpathy新教程爆火,网友抢着送他H100:从头复现GPT-2训练

Karpathy新教程爆火,网友抢着送他H100:从头复现GPT-2训练

Karpathy新教程爆火,网友抢着送他H100:从头复现GPT-2训练

大神Karpathy已经不满足于用C语言造Llama了! 他给自己的最新挑战:复现OpenAI经典成果,从基础版GPT-2开始。

来自主题: AI技术研报
8177 点击    2024-05-30 10:30
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克最近哭穷表示,xAI需要部署10万个H100才能训出Grok 3,影响全球的大模型算力荒怎么解?昨天开源的这款MoE大模型,只用了1/19算力、1/19激活参数,性能就直接全面对标Llama 3-70B!

来自主题: AI技术研报
7169 点击    2024-05-29 15:14
马斯克烧几十亿美元造最大超算中心,10万块H100训练Grok追赶GPT-4o

马斯克烧几十亿美元造最大超算中心,10万块H100训练Grok追赶GPT-4o

马斯克烧几十亿美元造最大超算中心,10万块H100训练Grok追赶GPT-4o

最近,许久没有新动向的马斯克放出了大消息——他旗下的人工智能初创公司xAI将投入巨资建造一个超算中心,以保证Grok 2及之后版本的训练。这个「超级计算工厂」预计于2025年秋季建成,规模将达到目前最大GPU集群的四倍。

来自主题: AI资讯
8159 点击    2024-05-27 15:39
英伟达赢麻了!马斯克xAI超级算力工厂曝光,10万块H100、数十亿美元

英伟达赢麻了!马斯克xAI超级算力工厂曝光,10万块H100、数十亿美元

英伟达赢麻了!马斯克xAI超级算力工厂曝光,10万块H100、数十亿美元

最近几年,随着大语言模型的飞速发展与迭代,科技巨头们都竞相投入巨额财力打造超级计算机(或大规模 GPU 集群)。他们认为,更强大的计算能力是实现更强大 AI 的关键。

来自主题: AI资讯
9209 点击    2024-05-26 13:46