AI资讯新闻榜单内容搜索-H100

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: H100
真的有人能在推理环节替代英伟达吗?

真的有人能在推理环节替代英伟达吗?

真的有人能在推理环节替代英伟达吗?

在中文互联网上,英伟达每天都在被颠覆。绝大部分自媒体和短视频达人都讨厌英伟达,包括周鸿祎在内。他们千方百计地指出,某种替代品(不管是不是国产)的性能指标已经超过英伟达A100或H100,后者即将沦为资本市场历史上最大的泡沫云云。尤其是在B站、小红书这样的平台,“英伟达将迅速被替代”可以被视为一致观点,反对这个观点的人将遭到群嘲。

来自主题: AI资讯
9825 点击    2024-06-29 13:47
谷歌开源系模型第二代免费开放!27B媲美LLaMA3 70B,单H100或TPU主机可跑

谷歌开源系模型第二代免费开放!27B媲美LLaMA3 70B,单H100或TPU主机可跑

谷歌开源系模型第二代免费开放!27B媲美LLaMA3 70B,单H100或TPU主机可跑

谷歌开源模型Gemma 2开放了! 虽然前段时间Google I/O大会上,Gemma 2开源的消息就已经被放出,但谷歌还留了个小惊喜—— 除27B模型外,还有一个更轻的9B版本。 DeepMind创始人哈萨比斯表示,27B参数规模下,Gemma 2提供了同类模型最强性能,甚至还能与其两倍大的模型竞争。

来自主题: AI技术研报
8839 点击    2024-06-29 00:02
00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

史上最快Transformer芯片诞生了!用Sohu跑Llama 70B,推理性能已超B200十倍,超H100二十倍!刚刚,几位00后小哥从哈佛辍学后成立的公司Etached,宣布再融资1.2亿美元。

来自主题: AI资讯
11693 点击    2024-06-26 17:44
有钱买卡还不够,10万卡H100集群有多难搭?一文解析算力集群技术要点

有钱买卡还不够,10万卡H100集群有多难搭?一文解析算力集群技术要点

有钱买卡还不够,10万卡H100集群有多难搭?一文解析算力集群技术要点

在英伟达市值猛涨、各家科技巨头囤芯片的热潮中,我们往往会忽视GPU芯片是如何转变为数据中心算力的。最近,一篇SemiAnalysis的技术文章就深入解读了10万卡H100集群的构建过程。

来自主题: AI资讯
8106 点击    2024-06-23 19:25
Karpathy新教程爆火,网友抢着送他H100:从头复现GPT-2训练

Karpathy新教程爆火,网友抢着送他H100:从头复现GPT-2训练

Karpathy新教程爆火,网友抢着送他H100:从头复现GPT-2训练

大神Karpathy已经不满足于用C语言造Llama了! 他给自己的最新挑战:复现OpenAI经典成果,从基础版GPT-2开始。

来自主题: AI技术研报
9559 点击    2024-05-30 10:30
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克最近哭穷表示,xAI需要部署10万个H100才能训出Grok 3,影响全球的大模型算力荒怎么解?昨天开源的这款MoE大模型,只用了1/19算力、1/19激活参数,性能就直接全面对标Llama 3-70B!

来自主题: AI技术研报
8686 点击    2024-05-29 15:14
马斯克烧几十亿美元造最大超算中心,10万块H100训练Grok追赶GPT-4o

马斯克烧几十亿美元造最大超算中心,10万块H100训练Grok追赶GPT-4o

马斯克烧几十亿美元造最大超算中心,10万块H100训练Grok追赶GPT-4o

最近,许久没有新动向的马斯克放出了大消息——他旗下的人工智能初创公司xAI将投入巨资建造一个超算中心,以保证Grok 2及之后版本的训练。这个「超级计算工厂」预计于2025年秋季建成,规模将达到目前最大GPU集群的四倍。

来自主题: AI资讯
9902 点击    2024-05-27 15:39