AI资讯新闻榜单内容搜索-GPU

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: GPU
英伟达的局:狂撒15亿美元,从Lambda那租到了搭载自家AI芯片的GPU服务器

英伟达的局:狂撒15亿美元,从Lambda那租到了搭载自家AI芯片的GPU服务器

英伟达的局:狂撒15亿美元,从Lambda那租到了搭载自家AI芯片的GPU服务器

Lambda 收入可观,英伟达主导地位稳固,大家都有美好未来 据 The Information 最新消息称,英伟达已经与小型云服务提供商 Lambda 达成一笔总额高达 15 亿美元的合作协议,内容是前者将租赁后者搭载英伟达自研 AI 芯片的 GPU 服务器。

来自主题: AI资讯
6081 点击    2025-09-07 12:06
OpenAI 不想再「跪着」买显卡了

OpenAI 不想再「跪着」买显卡了

OpenAI 不想再「跪着」买显卡了

《金融时报》最新消息,OpenAI 正在和博通合作,自研一颗代号 “XPU” 的 AI 推理芯片,预计会在 2026 年量产,由台积电代工。不同于英伟达 的 GPU,这款芯片不会对外销售,而是专门满足 OpenAI 内部的训练与推理需求,用来支撑即将上线的 GPT-5 等更庞大的模型。

来自主题: AI资讯
7717 点击    2025-09-06 12:50
独家|美团刚刚开源的龙猫大模型,其训练时未使用英伟达GPU。

独家|美团刚刚开源的龙猫大模型,其训练时未使用英伟达GPU。

独家|美团刚刚开源的龙猫大模型,其训练时未使用英伟达GPU。

昨天,美团低调地开源了其560B参数的混合专家(MoE)模型——LongCat-Flash。 一时间,大家的目光都被吸引了过去,行业内的讨论大多围绕着它在公开基准测试中媲美顶尖模型的性能数据,以及其精巧的MoE架构设计。

来自主题: AI资讯
7212 点击    2025-09-01 11:59
最强 AI 芯片要推中国特供版?黄仁勋最新发声,3500 亿的市场太诱人

最强 AI 芯片要推中国特供版?黄仁勋最新发声,3500 亿的市场太诱人

最强 AI 芯片要推中国特供版?黄仁勋最新发声,3500 亿的市场太诱人

短短两天,寒武纪两度超越贵州茅台,成为 A 股第一高价「股王」。而推动用户预期不断攀升的,离不开 AI 市场的持续火热。

来自主题: AI资讯
6520 点击    2025-08-29 12:43
DeepSeek刚提到FP8,英伟达就把FP4精度推向预训练,更快、更便宜

DeepSeek刚提到FP8,英伟达就把FP4精度推向预训练,更快、更便宜

DeepSeek刚提到FP8,英伟达就把FP4精度推向预训练,更快、更便宜

前些天,DeepSeek 在发布 DeepSeek V3.1 的文章评论区中,提及了 UE8M0 FP8 的量化设计,声称是针对即将发布的下一代国产芯片设计。

来自主题: AI资讯
7009 点击    2025-08-28 15:40
回归C++: 在GGUF上构建高效的向量模型

回归C++: 在GGUF上构建高效的向量模型

回归C++: 在GGUF上构建高效的向量模型

两周前,我们发布了 jina-embeddings-v4 的 GGUF 格式及其多种动态量化版本。jina-embeddings-v4 原模型有 37.5 亿参数,在我们的 GCP G2 GPU 实例上直接运行时效率不高。因此,我们希望通过更小、更快的 GGUF 格式来加速推理。

来自主题: AI资讯
6311 点击    2025-08-28 11:39
榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒

榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒

榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒

当大语言模型(LLM)走向千行百业,推理效率与显存成本的矛盾日益尖锐。

来自主题: AI资讯
6932 点击    2025-08-26 19:21
售价2万5!英伟达推出机器人“最强大脑”:AI算力飙升750%配128GB大内存,宇树已经用上了

售价2万5!英伟达推出机器人“最强大脑”:AI算力飙升750%配128GB大内存,宇树已经用上了

售价2万5!英伟达推出机器人“最强大脑”:AI算力飙升750%配128GB大内存,宇树已经用上了

英伟达直接把服务器级别的算力塞进了机器人体内。 全新的机器人计算平台Jetson Thor正式发售,基于最新的Blackwell GPU架构,AI算力直接飙升到2070 TFLOPS,比上一代Jetson Orin提高至整整7.5倍,同时能效提高至3.5倍。

来自主题: AI资讯
7187 点击    2025-08-26 12:28
大模型能否为不同硬件平台生成高性能内核?南大、浙大提出跨平台内核生成评测框架MultiKernelBench

大模型能否为不同硬件平台生成高性能内核?南大、浙大提出跨平台内核生成评测框架MultiKernelBench

大模型能否为不同硬件平台生成高性能内核?南大、浙大提出跨平台内核生成评测框架MultiKernelBench

在深度学习模型的推理与训练过程中,绝大部分计算都依赖于底层计算内核(Kernel)来执行。计算内核是运行在硬件加速器(如 GPU、NPU、TPU)上的 “小型高性能程序”,它负责完成矩阵乘法、卷积、归一化等深度学习的核心算子运算。

来自主题: AI技术研报
6827 点击    2025-08-25 15:44