AI资讯新闻榜单内容搜索-GPU

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: GPU
AI太空竞赛?英伟达H100刚上天,谷歌Project Suncatcher也要将TPU送上天

AI太空竞赛?英伟达H100刚上天,谷歌Project Suncatcher也要将TPU送上天

AI太空竞赛?英伟达H100刚上天,谷歌Project Suncatcher也要将TPU送上天

11 月 2 日,英伟达首次把 H100 GPU 送入了太空,参阅报道《英伟达发射了首个太空 AI 服务器,H100 已上天》。而刚刚谷歌宣布,他们也要让 TPU 上天。

来自主题: AI技术研报
7513 点击    2025-11-05 15:15
微软机房大量英伟达GPU开始吃灰……

微软机房大量英伟达GPU开始吃灰……

微软机房大量英伟达GPU开始吃灰……

你敢想,微软堆成山的GPU,只能在库房里吃灰?

来自主题: AI资讯
7176 点击    2025-11-04 17:29
英伟达发射了首个太空AI服务器,H100已上天

英伟达发射了首个太空AI服务器,H100已上天

英伟达发射了首个太空AI服务器,H100已上天

11 月 2 日,英伟达首次把 H100 GPU 送入了太空。作为目前 AI 领域的主力训练芯片,H100 配备 80GB 内存,其性能是此前任何一台进入太空的计算机的上百倍。在轨道上,它将测试一系列人工智能处理应用,包括分析地球观测图像和运行谷歌的大语言模型(LLM)。

来自主题: AI资讯
8059 点击    2025-11-04 12:09
奥特曼豪赌万亿算力,OpenAI估值万亿美元 | 新智元ASI产业图谱10月号

奥特曼豪赌万亿算力,OpenAI估值万亿美元 | 新智元ASI产业图谱10月号

奥特曼豪赌万亿算力,OpenAI估值万亿美元 | 新智元ASI产业图谱10月号

奥特曼正在用万亿美金的算力豪赌,试图买下全球GPU来喂饱「增长黑洞」。为什么AI竞争的终局不是模型,而是算力?

来自主题: AI资讯
5870 点击    2025-11-03 09:49
世界模型可单GPU秒级生成了?厦大、腾讯开源FlashWorld,效果惊艳、免费体验

世界模型可单GPU秒级生成了?厦大、腾讯开源FlashWorld,效果惊艳、免费体验

世界模型可单GPU秒级生成了?厦大、腾讯开源FlashWorld,效果惊艳、免费体验

厦门大学和腾讯合作的最新论文《FlashWorld: High-quality 3D Scene Generation within Seconds》获得了海内外的广泛关注,在当日 Huggingface Daily Paper 榜单位列第一,并在 X 上获得 AK、Midjourney 创始人、SuperSplat 创始人等 AI 大佬点赞转发。

来自主题: AI技术研报
6392 点击    2025-10-31 10:27
英伟达,全球首个5万亿美元AI公司诞生!「GPU帝国」超日本德国GDP

英伟达,全球首个5万亿美元AI公司诞生!「GPU帝国」超日本德国GDP

英伟达,全球首个5万亿美元AI公司诞生!「GPU帝国」超日本德国GDP

今夜,英伟达再次创造历史!受GTC大会的影响,英伟达股价上涨4.15%,成为首家市值突破5万亿美元的AI公司!这是一个前所未有的里程碑,不仅是英伟达,不仅是GPU芯片,更是AI时代的里程碑。

来自主题: AI资讯
9116 点击    2025-10-30 09:22
兄弟俩用开源对抗AI训练垄断,还顺手帮模型们修了一堆Bug

兄弟俩用开源对抗AI训练垄断,还顺手帮模型们修了一堆Bug

兄弟俩用开源对抗AI训练垄断,还顺手帮模型们修了一堆Bug

2023 年的秋天,当全世界都在为 ChatGPT 和大语言模型疯狂的时候,远在澳大利亚悉尼的一对兄弟却在为一个看似简单的问题发愁:为什么微调一个开源模型要花这么长时间,还要用那么昂贵的 GPU?

来自主题: AI资讯
9653 点击    2025-10-28 10:40
甲骨文推出全球最大AI超算,作为OpenAI「星际之门」算力核心

甲骨文推出全球最大AI超算,作为OpenAI「星际之门」算力核心

甲骨文推出全球最大AI超算,作为OpenAI「星际之门」算力核心

甲骨文于上周发布全球最大云端AI超级计算机「OCI Zettascale10」,由80万块NVIDIA GPU组成,峰值算力高达16 ZettaFLOPS,成为OpenAI「星际之门」集群的算力核心。其独创Acceleron RoCE网络实现GPU间高效互联,显著提升性能与能效。该系统象征甲骨文在AI基础设施竞争中的强势布局。

来自主题: AI资讯
9263 点击    2025-10-21 12:07
Meta用40万个GPU小时做了一个实验,只为弄清强化学习Scaling Law

Meta用40万个GPU小时做了一个实验,只为弄清强化学习Scaling Law

Meta用40万个GPU小时做了一个实验,只为弄清强化学习Scaling Law

在 LLM 领域,扩大强化学习算力规模正在成为一个关键的研究范式。但要想弄清楚 RL 的 Scaling Law 具体是什么样子,还有几个关键问题悬而未决:如何 scale?scale 什么是有价值的?RL 真的能如预期般 scale 吗?

来自主题: AI技术研报
9117 点击    2025-10-19 17:54