AI资讯新闻榜单内容搜索-NVIDIA

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: NVIDIA
刚刚H200获批出口中国!英伟达GPU:迎来新争议

刚刚H200获批出口中国!英伟达GPU:迎来新争议

刚刚H200获批出口中国!英伟达GPU:迎来新争议

据特朗普最新社交媒体消息透露,美国政府计划允许英伟达(Nvidia)对华出口其H200芯片,这是这家AI芯片设计公司为维持其在世界第二大经济体的市场准入所做努力的最新转折。该芯片的性能高于此前获准销售的H20,但不如该公司今年发布的顶级Blackwell产品,也不如明年将推出的Rubin系列芯片。

来自主题: AI资讯
8349 点击    2025-12-09 10:51
刚刚,英伟达CUDA迎来史上最大更新!

刚刚,英伟达CUDA迎来史上最大更新!

刚刚,英伟达CUDA迎来史上最大更新!

几个小时前,NVIDIA CUDA Toolkit 13.1 正式发布,英伟达官方表示:「这是 20 年来最大的一次更新。」CUDA Tile 是 NVIDIA CUDA Toolkit 13.1 最核心的更新。它是一种基于 tile 的编程模型,能够以更高的层次编写算法,并抽象化专用硬件(例如张量核心)的细节。

来自主题: AI资讯
8291 点击    2025-12-06 21:48
刚刚,2026年英伟达奖学金名单公布,华人博士生霸榜占比80%

刚刚,2026年英伟达奖学金名单公布,华人博士生霸榜占比80%

刚刚,2026年英伟达奖学金名单公布,华人博士生霸榜占比80%

一年一度的英伟达奖学金出炉了。二十五年来,英伟达研究生奖学金计划(NVIDIA Graduate Fellowship Program)一直为研究生提供与英伟达技术相关的杰出工作支持。

来自主题: AI资讯
7886 点击    2025-12-06 10:56
黄仁勋送马斯克的3万块个人超算,要借Mac Studio才能流畅运行?首批真实体验来了

黄仁勋送马斯克的3万块个人超算,要借Mac Studio才能流畅运行?首批真实体验来了

黄仁勋送马斯克的3万块个人超算,要借Mac Studio才能流畅运行?首批真实体验来了

2000 亿参数、3 万块人民币、128GB 内存,这台被称作「全球最小超算」的机器,真的能让我们在桌面上跑起大模型吗? 向左滑动查看更多内容,图片来自 x@nvidia 前段时间,黄仁勋正式把这台超

来自主题: AI资讯
8027 点击    2025-11-23 19:43
英伟达、DeepSeek集体跟进!18个月前被忽视,如今统治AI推理

英伟达、DeepSeek集体跟进!18个月前被忽视,如今统治AI推理

英伟达、DeepSeek集体跟进!18个月前被忽视,如今统治AI推理

2024年,加州大学圣地亚哥分校「Hao AI Lab」提出了DistServe的解耦推理理念,短短一年多时间,迅速从实验室概念成长为行业标准,被NVIDIA、vLLM等主流大模型推理框架采用,预示着AI正迈向「模块化智能」的新时代。

来自主题: AI技术研报
8742 点击    2025-11-09 15:37
一场直播,10万人被骗!「AI黄仁勋」比真人火8倍

一场直播,10万人被骗!「AI黄仁勋」比真人火8倍

一场直播,10万人被骗!「AI黄仁勋」比真人火8倍

论直播,AI版黄仁勋,竟碾压了本尊?周三的GTC 2025大会上,黄仁勋在华盛顿登台激情演讲。但怪事发生了。另一个打着「NVIDIA LIVE」旗号的直播,却悄悄聚集了近10万观众。

来自主题: AI资讯
9162 点击    2025-11-01 13:10
让你的Mac用上DeepSeek-OCR:一个从0到1的开源适配之旅

让你的Mac用上DeepSeek-OCR:一个从0到1的开源适配之旅

让你的Mac用上DeepSeek-OCR:一个从0到1的开源适配之旅

DeepSeek-OCR这段时间非常火,但官方开源的文件是“按 NVIDIA/CUDA 习惯写的 Linux 版推理脚本+模型权重”,而不是“跨设备跨后端”的通吃实现,因此无法直接在苹果设备上运行,对于Mac用户来说,在许多新模型诞生的第一时间,往往只能望“模”兴叹。

来自主题: AI技术研报
7803 点击    2025-10-29 17:10
NVIDIA港大MIT联合推出Fast-dLLM v2:端到端吞吐量提升2.5倍

NVIDIA港大MIT联合推出Fast-dLLM v2:端到端吞吐量提升2.5倍

NVIDIA港大MIT联合推出Fast-dLLM v2:端到端吞吐量提升2.5倍

自回归(AR)大语言模型逐 token 顺序解码的范式限制了推理效率;扩散 LLM(dLLM)以并行生成见长,但过去难以稳定跑赢自回归(AR)模型,尤其是在 KV Cache 复用、和 可变长度 支持上仍存挑战。

来自主题: AI技术研报
7435 点击    2025-10-27 16:46
甲骨文推出全球最大AI超算,作为OpenAI「星际之门」算力核心

甲骨文推出全球最大AI超算,作为OpenAI「星际之门」算力核心

甲骨文推出全球最大AI超算,作为OpenAI「星际之门」算力核心

甲骨文于上周发布全球最大云端AI超级计算机「OCI Zettascale10」,由80万块NVIDIA GPU组成,峰值算力高达16 ZettaFLOPS,成为OpenAI「星际之门」集群的算力核心。其独创Acceleron RoCE网络实现GPU间高效互联,显著提升性能与能效。该系统象征甲骨文在AI基础设施竞争中的强势布局。

来自主题: AI资讯
9274 点击    2025-10-21 12:07