AI资讯新闻榜单内容搜索-Blackwell

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Blackwell
DeepSeek做大→Mega MoE,Tri Dao团队加快→SonicMoE

DeepSeek做大→Mega MoE,Tri Dao团队加快→SonicMoE

DeepSeek做大→Mega MoE,Tri Dao团队加快→SonicMoE

近日,由普林斯顿大学 Tri Dao(FlashAttention 的一作)和加州大学伯克利分校 Ion Stoica 领导的一个联合研究团队也做出了一个超快的索尼克:SonicMoE。据介绍,SonicMoE 能在英伟达 Blackwell GPU 上以峰值吞吐量运行!并且运算性能超过了 DeepSeek 之前开源并引发巨大轰动的 DeepGEMM。

来自主题: AI技术研报
7647 点击    2026-05-04 10:17
不换GPU,性能飙升2.8倍!英伟达用软件暴打摩尔定律

不换GPU,性能飙升2.8倍!英伟达用软件暴打摩尔定律

不换GPU,性能飙升2.8倍!英伟达用软件暴打摩尔定律

MoE模型的稀疏激活本是优势,却常陷通信瓶颈。NVIDIA以软件为利剑,通过程序化依赖启动和全对全通信革新,在三个月内将GB200的单GPU吞吐提升2.8倍,真正释放Blackwell硬件潜力。

来自主题: AI技术研报
8980 点击    2026-04-28 10:09
奇点临近!全球AI终局战,只剩OpenAI和Anthropic的双人舞

奇点临近!全球AI终局战,只剩OpenAI和Anthropic的双人舞

奇点临近!全球AI终局战,只剩OpenAI和Anthropic的双人舞

全球AI终局战,牌桌上只剩OpenAI和Anthropic了!现在,两家已经开启了指数级双雄争霸,GPT-5.5救了老黄,Blackwell重锤反击。面对30GW的算力对决和步骤坍塌,谁能拿稳AGI的头等舱门票?

来自主题: AI资讯
7565 点击    2026-04-27 15:17
让AI设计芯片,Cognichip获 6000 万美元投资!

让AI设计芯片,Cognichip获 6000 万美元投资!

让AI设计芯片,Cognichip获 6000 万美元投资!

Cognichip正在构建一个深度学习模型,以便在工程师设计新计算机芯片的过程中为其提供协助。它试图解决的问题是该行业数十年来一直面临的一个难题:芯片设计极其复杂、成本高昂且速度缓慢。先进的芯片从概念设计到大规模生产需要三到五年的时间;仅设计阶段就可能长达两年。想想看,英伟达最新的 GPU 系列Blackwell就包含1040 亿个晶体管——要排列这么多晶体管可不是一件容易的事。

来自主题: AI资讯
8033 点击    2026-04-25 09:44
Cursor 凌晨自曝黑科技:重写 MoE 生成机制,Blackwell 推理性能直接翻倍!网友:直接榨干B200最后一滴带宽!

Cursor 凌晨自曝黑科技:重写 MoE 生成机制,Blackwell 推理性能直接翻倍!网友:直接榨干B200最后一滴带宽!

Cursor 凌晨自曝黑科技:重写 MoE 生成机制,Blackwell 推理性能直接翻倍!网友:直接榨干B200最后一滴带宽!

今天早上,Cursor 在X上发布一条推文:“我们重建了 MoE 模型在 Blackwell GPU 上生成 Tokens 的方式,导致推理速度快了 1.84 倍。”

来自主题: AI资讯
10311 点击    2026-04-08 10:24
Sand.ai重磅更新MagiAttention,正在定义分布式Attention性能新标杆

Sand.ai重磅更新MagiAttention,正在定义分布式Attention性能新标杆

Sand.ai重磅更新MagiAttention,正在定义分布式Attention性能新标杆

2025 年 4 月,Sand.ai 开源了 MagiAttention v1.0.0,定义了下一代分布式 Attention 的全新设计和系统框架。历经一年的深耕,今天 Sand.ai 正式发布:MagiAttention v1.1.0,以更成熟的原生算子组件,重新定义 Hopper 与 Blackwell 两代架构分布式 Attention 的性能上限。

来自主题: AI技术研报
6361 点击    2026-03-24 16:31
FlashAttention-4正式发布:算法流水线大改,矩阵乘法级速度

FlashAttention-4正式发布:算法流水线大改,矩阵乘法级速度

FlashAttention-4正式发布:算法流水线大改,矩阵乘法级速度

近日,深度学习领域重要底层优化技术 FlashAttention 迎来大版本更新。FlashAttention 核心作者、普林斯顿大学助理教授 Tri Dao 表示,在 Blackwell GPU 上,即使瓶颈截然不同,注意力机制的执行速度现在也几乎与矩阵乘法一样快了!

来自主题: AI技术研报
9973 点击    2026-03-06 15:30
突发!英伟达H200对华解禁,老黄赢麻了

突发!英伟达H200对华解禁,老黄赢麻了

突发!英伟达H200对华解禁,老黄赢麻了

英伟达H200终于获批了!美国以「代差优势」为前提,放行上一代旗舰芯片,并顺手抽走25%「回扣」。其性能是H20的6倍,却仍落后于最新Blackwell架构。

来自主题: AI资讯
9886 点击    2025-12-10 10:24
刚刚H200获批出口中国!英伟达GPU:迎来新争议

刚刚H200获批出口中国!英伟达GPU:迎来新争议

刚刚H200获批出口中国!英伟达GPU:迎来新争议

据特朗普最新社交媒体消息透露,美国政府计划允许英伟达(Nvidia)对华出口其H200芯片,这是这家AI芯片设计公司为维持其在世界第二大经济体的市场准入所做努力的最新转折。该芯片的性能高于此前获准销售的H20,但不如该公司今年发布的顶级Blackwell产品,也不如明年将推出的Rubin系列芯片。

来自主题: AI资讯
9943 点击    2025-12-09 10:51