AI资讯新闻榜单内容搜索-GPU

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: GPU
每2秒吃透一道高数大题!华为终于揭秘准万亿MoE昇腾训练系统全流程

每2秒吃透一道高数大题!华为终于揭秘准万亿MoE昇腾训练系统全流程

每2秒吃透一道高数大题!华为终于揭秘准万亿MoE昇腾训练系统全流程

现在,请大家一起数一下“1”、“2”。OK,短短2秒钟时间,一个准万亿MoE大模型就已经吃透如何解一道高等数学大题了!而且啊,这个大模型还是不用GPU来训练,全流程都是大写的“国产”的那种。

来自主题: AI技术研报
8354 点击    2025-05-31 14:11
AMD 2025年GPU战略!

AMD 2025年GPU战略!

AMD 2025年GPU战略!

2025年,AMD将推出全新的GPU路线图,瞄准两个竞争激烈的领域:游戏和AI。该公司正在推出一系列重大进展,从简化的产品命名和激进的定价,到尖端的架构和深度AI集成,这表明它决心在多个市场上缩小与英伟达的差距。

来自主题: AI资讯
8253 点击    2025-05-30 14:54
妈妈再也不用担心延迟了!斯坦福手搓Llama超级内核,推理仅需0.00068秒

妈妈再也不用担心延迟了!斯坦福手搓Llama超级内核,推理仅需0.00068秒

妈妈再也不用担心延迟了!斯坦福手搓Llama超级内核,推理仅需0.00068秒

斯坦福Hazy实验室推出新一代低延迟推理引擎「Megakernel」,将Llama-1B模型前向传播完整融合进单一GPU内核,实现推理时间低于1毫秒。在B200上每次推理仅需680微秒,比vLLM快3.5倍。

来自主题: AI技术研报
8514 点击    2025-05-30 12:36
100亿H20没卖出,英伟达狂赚1000多亿破纪录!

100亿H20没卖出,英伟达狂赚1000多亿破纪录!

100亿H20没卖出,英伟达狂赚1000多亿破纪录!

英伟达赚麻了!AI推理全面爆发,芯片巨头2026财年Q1营收达441亿美元,净利润飙升至188亿美元,双双远超市场预期!

来自主题: AI资讯
9452 点击    2025-05-29 18:22
还得是华为!Pangu Ultra MoE架构:不用GPU,你也可以这样训练准万亿MoE大模型

还得是华为!Pangu Ultra MoE架构:不用GPU,你也可以这样训练准万亿MoE大模型

还得是华为!Pangu Ultra MoE架构:不用GPU,你也可以这样训练准万亿MoE大模型

Pangu Ultra MoE 是一个全流程在昇腾 NPU 上训练的准万亿 MoE 模型,此前发布了英文技术报告[1]。最近华为盘古团队发布了 Pangu Ultra MoE 模型架构与训练方法的中文技术报告,进一步披露了这个模型的细节。

来自主题: AI技术研报
8585 点击    2025-05-29 16:47
清华创业团队打造!国内首个专注AI推理Serverless GPU平台

清华创业团队打造!国内首个专注AI推理Serverless GPU平台

清华创业团队打造!国内首个专注AI推理Serverless GPU平台

你有没有遇到过这样的算力困境:买了 GPU,用不了几次就闲置烧钱,偶尔想用的时候却一卡难求?

来自主题: AI技术研报
5338 点击    2025-05-28 15:09
Meta「轻量级」KernelLLM颠覆GPU内核生成,8B参数碾压GPT-4o

Meta「轻量级」KernelLLM颠覆GPU内核生成,8B参数碾压GPT-4o

Meta「轻量级」KernelLLM颠覆GPU内核生成,8B参数碾压GPT-4o

Meta推出KernelLLM,这个基于Llama 3.1微调的8B模型,竟能将PyTorch代码自动转换为高效Triton GPU内核。实测数据显示,它的单次推理性能超越GPT-4o和DeepSeek V3,多次生成时得分飙升。

来自主题: AI技术研报
6588 点击    2025-05-27 18:00
TPU vs GPU: 2025年会有何不同?

TPU vs GPU: 2025年会有何不同?

TPU vs GPU: 2025年会有何不同?

AI无处不在——从聊天机器人、推荐引擎到语音助手和ChatGPT或谷歌Gemini等工具。但在所有这些智能技术的背后,有一样东西经常被忽视:使这一切成为可能的硬件。

来自主题: AI技术研报
7849 点击    2025-05-27 11:21
秘塔AI推出“极速”模型,400 tokens/s,你搜索,我秒回

秘塔AI推出“极速”模型,400 tokens/s,你搜索,我秒回

秘塔AI推出“极速”模型,400 tokens/s,你搜索,我秒回

是的,秘塔AI搜索推出了全新“极速”模型。通过在GPU上进行kernel fusion,以及在CPU上进行动态编译优化,我们在单张H800 GPU上实现了最高400 tokens/秒的响应速度,大部分问题2秒内就能答完。

来自主题: AI资讯
9903 点击    2025-05-27 09:45
4000亿国产算力航母:芯片巨头合并超算巨头

4000亿国产算力航母:芯片巨头合并超算巨头

4000亿国产算力航母:芯片巨头合并超算巨头

中国算力巨震,海光信息、中科曙光两大巨头官宣拟合并!

来自主题: AI资讯
6482 点击    2025-05-26 15:07