AI资讯新闻榜单内容搜索-AI推理

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: AI推理
100亿H20没卖出,英伟达狂赚1000多亿破纪录!

100亿H20没卖出,英伟达狂赚1000多亿破纪录!

100亿H20没卖出,英伟达狂赚1000多亿破纪录!

英伟达赚麻了!AI推理全面爆发,芯片巨头2026财年Q1营收达441亿美元,净利润飙升至188亿美元,双双远超市场预期!

来自主题: AI资讯
8890 点击    2025-05-29 18:22
清华创业团队打造!国内首个专注AI推理Serverless GPU平台

清华创业团队打造!国内首个专注AI推理Serverless GPU平台

清华创业团队打造!国内首个专注AI推理Serverless GPU平台

你有没有遇到过这样的算力困境:买了 GPU,用不了几次就闲置烧钱,偶尔想用的时候却一卡难求?

来自主题: AI技术研报
4662 点击    2025-05-28 15:09
英伟达再破世界纪录,每秒1000 token!刚刚,全球最快Llama 4诞生

英伟达再破世界纪录,每秒1000 token!刚刚,全球最快Llama 4诞生

英伟达再破世界纪录,每秒1000 token!刚刚,全球最快Llama 4诞生

英伟达,亲手打破了自己的天花板!刚刚,Blackwell单用户每秒突破了1000个token,在Llama 4 Maverick模型上,再次创下了AI推理的世界纪录。在官博中,团队放出了不少绝密武器。

来自主题: AI资讯
8816 点击    2025-05-23 15:58
华为曝光两大黑科技!打破推理延迟魔咒,大模型从此「秒回」

华为曝光两大黑科技!打破推理延迟魔咒,大模型从此「秒回」

华为曝光两大黑科技!打破推理延迟魔咒,大模型从此「秒回」

刚刚,昇腾两大技术创新,突破速度瓶颈重塑AI推理。FusionSpec创新的框架设计配合昇腾强大的计算能力,将投机推理框架耗时降至毫秒级,打破延迟魔咒。OptiQuant支持灵活量化,让推理性价比更高。

来自主题: AI技术研报
6875 点击    2025-05-21 14:30
OpenAI自曝:AI推理砸钱越多,碾压人类越狠!

OpenAI自曝:AI推理砸钱越多,碾压人类越狠!

OpenAI自曝:AI推理砸钱越多,碾压人类越狠!

你以为GPT-4已经够强了?那只是AI的「预热阶段」。真正的革命,才刚刚开始——推理模型的时代,来了。这场范式革命,正深刻影响企业命运和个人前途。这不是一场模型参数的升级,而是一次认知逻辑的彻底重写。

来自主题: AI资讯
6735 点击    2025-05-18 15:17
360亿AI芯片独角兽,裁员15%

360亿AI芯片独角兽,裁员15%

360亿AI芯片独角兽,裁员15%

据EETimes报道,美国AI芯片独角兽SambaNova Systems近期宣布将裁员77人,约占其500名员工的15%。此次裁员正值该公司偏离最初目标,放弃做AI训练,转向完全专注于AI推理。

来自主题: AI资讯
7727 点击    2025-05-10 10:08
Hugging Face论文热榜第一!AI推理新方法,打破强化学习天花板,全面开源

Hugging Face论文热榜第一!AI推理新方法,打破强化学习天花板,全面开源

Hugging Face论文热榜第一!AI推理新方法,打破强化学习天花板,全面开源

本文提出 LUFFY 强化学习方法,一种结合离线专家示范与在线强化学习的推理训练范式,打破了“模仿学习只学不练、强化学习只练不学”的传统壁垒。LUFFY 通过将高质量专家示范制定为一种离策略指引,并引入混合策略优化与策略塑形机制,稳定地实现了在保持探索能力的同时高效吸收强者经验。

来自主题: AI技术研报
6425 点击    2025-04-27 09:22
142页重磅,DeepSeek-R1的"甜蜜点",开创了一个崭新的研究领域“思维学”。 | 最新

142页重磅,DeepSeek-R1的"甜蜜点",开创了一个崭新的研究领域“思维学”。 | 最新

142页重磅,DeepSeek-R1的"甜蜜点",开创了一个崭新的研究领域“思维学”。 | 最新

这是一份142页的研究论文,本文深入解析了大型推理模型DeepSeek-R1如何通过"思考"解决问题。研究揭示了模型思维的结构化过程,以及每个问题都存在甜蜜点"最佳推理区间"的惊人发现。这标志着"思维学"这一新兴领域的诞生,为我们理解和优化AI推理能力提供了宝贵框架。

来自主题: AI技术研报
6899 点击    2025-04-17 14:26
推理AI「脑补」成瘾,废话拉满!马里兰华人学霸揭开内幕

推理AI「脑补」成瘾,废话拉满!马里兰华人学霸揭开内幕

推理AI「脑补」成瘾,废话拉满!马里兰华人学霸揭开内幕

研究发现,推理模型(如DeepSeek-R1、o1)遇到「缺失前提」(MiP)的问题时,这些模型往往表现失常:回答长度激增、计算资源浪费。本文基于马里兰大学和利哈伊大学的最新研究,深入剖析推理模型在MiP问题上的「过度思考」现象,揭示其背后的行为模式,带你一窥当前AI推理能力的真实边界。

来自主题: AI技术研报
5831 点击    2025-04-14 14:05