AI资讯新闻榜单内容搜索-DeepSeek-R

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: DeepSeek-R
字节Seed用化学思想搞AI,把DeepSeek-R1的脑回路拆成了分子结构

字节Seed用化学思想搞AI,把DeepSeek-R1的脑回路拆成了分子结构

字节Seed用化学思想搞AI,把DeepSeek-R1的脑回路拆成了分子结构

字节Seed都开始用化学思想搞大模型了——深度推理是共价键、自我反思是氢键、自我探索是范德华力?!

来自主题: AI技术研报
9041 点击    2026-02-24 15:37
一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」

一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」

一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」

近日,微软Bing Ads与DKI团队发表论文《AdNanny: One Reasoning LLM for All Offline Ads Recommendation Tasks》,宣布基于DeepSeek-R1 671B打造了统一的离线推理中枢AdNanny,用单一模型承载所有离线任务。这标志着从维护一系列任务特定模型,转向部署一个统一的、推理中心化的基础模型,从

来自主题: AI技术研报
8371 点击    2026-02-18 13:29
ICLR 2026|UIUC:一行代码彻底解决LLM推理的过度思考!

ICLR 2026|UIUC:一行代码彻底解决LLM推理的过度思考!

ICLR 2026|UIUC:一行代码彻底解决LLM推理的过度思考!

2025 年 1 月 20 日,DeepSeek 发布了推理大模型 DeepSeek-R1,在学术界和工业界引发了对大模型强化学习方法的广泛关注与研究热潮。 研究者发现,在数学推理等具有明确答案的任务

来自主题: AI技术研报
6173 点击    2026-02-08 11:52
DeepSeek-R1推理智能从哪儿来?谷歌新研究:模型内心多个角色吵翻了

DeepSeek-R1推理智能从哪儿来?谷歌新研究:模型内心多个角色吵翻了

DeepSeek-R1推理智能从哪儿来?谷歌新研究:模型内心多个角色吵翻了

过去两年,大模型的推理能力出现了一次明显的跃迁。在数学、逻辑、多步规划等复杂任务上,推理模型如 OpenAI 的 o 系列、DeepSeek-R1、QwQ-32B,开始稳定拉开与传统指令微调模型的差距。直观来看,它们似乎只是思考得更久了:更长的 Chain-of-Thought、更高的 test-time compute,成为最常被引用的解释。

来自主题: AI技术研报
5991 点击    2026-01-26 15:02
R1一周年,DeepSeek Model 1悄然现身

R1一周年,DeepSeek Model 1悄然现身

R1一周年,DeepSeek Model 1悄然现身

2025 年 1 月 20 日,DeepSeek(深度求索)正式发布了 DeepSeek-R1 模型,并由此开启了新的开源 LLM 时代。在 Hugging Face 刚刚发布的《「DeepSeek 时刻」一周年记》博客中,DeepSeek-R1 也是该平台上获赞最多的模型。

来自主题: AI资讯
10243 点击    2026-01-21 09:51
挑战GRPO,英伟达提出GDPO,专攻多奖励优化

挑战GRPO,英伟达提出GDPO,专攻多奖励优化

挑战GRPO,英伟达提出GDPO,专攻多奖励优化

GRPO 是促使 DeepSeek-R1 成功的基础技术之一。最近一两年,GRPO 及其变体因其高效性和简洁性,已成为业内广泛采用的强化学习算法。

来自主题: AI技术研报
7364 点击    2026-01-12 09:34
一年后,DeepSeek-R1的每token成本降到了原来的1/32

一年后,DeepSeek-R1的每token成本降到了原来的1/32

一年后,DeepSeek-R1的每token成本降到了原来的1/32

几天前,DeepSeek 毫无预兆地更新了 R1 论文,将原有的 22 页增加到了现在的 86 页。新版本充实了更多细节内容,包括首次公开训练全路径,即从冷启动、训练导向 RL、拒绝采样与再微调到全场景对齐 RL 的四阶段 pipeline,以及「Aha Moment」的数据化验证等等。

来自主题: AI技术研报
7583 点击    2026-01-10 17:02
经验记忆黑科技:LightSearcher让AI工具调用减39.6%、推理快48.6%

经验记忆黑科技:LightSearcher让AI工具调用减39.6%、推理快48.6%

经验记忆黑科技:LightSearcher让AI工具调用减39.6%、推理快48.6%

如今,以 DeepSeek-R1 为代表的深度思考大模型能够处理复杂的推理任务,而DeepSearch 作为深度思考大模型的核心搜索器,在推理过程中通过迭代调用外部搜索工具,访问参数边界之外的最新、领域特定知识,从而提升推理的深度和事实可靠性。

来自主题: AI技术研报
6287 点击    2025-12-18 09:46
啊?微博7800美元训的大模型,数学能力超了DeepSeek-R1

啊?微博7800美元训的大模型,数学能力超了DeepSeek-R1

啊?微博7800美元训的大模型,数学能力超了DeepSeek-R1

近日,微博正式发布首个自研开源大模型VibeThinker,这个仅拥有15亿参数的“轻量级选手”,在国际顶级数学竞赛基准测试上击败了参数量是其数百倍的、高达6710亿的DeepSeek R1模型。

来自主题: AI资讯
8052 点击    2025-11-18 16:34
当AI重新定义「科研影响力」:一场关于CSRankings的反思与重塑

当AI重新定义「科研影响力」:一场关于CSRankings的反思与重塑

当AI重新定义「科研影响力」:一场关于CSRankings的反思与重塑

在计算机科学领域, CSRankings 曾被视为一次划时代的改进。它摒弃了早期诸如 USNews 那样依赖调查问卷的主观排名体系,转而以论文发表数量这一客观指标来评估各大学的科研实力。

来自主题: AI资讯
7206 点击    2025-11-15 17:08