AI资讯新闻榜单内容搜索-deepseek-r

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: deepseek-r
DeepSeek-R1「内心世界」首次曝光!AI显微镜破解R1大脑,发现神秘推理机制

DeepSeek-R1「内心世界」首次曝光!AI显微镜破解R1大脑,发现神秘推理机制

DeepSeek-R1「内心世界」首次曝光!AI显微镜破解R1大脑,发现神秘推理机制

推理模型与普通大语言模型有何本质不同?它们为何会「胡言乱语」甚至「故意撒谎」?Goodfire最新发布的开源稀疏自编码器(SAEs),基于DeepSeek-R1模型,为我们提供了一把「AI显微镜」,窥探推理模型的内心世界。

来自主题: AI技术研报
5575 点击    2025-04-19 15:29
142页重磅,DeepSeek-R1的"甜蜜点",开创了一个崭新的研究领域“思维学”。 | 最新

142页重磅,DeepSeek-R1的"甜蜜点",开创了一个崭新的研究领域“思维学”。 | 最新

142页重磅,DeepSeek-R1的"甜蜜点",开创了一个崭新的研究领域“思维学”。 | 最新

这是一份142页的研究论文,本文深入解析了大型推理模型DeepSeek-R1如何通过"思考"解决问题。研究揭示了模型思维的结构化过程,以及每个问题都存在甜蜜点"最佳推理区间"的惊人发现。这标志着"思维学"这一新兴领域的诞生,为我们理解和优化AI推理能力提供了宝贵框架。

来自主题: AI技术研报
6732 点击    2025-04-17 14:26
用思维干预直接干预LRM内部推理,三种方式实现DeepSeek-R1有效控制。 | 最新

用思维干预直接干预LRM内部推理,三种方式实现DeepSeek-R1有效控制。 | 最新

用思维干预直接干预LRM内部推理,三种方式实现DeepSeek-R1有效控制。 | 最新

推理增强型大语言模型LRM(如OpenAI的o1、DeepSeek R1和Google的Flash Thinking)通过在生成最终答案前显式生成中间推理步骤,在复杂问题解决方面展现了卓越性能。然而,对这类模型的控制仍主要依赖于传统的输入级操作,如提示工程(Prompt Engineering)等方法,而你可能已经发现这些方法存在局限性。

来自主题: AI技术研报
1564 点击    2025-04-08 08:50
在DeepSearch中用DeepSeek-R1来做动作决策会更好么?

在DeepSearch中用DeepSeek-R1来做动作决策会更好么?

在DeepSearch中用DeepSeek-R1来做动作决策会更好么?

众所周知,DeepSeek R1 这种模型在推理任务上很能打,尤其是在数学和编程这些逻辑性强的领域。那么我们能直接把这种强大的推理能力搬到 DeepSearch 这种需要动态规划、多轮交互的深度搜索场景里吗?

来自主题: AI技术研报
5564 点击    2025-04-02 14:40
啪啪打脸!Search-R1让DeepSeek-R1实时获取信息,实现26%提升的争议与启发 | 最新

啪啪打脸!Search-R1让DeepSeek-R1实时获取信息,实现26%提升的争议与启发 | 最新

啪啪打脸!Search-R1让DeepSeek-R1实时获取信息,实现26%提升的争议与启发 | 最新

本文介绍了Search-R1技术,这是一项通过强化学习训练大语言模型进行推理并利用搜索引擎的创新方法。实验表明,Search-R1在Qwen2.5-7B模型上实现了26%的性能提升,使模型能够实时获取准确信息并进行多轮推理。本文详细分析了Search-R1的工作原理、训练方法和实验结果,为AI产品开发者提供了重要参考。

来自主题: AI技术研报
9008 点击    2025-03-20 09:48
32B IOI奥赛击败DeepSeek-R1!Open R1开源复刻第三弹,下一步R1-Zero

32B IOI奥赛击败DeepSeek-R1!Open R1开源复刻第三弹,下一步R1-Zero

32B IOI奥赛击败DeepSeek-R1!Open R1开源复刻第三弹,下一步R1-Zero

Hugging Face的Open R1重磅升级,7B击败Claude 3.7 Sonnet等一众前沿模型。凭借CodeForces-CoTs数据集的10万高质量样本、IOI难题的严苛测试,以及模拟真实竞赛的提交策略优化,这款模型展现了惊艳的性能。

来自主题: AI资讯
7726 点击    2025-03-12 18:35
32B击败DeepSeek-R1、o3-mini,成本暴降100倍!GRPO让小模型称霸推理

32B击败DeepSeek-R1、o3-mini,成本暴降100倍!GRPO让小模型称霸推理

32B击败DeepSeek-R1、o3-mini,成本暴降100倍!GRPO让小模型称霸推理

32B小模型在超硬核「时间线索」推理谜题中,一举击败了o1、o3-mini、DeepSeek-R1,核心秘密武器便是GRPO,最关键的是训练成本暴降100倍。

来自主题: AI技术研报
8949 点击    2025-03-09 10:32
7B级形式化推理与验证小模型,媲美满血版DeepSeek-R1,全面开源!

7B级形式化推理与验证小模型,媲美满血版DeepSeek-R1,全面开源!

7B级形式化推理与验证小模型,媲美满血版DeepSeek-R1,全面开源!

随着 DeepSeek-R1 的流行与 AI4Math 研究的深入,大模型在辅助形式化证明写作方面的需求日益增长。作为数学推理最直接的应用场景,形式化推理与验证(formal reasoning and verification),也获得持续关注。

来自主题: AI技术研报
4480 点击    2025-03-09 10:31
DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek-R1 作为 AI 产业颠覆式创新的代表轰动了业界,特别是其训练与推理成本仅为同等性能大模型的数十分之一。多头潜在注意力网络(Multi-head Latent Attention, MLA)是其经济推理架构的核心之一,通过对键值缓存进行低秩压缩,显著降低推理成本 [1]。

来自主题: AI技术研报
4712 点击    2025-03-07 10:24