AI资讯新闻榜单内容搜索-o1

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: o1
DeepSeek们的成本,是怎么计算的?

DeepSeek们的成本,是怎么计算的?

DeepSeek们的成本,是怎么计算的?

大模型混战,一边卷能力,一边卷“低价”。 DeepSeek彻底让全球都坐不住了。 昨天,马斯克携“地球上最聪明的AI”——Gork 3在直播中亮相,自称其“推理能力超越目前所有已知模型”,在推理-测试时间得分上,也好于DeepSeek R1、OpenAI o1。不久前,国民级应用微信宣布接入DeepSeek R1,正在灰度测试中,这一王炸组合被外界认为AI搜索领域要变天。

来自主题: AI资讯
6019 点击    2025-02-19 09:19
超过o1-mini、逼近o3-mini,DeepSeek-R1在新的贪吃蛇基准上拿下1801分

超过o1-mini、逼近o3-mini,DeepSeek-R1在新的贪吃蛇基准上拿下1801分

超过o1-mini、逼近o3-mini,DeepSeek-R1在新的贪吃蛇基准上拿下1801分

那么,DeepSeek-R1 的 ARC-AGI 成绩如何呢?根据 ARC Prize 发布的报告,R1 在 ARC-AGI-1 上的表现还赶不上 OpenAI 的 o1 系列模型,更别说 o3 系列了。但 DeepSeek-R1 也有自己的特有优势:成本低。

来自主题: AI技术研报
5981 点击    2025-02-17 17:47
DeepSeek缝合Claude,比单用R1/o1效果都好!GitHub揽星3k

DeepSeek缝合Claude,比单用R1/o1效果都好!GitHub揽星3k

DeepSeek缝合Claude,比单用R1/o1效果都好!GitHub揽星3k

让DeepSeek代替Claude思考,缝合怪玩法火了。原因无它:比单独使用DeepSeek R1、Claude Sonnet 3.5、OpenAI o1模型的效果更好。DeepClaude应用本身100%免费且开源,在GitHub上已揽获3k星星(当然API要用自己的)。

来自主题: AI资讯
9328 点击    2025-02-14 14:44
清华一作1B暴打405B巨无霸,7B逆袭DeepSeek R1!测试时Scaling封神

清华一作1B暴打405B巨无霸,7B逆袭DeepSeek R1!测试时Scaling封神

清华一作1B暴打405B巨无霸,7B逆袭DeepSeek R1!测试时Scaling封神

【新智元导读】仅凭测试时Scaling,1B模型竟完胜405B!多机构联手巧妙应用计算最优TTS策略,不仅0.5B模型在数学任务上碾压GPT-4o,7B模型更是力压o1、DeepSeek R1这样的顶尖选手。

来自主题: AI技术研报
6811 点击    2025-02-13 14:18
推理模型新路线开源!与DeepSeek截然不同,抛弃思维链不用人类语言思考

推理模型新路线开源!与DeepSeek截然不同,抛弃思维链不用人类语言思考

推理模型新路线开源!与DeepSeek截然不同,抛弃思维链不用人类语言思考

开源推理大模型新架构来了,采用与Deepseek-R1/OpenAI o1截然不同的路线: 抛弃长思维链和人类的语言,直接在连续的高维潜空间用隐藏状态推理,可自适应地花费更多计算来思考更长时间。

来自主题: AI技术研报
6326 点击    2025-02-12 16:42
8卡32B模型超越o1预览版、DeepSeek V3,普林斯顿、北大提出层次化RL推理新范式

8卡32B模型超越o1预览版、DeepSeek V3,普林斯顿、北大提出层次化RL推理新范式

8卡32B模型超越o1预览版、DeepSeek V3,普林斯顿、北大提出层次化RL推理新范式

推理大语言模型(LLM),如 OpenAI 的 o1 系列、Google 的 Gemini、DeepSeek 和 Qwen-QwQ 等,通过模拟人类推理过程,在多个专业领域已超越人类专家,并通过延长推理时间提高准确性。推理模型的核心技术包括强化学习(Reinforcement Learning)和推理规模(Inference scaling)。

来自主题: AI技术研报
5531 点击    2025-02-12 11:33
4500美元复刻DeepSeek神话,1.5B战胜o1-preview只用RL!训练细节全公开

4500美元复刻DeepSeek神话,1.5B战胜o1-preview只用RL!训练细节全公开

4500美元复刻DeepSeek神话,1.5B战胜o1-preview只用RL!训练细节全公开

只用4500美元成本,就能成功复现DeepSeek?就在刚刚,UC伯克利团队只用简单的RL微调,就训出了DeepScaleR-1.5B-Preview,15亿参数模型直接吊打o1-preview,震撼业内。

来自主题: AI资讯
6906 点击    2025-02-11 15:26
人大刘勇团队「慢思考」机理分析:从雪球误差到正确推理概率

人大刘勇团队「慢思考」机理分析:从雪球误差到正确推理概率

人大刘勇团队「慢思考」机理分析:从雪球误差到正确推理概率

「慢思考」(Slow-Thinking),也被称为测试时扩展(Test-Time Scaling),成为提升 LLM 推理能力的新方向。近年来,OpenAI 的 o1 [4]、DeepSeek 的 R1 [5] 以及 Qwen 的 QwQ [6] 等顶尖推理大模型的发布,进一步印证了推理过程的扩展是优化 LLM 逻辑能力的有效路径。

来自主题: AI技术研报
3949 点击    2025-02-10 17:04
OpenAI内部模型曝光!编程能力跻身全球Top50程序员,年底不再有人类对手

OpenAI内部模型曝光!编程能力跻身全球Top50程序员,年底不再有人类对手

OpenAI内部模型曝光!编程能力跻身全球Top50程序员,年底不再有人类对手

除了o1/o3,OpenAI另一个尚未公开的内部推理模型曝光了。爆料者正是CEO奥特曼本人。据他透露,与全球顶尖程序员相比,当前这一内部模型的编程能力已达Top50,甚至今年年底将排名第一。

来自主题: AI资讯
7784 点击    2025-02-09 23:09