AI资讯新闻榜单内容搜索-o1

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: o1
一手实测OpenAI新开源的GPT OSS,o1和GPT-4o都要过气了。

一手实测OpenAI新开源的GPT OSS,o1和GPT-4o都要过气了。

一手实测OpenAI新开源的GPT OSS,o1和GPT-4o都要过气了。

gpt-oss-120b 和 gpt-oss-20b OpenAI终于把开源的模型放出来了。 gpt-oss系列也是自GPT2以来,OpenAI首次开源的大语言模型。

来自主题: AI产品测评
6914 点击    2025-08-06 17:08
“神经-符号”融合规划器性能显著超越o1:借鉴人类运动学习机制|中国科学院磐石研发团队

“神经-符号”融合规划器性能显著超越o1:借鉴人类运动学习机制|中国科学院磐石研发团队

“神经-符号”融合规划器性能显著超越o1:借鉴人类运动学习机制|中国科学院磐石研发团队

科研er看过来!还在反复尝试材料组合方案,耗时又耗力? 新型“神经-符号”融合规划器直接帮你一键锁定高效又精准的科研智能规划。

来自主题: AI技术研报
6501 点击    2025-08-06 16:01
思维链监督和强化的图表推理,7B模型媲美闭源大尺寸模型

思维链监督和强化的图表推理,7B模型媲美闭源大尺寸模型

思维链监督和强化的图表推理,7B模型媲美闭源大尺寸模型

近期,随着OpenAI-o1/o3和Deepseek-R1的成功,基于强化学习的微调方法(R1-Style)在AI领域引起广泛关注。这些方法在数学推理和代码智能方面展现出色表现,但在通用多模态数据上的应用研究仍有待深入。

来自主题: AI技术研报
6501 点击    2025-08-01 16:08
SPIRAL:零和游戏自对弈成为语言模型推理训练的「免费午餐」

SPIRAL:零和游戏自对弈成为语言模型推理训练的「免费午餐」

SPIRAL:零和游戏自对弈成为语言模型推理训练的「免费午餐」

近年来,OpenAI o1 和 DeepSeek-R1 等模型的成功证明了强化学习能够显著提升语言模型的推理能力。通过基于结果的奖励机制,强化学习使模型能够发展出可泛化的推理策略,在复杂问题上取得了监督微调难以企及的进展。

来自主题: AI技术研报
4321 点击    2025-07-31 10:10
超越Claude 3.5和o1!8B模型靠「分层投票+测试时训练」逆袭

超越Claude 3.5和o1!8B模型靠「分层投票+测试时训练」逆袭

超越Claude 3.5和o1!8B模型靠「分层投票+测试时训练」逆袭

小时候完成月考测试后,老师会通过讲解考试卷中吃错题让同学们在未来取得好成绩。

来自主题: AI技术研报
7504 点击    2025-07-23 10:20
o1核心贡献者离职后首发声:AI是史上最强杠杆,超越人力、资本和代码

o1核心贡献者离职后首发声:AI是史上最强杠杆,超越人力、资本和代码

o1核心贡献者离职后首发声:AI是史上最强杠杆,超越人力、资本和代码

又一位离职OpenAI的核心研究员发声! 刚刚被曝加入Meta的Hyung Won Chung,分享了他对AI未来的深刻思考:人工智能正在成为有史以来最强大的杠杆机制。

来自主题: AI资讯
7652 点击    2025-07-18 14:28
数学题干带猫AI就不会了!错误率翻300%,DeepSeek、o1都不能幸免

数学题干带猫AI就不会了!错误率翻300%,DeepSeek、o1都不能幸免

数学题干带猫AI就不会了!错误率翻300%,DeepSeek、o1都不能幸免

大模型数学能力骤降,“罪魁祸首”是猫猫?只需在问题后加一句:有趣的事实是,猫一生绝大多数时间都在睡觉。

来自主题: AI资讯
5953 点击    2025-07-05 20:35
突破通用领域推理的瓶颈!清华NLP实验室强化学习新研究RLPR

突破通用领域推理的瓶颈!清华NLP实验室强化学习新研究RLPR

突破通用领域推理的瓶颈!清华NLP实验室强化学习新研究RLPR

Deepseek 的 R1、OpenAI 的 o1/o3 等推理模型的出色表现充分展现了 RLVR(Reinforcement Learning with Verifiable Reward

来自主题: AI技术研报
8326 点击    2025-06-27 10:03