AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
来自MIT的最新研究-RL's Razor|展望LLMs Post-Training下的前沿探索与思考

来自MIT的最新研究-RL's Razor|展望LLMs Post-Training下的前沿探索与思考

来自MIT的最新研究-RL's Razor|展望LLMs Post-Training下的前沿探索与思考

来自MIT Improbable AI Lab的研究者们最近发表了一篇题为《RL's Razor: Why Online Reinforcement Learning Forgets Less》的论文,系统性地回答了这个问题,他们不仅通过大量实验证实了这一现象,更进一步提出了一个简洁而深刻的解释,并将其命名为 “RL's Razor”(RL的剃刀)。

来自主题: AI技术研报
7124 点击    2025-09-18 14:26
刚刚,DeepSeek登上Nature封面!梁文锋带队回应质疑,R1训练真29.4万美金

刚刚,DeepSeek登上Nature封面!梁文锋带队回应质疑,R1训练真29.4万美金

刚刚,DeepSeek登上Nature封面!梁文锋带队回应质疑,R1训练真29.4万美金

DeepSeek荣登Nature封面,实至名归!今年1月,梁文锋带队R1新作,开创了AI推理新范式——纯粹RL就能激发LLM无限推理能力。Nature还特发一篇评论文章,对其大加赞赏。

来自主题: AI资讯
9230 点击    2025-09-18 13:49
具身智能能力狂飙,安全却严重滞后?首个安全可信EAI框架与路线图出炉!

具身智能能力狂飙,安全却严重滞后?首个安全可信EAI框架与路线图出炉!

具身智能能力狂飙,安全却严重滞后?首个安全可信EAI框架与路线图出炉!

近年来,以人形机器人、自动驾驶为代表的具身人工智能(Embodied Artificial Intelligence, EAI)正以前所未有的速度发展,从数字世界大步迈向物理现实。然而,当一次错误的风险不再是屏幕上的一行乱码,而是可能导致真实世界中的物理伤害时,一个紧迫的问题摆在了我们面前: 如何确保这些日益强大的具身智能体是安全且值得信赖的?

来自主题: AI技术研报
7277 点击    2025-09-17 14:33
谷歌DeepMind「粪坑淘金」全新方法,暗网毒数据也能训出善良模型

谷歌DeepMind「粪坑淘金」全新方法,暗网毒数据也能训出善良模型

谷歌DeepMind「粪坑淘金」全新方法,暗网毒数据也能训出善良模型

谷歌DeepMind研究团队一年前的研究成果直到昨晚才姗姗揭秘,提出了一种叫做GDR的新方法,颠覆了传统训练中设法剔除脏数据的思路,将饱含恶意内容的数据「变废为宝」,处理后的数据集用于训练,甚至比直接剔除脏数据训练出的模型效果还好,「出淤泥而不染」,「择善而从」。

来自主题: AI技术研报
9130 点击    2025-09-17 09:43
网络顶会获奖!华为提出端网协同RDMA传输架构,解决大规模AI集群网络可扩展性问题

网络顶会获奖!华为提出端网协同RDMA传输架构,解决大规模AI集群网络可扩展性问题

网络顶会获奖!华为提出端网协同RDMA传输架构,解决大规模AI集群网络可扩展性问题

近日,全球网络通信顶会 ACM SIGCOMM 2025 在葡萄牙落幕,共 3 篇论文获奖,华为网络技术实验室与香港科技大学 iSING Lab 合作的 DCP 研究成果,获本届大会 Best Student Paper Award (Honorable Mention),成为亚洲地域唯一获奖的论文。

来自主题: AI资讯
7456 点击    2025-09-17 09:41
从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」

从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」

从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」

这项名为 MachineLearningLM 的新研究突破了这一瓶颈。该研究提出了一种轻量且可移植的「继续预训练」框架,无需下游微调即可直接通过上下文学习上千条示例,在金融、健康、生物信息、物理等等多个领域的二分类 / 多分类任务中的准确率显著超越基准模型(Qwen-2.5-7B-Instruct)以及最新发布的 GPT-5-mini。

来自主题: AI技术研报
8581 点击    2025-09-17 09:30
只要科学任务能打分,AI就能实现SOTA结果 | 谷歌最新论文

只要科学任务能打分,AI就能实现SOTA结果 | 谷歌最新论文

只要科学任务能打分,AI就能实现SOTA结果 | 谷歌最新论文

只要科学任务可以评分,AI就能找到超越人类专家的方法,实现SOTA结果? 这是谷歌一篇最新论文里的内容: 使用大模型+树搜索,让AI大海捞针就行。

来自主题: AI技术研报
8253 点击    2025-09-17 09:29
反转!LeCun刚转发「全球最快开源推理模型」,ETH苏黎世就直接打假

反转!LeCun刚转发「全球最快开源推理模型」,ETH苏黎世就直接打假

反转!LeCun刚转发「全球最快开源推理模型」,ETH苏黎世就直接打假

上周,福布斯、Wired等争相报道「全球最快开源推理模型」K2-Think,,甚至图灵奖得主Yann LeCun转发推文。但仅三天后,ETH五位研究员的博客如晴天霹雳:87数学评估题竟藏在训练集中!这不仅仅是技术突破,更是行业诚信的警钟。

来自主题: AI资讯
7941 点击    2025-09-16 16:16
LLM会梦到AI智能体吗?不,是睡着了也要加班

LLM会梦到AI智能体吗?不,是睡着了也要加班

LLM会梦到AI智能体吗?不,是睡着了也要加班

人类的大脑,会在梦里筛选记忆。如今,AI也开始学会在「睡眠」中整理、保存,甚至遗忘。Bilt部署数百万智能体,让科幻小说里的设问——「仿生人会梦见电子羊吗?」——逐步成真。那么,当AI也能选择忘记时,它会变得更像人,还是更陌生?

来自主题: AI资讯
7787 点击    2025-09-16 15:55
谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长

谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长

谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长

很多人认为,Scaling Law 正在面临收益递减,因此继续扩大计算规模训练模型的做法正在被质疑。最近的观察给出了不一样的结论。研究发现,哪怕模型在「单步任务」上的准确率提升越来越慢,这些小小的进步叠加起来,也能让模型完成的任务长度实现「指数级增长」,而这一点可能在现实中更有经济价值。

来自主题: AI技术研报
7013 点击    2025-09-16 15:15