AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
陈丹琦新作:大模型强化学习的第三条路,8B小模型超越GPT-4o

陈丹琦新作:大模型强化学习的第三条路,8B小模型超越GPT-4o

陈丹琦新作:大模型强化学习的第三条路,8B小模型超越GPT-4o

结合RLHF+RLVR,8B小模型就能超越GPT-4o、媲美Claude-3.7-Sonnet。陈丹琦新作来了。他们提出了一个结合RLHF和RLVR优点的方法,RLMT(Reinforcement Learning with Model-rewarded Thinking,基于模型奖励思维的强化学习)。

来自主题: AI技术研报
8004 点击    2025-09-28 23:03
Shopee OnePiece:业内首个融合上下文工程、隐式推理和多目标训练策略的生成式搜推建模框架

Shopee OnePiece:业内首个融合上下文工程、隐式推理和多目标训练策略的生成式搜推建模框架

Shopee OnePiece:业内首个融合上下文工程、隐式推理和多目标训练策略的生成式搜推建模框架

2025 年,生成式推荐(Generative Recommender,GR)的发展如火如荼,其背后主要的驱动力源自大语言模型(LLM)那诱人的 scaling law 和通用建模能力(general-purpose modeling),将这种能力迁移至搜推广工业级系统大概是这两年每一个从业者孜孜不倦的追求。

来自主题: AI资讯
5554 点击    2025-09-28 18:14
DeepMind率先提出CoF:视频模型有自己的思维链

DeepMind率先提出CoF:视频模型有自己的思维链

DeepMind率先提出CoF:视频模型有自己的思维链

CoT思维链的下一步是什么? DeepMind提出帧链CoF(chain-of-frames)。

来自主题: AI技术研报
5228 点击    2025-09-28 18:04
让大模型合成检查器:UIUC团队挖出Linux内核90余个长期潜伏漏洞

让大模型合成检查器:UIUC团队挖出Linux内核90余个长期潜伏漏洞

让大模型合成检查器:UIUC团队挖出Linux内核90余个长期潜伏漏洞

最近的报道指出,OpenAI 的 o3 模型已经在 Linux 内核中发现了一个零日漏洞;而本文的 KNighter 更进一步,通过自动生成静态分析检查器,把模型的洞察沉淀为工程可用、用户可见的逻辑规则,实现了规模化的软件漏铜、缺陷挖掘。

来自主题: AI技术研报
6247 点击    2025-09-28 16:59
RLHF与RLVR全都要,陈丹琦团队最新力作将推理能力拓展到通用智能

RLHF与RLVR全都要,陈丹琦团队最新力作将推理能力拓展到通用智能

RLHF与RLVR全都要,陈丹琦团队最新力作将推理能力拓展到通用智能

一个月前,我们曾报道过清华姚班校友、普林斯顿教授陈丹琦似乎加入 Thinking Machines Lab 的消息。有些爆料认为她在休假一年后,会离开普林斯顿,全职加入 Thinking Machines Lab。

来自主题: AI技术研报
5815 点击    2025-09-28 16:46
翁荔陈丹琦加盟的840亿AI公司,公开第二篇论文

翁荔陈丹琦加盟的840亿AI公司,公开第二篇论文

翁荔陈丹琦加盟的840亿AI公司,公开第二篇论文

明星创业公司Thinking Machines,第二篇研究论文热乎出炉!公司创始人、OpenAI前CTO Mira Murati依旧亲自站台,翁荔等一众大佬也纷纷转发支持:论文主题为“Modular Manifolds”,通过让整个网络的不同层/模块在统一框架下进行约束和优化,来提升训练的稳定性和效率。

来自主题: AI技术研报
8100 点击    2025-09-28 09:54
免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」

免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」

免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」

杜克大学团队发现,扩散大语言模型只需关注少量「中奖」token,就能在推理时把速度提升61-97倍,还能让模型更懂格式、更听话。新策略DPad不训练也能零成本挑出关键信息,实现「少算多准」的双赢。

来自主题: AI技术研报
6663 点击    2025-09-28 09:51
估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」

估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」

估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」

在大模型训练时,如何管理权重、避免数值爆炸与丢失?Thinking Machines Lab 的新研究「模块流形」提出了一种新范式,它将传统「救火式」的数值修正,转变为「预防式」的约束优化,为更好地训练大模型提供了全新思路。

来自主题: AI资讯
7758 点击    2025-09-27 16:10
业界首个高质量原生3D组件生成模型来了!来自腾讯混元团队

业界首个高质量原生3D组件生成模型来了!来自腾讯混元团队

业界首个高质量原生3D组件生成模型来了!来自腾讯混元团队

业界首个高质量原生3D组件生成模型来了!来自腾讯混元3D团队。现有的3D生成算法通常会生成一体化的3D模型,而下游应用通常需要语义可分解的3D形状,即3D物体的每一个组件需要单独地生成出来。

来自主题: AI技术研报
7010 点击    2025-09-27 16:06
超越免训练剪枝:LightVLA引入可微分token剪枝,首次实现VLA模型性能和效率的双重突破

超越免训练剪枝:LightVLA引入可微分token剪枝,首次实现VLA模型性能和效率的双重突破

超越免训练剪枝:LightVLA引入可微分token剪枝,首次实现VLA模型性能和效率的双重突破

LightVLA 是一个旨在提升 VLA 推理效率且同时提升性能的视觉 token 剪枝框架。当前 VLA 模型在具身智能领域仍面临推理代价大而无法大规模部署的问题,然而大多数免训练剪枝框架依赖于中间注意力输出,并且会面临性能与效率的权衡问题。

来自主题: AI技术研报
5251 点击    2025-09-27 11:25