AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
DeepSeek关键RL算法GRPO,有人从头跑通了,贡献完整代码

DeepSeek关键RL算法GRPO,有人从头跑通了,贡献完整代码

DeepSeek关键RL算法GRPO,有人从头跑通了,贡献完整代码

GRPO(Group Relative Policy Optimization)是 DeepSeek-R1 成功的基础技术之一,我们之前也多次报道过该技术,比如《DeepSeek 用的 GRPO 占用大量内存?有人给出了些破解方法》。

来自主题: AI技术研报
8370 点击    2025-03-02 15:14
MIT三人团队:用Transformer解决经验贝叶斯问题,比经典方法快100倍

MIT三人团队:用Transformer解决经验贝叶斯问题,比经典方法快100倍

MIT三人团队:用Transformer解决经验贝叶斯问题,比经典方法快100倍

Transformer 很成功,更一般而言,我们甚至可以将(仅编码器)Transformer 视为学习可交换数据的通用引擎。由于大多数经典的统计学任务都是基于独立同分布(iid)采用假设构建的,因此很自然可以尝试将 Transformer 用于它们。

来自主题: AI技术研报
6095 点击    2025-03-02 13:22
探索跳跃式思维链:DeepSeek创造力垫底,Qwen系列接近人类顶尖水平

探索跳跃式思维链:DeepSeek创造力垫底,Qwen系列接近人类顶尖水平

探索跳跃式思维链:DeepSeek创造力垫底,Qwen系列接近人类顶尖水平

在大语言模型 (LLM) 的研究中,与以 Chain-of-Thought 为代表的逻辑思维能力相比,LLM 中同等重要的 Leap-of-Thought 能力,也称为创造力,目前的讨论和分析仍然较少。这可能会严重阻碍 LLM 在创造力上的发展。造成这种困局的一个主要原因是,面对「创造力」,我们很难构建一个合适且自动化的评估流程。

来自主题: AI技术研报
6149 点击    2025-03-01 22:13
模型越复杂,离真理越远?我们还需要奥卡姆剃刀吗?

模型越复杂,离真理越远?我们还需要奥卡姆剃刀吗?

模型越复杂,离真理越远?我们还需要奥卡姆剃刀吗?

当百亿千亿参数的大模型霸占着科技头条,“若无必要,勿增实体”这把古老“剃刀”是否依旧闪耀?复杂性与简洁性真的是对立的吗?本文将回溯历史长河,探寻一个古老哲学原则与现代科技之间的微妙关联。在这个过程中,我们或许能够发现,复杂与简洁之间隐藏着怎样的辩证关系。

来自主题: AI技术研报
8134 点击    2025-03-01 15:28
蒸馏任何深度,仅用少量无标签数据就能实现单目深度估计新SOTA

蒸馏任何深度,仅用少量无标签数据就能实现单目深度估计新SOTA

蒸馏任何深度,仅用少量无标签数据就能实现单目深度估计新SOTA

单目深度估计新成果来了!西湖大学AGI实验室等提出了一种创新性的蒸馏算法,成功整合了多个开源单目深度估计模型的优势。在仅使用2万张无标签数据的情况下,该方法显著提升了估计精度,并刷新了单目深度估计的最新SOTA性能。

来自主题: AI技术研报
7970 点击    2025-02-28 15:40
超越DeepSeek推理,效率更高!斯坦福马腾宇新作:有限数据,无限迭代

超越DeepSeek推理,效率更高!斯坦福马腾宇新作:有限数据,无限迭代

超越DeepSeek推理,效率更高!斯坦福马腾宇新作:有限数据,无限迭代

STP(自博弈定理证明器)让模型扮演「猜想者」和「证明者」,互相提供训练信号,在有限的数据下实现了无限自我改进,在Lean和Isabelle验证器上的表现显著优于现有方法,证明成功率翻倍,并在多个基准测试中达到最先进的性能。

来自主题: AI技术研报
3926 点击    2025-02-28 15:21
无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

Diffusion Transformer模型模型通过token粒度的缓存方法,实现了图像和视频生成模型上无需训练的两倍以上的加速。

来自主题: AI技术研报
6149 点击    2025-02-28 15:06
ICLR 2025|浙大、千问发布预训练数据管理器DataMan,53页细节满满

ICLR 2025|浙大、千问发布预训练数据管理器DataMan,53页细节满满

ICLR 2025|浙大、千问发布预训练数据管理器DataMan,53页细节满满

在 Scaling Law 背景下,预训练的数据选择变得越来越重要。然而现有的方法依赖于有限的启发式和人类的直觉,缺乏全面和明确的指导方针。在此背景下,该研究提出了一个数据管理器 DataMan,其可以从 14 个质量评估维度对 15 个常见应用领域的预训练数据进行全面质量评分和领域识别。

来自主题: AI技术研报
8291 点击    2025-02-28 14:04