AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
「Next-Token」范式改变!刚刚,强化学习预训练来了

「Next-Token」范式改变!刚刚,强化学习预训练来了

「Next-Token」范式改变!刚刚,强化学习预训练来了

谁说强化学习只能是蛋糕上的樱桃,说不定,它也可以是整个蛋糕呢?

来自主题: AI技术研报
5191 点击    2025-06-11 14:58
103K「硬核」题,让大模型突破数学推理瓶颈

103K「硬核」题,让大模型突破数学推理瓶颈

103K「硬核」题,让大模型突破数学推理瓶颈

本文将介绍 DeepMath-103K 数据集。该工作由腾讯 AI Lab 与上海交通大学团队共同完成。

来自主题: AI技术研报
8174 点击    2025-06-11 14:50
10%训练数据超越100%表现,机器人学习领域迎来重要突破

10%训练数据超越100%表现,机器人学习领域迎来重要突破

10%训练数据超越100%表现,机器人学习领域迎来重要突破

第一作者陈昌和是美国密歇根大学的研究生,师从 Nima Fazeli 教授,研究方向包括基础模型、机器人学习与具身人工智能,专注于机器人操控、物理交互与控制优化。

来自主题: AI技术研报
9237 点击    2025-06-11 14:29
揭秘LLM“思考”之谜:推理即“梯度下降”,元学习框架解构训练过程,还给优化提供新思路

揭秘LLM“思考”之谜:推理即“梯度下降”,元学习框架解构训练过程,还给优化提供新思路

揭秘LLM“思考”之谜:推理即“梯度下降”,元学习框架解构训练过程,还给优化提供新思路

近年来,大语言模型(LLM)以其卓越的文本生成和逻辑推理能力,深刻改变了我们与技术的互动方式。然而,这些令人瞩目的表现背后,LLM的内部机制却像一个神秘的“黑箱”,让人难以捉摸其决策过程。

来自主题: AI技术研报
5428 点击    2025-06-11 14:29
时空压缩!剑桥大学提出注意力机制MTLA:推理加速5倍,显存减至1/8

时空压缩!剑桥大学提出注意力机制MTLA:推理加速5倍,显存减至1/8

时空压缩!剑桥大学提出注意力机制MTLA:推理加速5倍,显存减至1/8

在大语言模型蓬勃发展的背景下,Transformer 架构依然是不可替代的核心组件。尽管其自注意力机制存在计算复杂度为二次方的问题,成为众多研究试图突破的重点

来自主题: AI技术研报
7044 点击    2025-06-11 11:43
一块4090搞定实时视频生成!Adobe黑科技来了

一块4090搞定实时视频生成!Adobe黑科技来了

一块4090搞定实时视频生成!Adobe黑科技来了

游戏直播等实时渲染门槛要被击穿了?Adobe 的一项新研究带来新的可能。

来自主题: AI技术研报
5662 点击    2025-06-10 16:52