AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
ICLR 2026 | Shop-R1: 给AI补上「内心戏」,在RL博弈中复刻人类网购脑

ICLR 2026 | Shop-R1: 给AI补上「内心戏」,在RL博弈中复刻人类网购脑

ICLR 2026 | Shop-R1: 给AI补上「内心戏」,在RL博弈中复刻人类网购脑

传统的 AI 购物助手更像是一个任务完成机器:接到指令,搜索,下单。他们或许能跑通流程,却完全无法理解用户为何在最后一刻因为一条关于 “夹耳朵” 的差评而放弃支付。简而言之,传统的电商 Agent 只是任务导向的(task-oriented),而不是模拟导向的(simulation-oriented)。为此,来自亚马逊(Amazon)的研究团队提出了名为 Shop-R1 的训练框架 。

来自主题: AI技术研报
7091 点击    2026-03-21 09:28
万字综述遥感AI智能体!六大应用场景全面爆发,地理空间智能从「眼睛」变「大脑」

万字综述遥感AI智能体!六大应用场景全面爆发,地理空间智能从「眼睛」变「大脑」

万字综述遥感AI智能体!六大应用场景全面爆发,地理空间智能从「眼睛」变「大脑」

如今,一场由 AI 智能体驱动的变革正在发生。近日,来自香港科技大学、西北工业大学、清华大学等多家高校及研究机构的学者联合发布了遥感 AI 智能体领域系统综述。全文逾万字,首次为「遥感智能体」给出了严格定义,系统梳理了其架构、应用、数据集与未来方向。

来自主题: AI技术研报
7943 点击    2026-03-21 09:28
CVPR 2026 | EmoStyle:情感也能“风格化”?深大VCC带你见证魔法!

CVPR 2026 | EmoStyle:情感也能“风格化”?深大VCC带你见证魔法!

CVPR 2026 | EmoStyle:情感也能“风格化”?深大VCC带你见证魔法!

EmoStyle 由深圳大学可视计算研究中心黄惠教授课题组独立完成,第一作者为杨景媛助理教授,第二作者为研二硕士生柏梓桓。深圳大学可视计算研究中心(VCC)以计算机图形学、计算机视觉、人机交互、机器学习、具身智能、可视化和可视分析为学科基础,致力前沿探索与跨学科创新。

来自主题: AI技术研报
7051 点击    2026-03-20 10:18
生成视频总出物理bug?用VLM迁移+token级对齐,让燃烧在正确位置发生,碰撞遵循动量守恒丨CVPR 2026近满分接收

生成视频总出物理bug?用VLM迁移+token级对齐,让燃烧在正确位置发生,碰撞遵循动量守恒丨CVPR 2026近满分接收

生成视频总出物理bug?用VLM迁移+token级对齐,让燃烧在正确位置发生,碰撞遵循动量守恒丨CVPR 2026近满分接收

当人们谈到“世界模型”(World Models)时,很多人会首先想到近年来迅速发展的生成式视频模型。

来自主题: AI技术研报
8161 点击    2026-03-20 09:39
告别噪声初始化:NTU MARS Lab提出A2A新范式,实现机器人高性能单步动作生成

告别噪声初始化:NTU MARS Lab提出A2A新范式,实现机器人高性能单步动作生成

告别噪声初始化:NTU MARS Lab提出A2A新范式,实现机器人高性能单步动作生成

在机器人领域,扩散策略(Diffusion Policy)已经成为了标准模仿学习策略和 VLA 动作生成范式,但其「从随机噪声中迭代解噪」的机制带来了不容忽视的推理延迟。如果机器人不再从随机高斯噪声开始「盲猜」,是否可以基于「刚刚做了什么」来预测「下一步做什么」呢?

来自主题: AI技术研报
5732 点击    2026-03-20 09:39
华人学生立大功!新王Mamba-3直击Transformer死穴,推理效率碾压7倍

华人学生立大功!新王Mamba-3直击Transformer死穴,推理效率碾压7倍

华人学生立大功!新王Mamba-3直击Transformer死穴,推理效率碾压7倍

Transformer不保?今天,CMU普林斯顿原班人马杀回,新一代开源架构Mamba-3震撼降临。15亿参数战力爆表,性能比Transformer飙升4%。

来自主题: AI技术研报
8456 点击    2026-03-19 17:36
突破一亿Token极限:EverMind提出MSA架构,实现大模型高效端到端长时记忆

突破一亿Token极限:EverMind提出MSA架构,实现大模型高效端到端长时记忆

突破一亿Token极限:EverMind提出MSA架构,实现大模型高效端到端长时记忆

人的智能能力主要由推理能力和长期记忆能力构成。近年来,大模型的推理能力一直处于快速发展过程,但大模型的长期记忆能力一直受限于上下文长度,无法取得突破。在历史上,曾经有多种路线进行尝试,但都无法突破扩展性(Scalability)、精度(Precision)和效率(Efficiency)的不可能三角。

来自主题: AI技术研报
9292 点击    2026-03-19 17:02
超越MLA!新架构MLRA百万token,解码最高2.8倍速 | ICLR'26

超越MLA!新架构MLRA百万token,解码最高2.8倍速 | ICLR'26

超越MLA!新架构MLRA百万token,解码最高2.8倍速 | ICLR'26

MLRA通过拆分KV缓存为四个并行分支,显著降低显存占用并实现4路张量并行。推理速度比MLA最高快2.8倍,支持百万级上下文,且模型质量更优。无需牺牲性能,即可高效扩展长文本处理能力。

来自主题: AI技术研报
10030 点击    2026-03-19 15:25
CVPR 2026 | 给扩散模型装上「物理引擎」: 北大彭宇新团队提出NS-Diff,使扩散模型学会流体与刚体力学

CVPR 2026 | 给扩散模型装上「物理引擎」: 北大彭宇新团队提出NS-Diff,使扩散模型学会流体与刚体力学

CVPR 2026 | 给扩散模型装上「物理引擎」: 北大彭宇新团队提出NS-Diff,使扩散模型学会流体与刚体力学

本文是北京大学彭宇新教授团队在文本生成视频领域的最新研究成果,相关论文已被 CVPR 2026 接收。

来自主题: AI技术研报
7600 点击    2026-03-19 15:22