AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
清华姚班校友刘壮团队再发力,无需归一化的Transformer性能进化

清华姚班校友刘壮团队再发力,无需归一化的Transformer性能进化

清华姚班校友刘壮团队再发力,无需归一化的Transformer性能进化

这篇新论文提出了一种非常简单的新激活层 Derf(Dynamic erf),让「无归一化(Normalization-Free)」的 Transformer 不仅能稳定训练,还在多个设置下性能超过了带 LayerNorm 的标准 Transformer。

来自主题: AI技术研报
7522 点击    2026-01-24 10:38
一文速通「机器人3D场景表示」发展史

一文速通「机器人3D场景表示」发展史

一文速通「机器人3D场景表示」发展史

上海交通大学、波恩大学等院校的研究团队全面总结了当前机器人技术中常用的场景表示方法。这些方法包括传统的点云、体素栅格、符号距离函数以及场景图等传统几何表示方式,同时也涵盖了最新的神经网络表示技术,如神经辐射场、3D 高斯散布模型以及新兴的 3D 基础模型。

来自主题: AI技术研报
7648 点击    2026-01-24 10:31
奖励模型变天!0.005%参数量推理速度翻倍,性能还更强

奖励模型变天!0.005%参数量推理速度翻倍,性能还更强

奖励模型变天!0.005%参数量推理速度翻倍,性能还更强

最新奖励模型SWIFT直接利用模型生成过程中的隐藏状态,参数规模极小,仅占传统模型的不到0.005%。SWIFT在多个基准测试中表现优异,推理速度提升1.7×–6.7×,且在对齐评估中稳定可靠,展现出高效、通用的奖励建模新范式。

来自主题: AI技术研报
6585 点击    2026-01-23 15:17
AAAI'26 Oral:小样本对齐人类认知,LLM不再模仿答案

AAAI'26 Oral:小样本对齐人类认知,LLM不再模仿答案

AAAI'26 Oral:小样本对齐人类认知,LLM不再模仿答案

GEM框架利用认知科学原理,从少量人类偏好中提取多维认知评估,让AI在极少标注下精准理解人类思维,提高了数据效率,在医疗等专业领域表现优异,为AI与人类偏好对齐提供新思路。

来自主题: AI技术研报
8904 点击    2026-01-23 10:14
视频理解+开放网络搜索=首个视频Deep Research评测基准

视频理解+开放网络搜索=首个视频Deep Research评测基准

视频理解+开放网络搜索=首个视频Deep Research评测基准

现有的多模态模型往往被困在「视频」的孤岛里——它们只能回答视频内的问题。但在真实世界中,人类解决问题往往是「看视频找线索 -> 上网搜证 -> 综合推理」。

来自主题: AI技术研报
10145 点击    2026-01-22 16:10
非Transformer架构的新突破,Liquid AI开源LFM2.5-1.2B-Thinking模型

非Transformer架构的新突破,Liquid AI开源LFM2.5-1.2B-Thinking模型

非Transformer架构的新突破,Liquid AI开源LFM2.5-1.2B-Thinking模型

就在刚刚,Liquid AI 又一次在 LFM 模型上放大招。他们正式发布并开源了 LFM2.5-1.2B-Thinking,一款可完全在端侧运行的推理模型。Liquid AI 声称,该模型专门为简洁推理而训练;在生成最终答案前,会先生成内部思考轨迹;在端侧级别的低延迟条件下,实现系统化的问题求解;在工具使用、数学推理和指令遵循方面表现尤为出色。

来自主题: AI资讯
10260 点击    2026-01-22 11:59