清华姚班校友刘壮团队再发力,无需归一化的Transformer性能进化
清华姚班校友刘壮团队再发力,无需归一化的Transformer性能进化这篇新论文提出了一种非常简单的新激活层 Derf(Dynamic erf),让「无归一化(Normalization-Free)」的 Transformer 不仅能稳定训练,还在多个设置下性能超过了带 LayerNorm 的标准 Transformer。
这篇新论文提出了一种非常简单的新激活层 Derf(Dynamic erf),让「无归一化(Normalization-Free)」的 Transformer 不仅能稳定训练,还在多个设置下性能超过了带 LayerNorm 的标准 Transformer。
大模型推理的基石 vLLM,现在成为创业公司了。
如何让机器人同时具备“本能反应”与复杂运动能力?
在具身智能(Embodied AI)的快速发展中,样本效率已成为制约智能体从实验室环境走向复杂开放世界的瓶颈问题。
“全局交互” 几乎等同于 self-attention:每个 token 都能和所有 token 对话,效果强,但代价也直观 —— 复杂度随 token 数平方增长,分辨率一高就吃不消。现有方法大多从 “相似度匹配” 出发(attention),或从 “扩散 / 传导” 出发(热方程类方法)。但热方程本质上是一个强低通滤波器:随着传播时间增加,高频细节(边缘、纹理)会迅速消失,导致特征过平滑。
清华姚班、普林斯顿博士、前 OpenAI 核心成员、27 岁、首席 AI 科学家……当这些标签堆砌在一个人身上时,你很难不感受到一种来自智商层面的压迫感。
近日,清华大学与星尘智能、港大、MIT 联合提出基于对比学习的隐空间动作预训练(Contrastive Latent Action Pretraining, CLAP)框架。这个框架能够将视频中提纯的运动空间与机器人的动作空间进行对齐,也就是说,机器人能够直接从视频中学习技能!
清华在Nature上发表的最新研究发现,AI使科学家更聚焦于数据丰富、问题明确的领域,导致创新单一化,跨界合作减少。研究团队提出「全流程科研智能体系统」,推动AI从工具进化为伙伴,拓展科学边界。
最新消息:姚班大神陈立杰,加盟OpenAI了。
爆火神经网络架构KAN一作,毕业新去向已获清华官网认证: 刘子鸣,拟于今年9月加入清华大学人工智能学院,任助理教授。