AI资讯新闻榜单内容搜索-Transforme

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Transforme
ICLR 2026|早于DeepSeek Engram,STEM已重构Transformer「记忆」

ICLR 2026|早于DeepSeek Engram,STEM已重构Transformer「记忆」

ICLR 2026|早于DeepSeek Engram,STEM已重构Transformer「记忆」

近年来,随着大语言模型规模与知识密度不断提升,研究者开始重新思考一个更本质的问题:模型中的参数应如何被组织,才能更高效地充当「记忆」。

来自主题: AI技术研报
7928 点击    2026-03-10 09:31
用Rust重写OpenClaw,Transformer作者下场造了安全版「龙虾」

用Rust重写OpenClaw,Transformer作者下场造了安全版「龙虾」

用Rust重写OpenClaw,Transformer作者下场造了安全版「龙虾」

面对 OpenClaw(龙虾)可能存在的「恶意利用用户数据和资金」的重大风险,Transformer 八子之一 Illia Polosukhin 出手了。今天,Illia Polosukhin 在 Reddit 上发了一则帖子,深谈了其使用 Rust 来构建安全版 OpenClaw 的心路历程,引起了热议。

来自主题: AI资讯
8089 点击    2026-03-07 11:10
32B逆袭GPT-5.2:首个端到端GPU编程智能体框架StitchCUDA问世

32B逆袭GPT-5.2:首个端到端GPU编程智能体框架StitchCUDA问世

32B逆袭GPT-5.2:首个端到端GPU编程智能体框架StitchCUDA问世

现有的 LLM 自动化 CUDA 方法大多只能优化单个 Kernel,面对完整的端到端 GPU 程序(如整个 VisionTransformer 推理)往往束手无策。

来自主题: AI技术研报
7816 点击    2026-03-05 14:28
DeepMind 运作模式曝光!暗示根本没输 OpenAI:员工20% 时间重启创新,保守巨头直接变 “实验狂”

DeepMind 运作模式曝光!暗示根本没输 OpenAI:员工20% 时间重启创新,保守巨头直接变 “实验狂”

DeepMind 运作模式曝光!暗示根本没输 OpenAI:员工20% 时间重启创新,保守巨头直接变 “实验狂”

作者 | 高允毅 很多人知道,Transformer 是谷歌发明的。但 ChatGPT,却不是谷歌做出来的。这件事,在过去几年,几乎成了硅谷最大的“遗憾注脚”。 但如果真正走进今天的 Google D

来自主题: AI资讯
8861 点击    2026-02-23 19:21
清华联手千问重塑归一化范式,让 Transformer 回归「深度」学习

清华联手千问重塑归一化范式,让 Transformer 回归「深度」学习

清华联手千问重塑归一化范式,让 Transformer 回归「深度」学习

在十九世纪的暹罗王国曾诞生过这样一对连体兄弟:他们分别拥有完整的四肢和独立的大脑,但他们六十余年的人生被腰部相连着的一段不到十厘米的组织带永远绑定在了一起。他们的连体曾带来无尽的束缚,直到他们离开暹罗,走上马戏团的舞台。十年间,两兄弟以近乎合二为一的默契巡演欧美,获得巨大成功。

来自主题: AI技术研报
5779 点击    2026-02-11 13:59
速递|从LLM到LTM:Fundamental以“数据基础模型”切入,A轮融资2.55亿美元

速递|从LLM到LTM:Fundamental以“数据基础模型”切入,A轮融资2.55亿美元

速递|从LLM到LTM:Fundamental以“数据基础模型”切入,A轮融资2.55亿美元

大规模表格模型(LTM)而非大规模语言模型(LLM)的 Fundamental 公司 Nexus 模型,在多个重要方面突破了当代人工智能实践。该模型具有确定性——即每次被询问相同问题时都会给出相同答案——且不依赖定义当代大多数人工智能实验室模型的 Transformer 架构 。

来自主题: AI资讯
9688 点击    2026-02-09 11:22
具身大模型LaST₀:双臂/移动/灵巧手全面新SOTA,首次引入隐空间时空思维链

具身大模型LaST₀:双臂/移动/灵巧手全面新SOTA,首次引入隐空间时空思维链

具身大模型LaST₀:双臂/移动/灵巧手全面新SOTA,首次引入隐空间时空思维链

LaST₀团队 投稿 量子位 | 公众号 QbitAI 近日,至简动力、北京大学、香港中文大学、北京人形机器人创新中心提出了一种名为LaST₀的全新隐空间推理VLA模型,在基于Transformer混

来自主题: AI技术研报
6312 点击    2026-02-08 11:50
大模型哪里出问题、怎么修,这篇可解释性综述一次讲清

大模型哪里出问题、怎么修,这篇可解释性综述一次讲清

大模型哪里出问题、怎么修,这篇可解释性综述一次讲清

过去几年,机制可解释性(Mechanistic Interpretability)让研究者得以在 Transformer 这一 “黑盒” 里追踪信息如何流动、表征如何形成:从单个神经元到注意力头,再到跨层电路。但在很多场景里,研究者真正关心的不只是 “模型为什么这么答”,还包括 “能不能更稳、更准、更省,更安全”。

来自主题: AI技术研报
10458 点击    2026-01-28 10:13
LeCun、谢赛宁团队重磅论文:RAE能大规模文生图了,且比VAE更好

LeCun、谢赛宁团队重磅论文:RAE能大规模文生图了,且比VAE更好

LeCun、谢赛宁团队重磅论文:RAE能大规模文生图了,且比VAE更好

编辑|Panda 在文生图模型的技术版图中,VAE 几乎已经成为共识。从 Stable Diffusion 到 FLUX,再到一系列扩散 Transformer,主流路线高度一致:先用 VAE 压缩视

来自主题: AI技术研报
7207 点击    2026-01-24 10:52
清华姚班校友刘壮团队再发力,无需归一化的Transformer性能进化

清华姚班校友刘壮团队再发力,无需归一化的Transformer性能进化

清华姚班校友刘壮团队再发力,无需归一化的Transformer性能进化

这篇新论文提出了一种非常简单的新激活层 Derf(Dynamic erf),让「无归一化(Normalization-Free)」的 Transformer 不仅能稳定训练,还在多个设置下性能超过了带 LayerNorm 的标准 Transformer。

来自主题: AI技术研报
7960 点击    2026-01-24 10:38