AI资讯新闻榜单内容搜索-RNN

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: RNN
谷歌Transformer过时了?清华姚班校友等三连击,爆改注意力!

谷歌Transformer过时了?清华姚班校友等三连击,爆改注意力!

谷歌Transformer过时了?清华姚班校友等三连击,爆改注意力!

RNN太老,Transformer太慢?谷歌掀翻Transformer王座,用「注意力偏向+保留门」取代传统遗忘机制,重新定义了AI架构设计。全新模型Moneta、Yaad、Memora,在多个任务上全面超越Transformer。这一次,谷歌不是调参,而是换脑!

来自主题: AI技术研报
7011 点击    2025-06-07 14:19
RNN回归!Bengio新作大道至简与Transformer一较高下

RNN回归!Bengio新作大道至简与Transformer一较高下

RNN回归!Bengio新作大道至简与Transformer一较高下

近日,深度学习三巨头之一的Yoshua Bengio,带领团队推出了全新的RNN架构,以大道至简的思想与Transformer一较高下。

来自主题: AI技术研报
2745 点击    2024-10-25 14:42
Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

7 年前,谷歌在论文《Attention is All You Need》中提出了 Transformer。就在 Transformer 提出的第二年,谷歌又发布了 Universal Transformer(UT)。它的核心特征是通过跨层共享参数来实现深度循环,从而重新引入了 RNN 具有的循环表达能力。

来自主题: AI技术研报
8710 点击    2024-10-19 14:29
图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

自从 Transformer 模型问世以来,试图挑战其在自然语言处理地位的挑战者层出不穷。 这次登场的选手,不仅要挑战 Transformer 的地位,还致敬了经典论文的名字。 再看这篇论文的作者列表,图灵奖得主、深度学习三巨头之一的 Yoshua Bengio 赫然在列。

来自主题: AI技术研报
4108 点击    2024-10-14 15:42
Mamba作者新作:将Llama3蒸馏成混合线性 RNN

Mamba作者新作:将Llama3蒸馏成混合线性 RNN

Mamba作者新作:将Llama3蒸馏成混合线性 RNN

Transformer 在深度学习领域取得巨大成功的关键是注意力机制。注意力机制让基于 Transformer 的模型关注与输入序列相关的部分,实现了更好的上下文理解。然而,注意力机制的缺点是计算开销大,会随输入规模而二次增长,Transformer 也因此难以处理非常长的文本。

来自主题: AI技术研报
7437 点击    2024-08-31 14:54
位置编码发展史:从零开始带你推导神秘的RoPE

位置编码发展史:从零开始带你推导神秘的RoPE

位置编码发展史:从零开始带你推导神秘的RoPE

RNN每个step的隐状态都取决于上一个step的输出,这种连续的状态转移方式使得RNN天然带有位置信息。

来自主题: AI技术研报
5572 点击    2024-07-26 09:23