AI资讯新闻榜单内容搜索-Jürgen

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Jürgen
LSTM之父:我也是注意力之父!1991年就发表线性复杂度,遥遥领先Transformer 26年

LSTM之父:我也是注意力之父!1991年就发表线性复杂度,遥遥领先Transformer 26年

LSTM之父:我也是注意力之父!1991年就发表线性复杂度,遥遥领先Transformer 26年

Transformer模型自2017年问世以来,已成为AI领域的核心技术,尤其在自然语言处理中占据主导地位。然而,关于其核心机制“注意力”的起源,学界存在争议,一些学者如Jürgen Schmidhuber主张自己更早提出了相关概念。

来自主题: AI技术研报
6166 点击    2024-12-13 14:24
Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

7 年前,谷歌在论文《Attention is All You Need》中提出了 Transformer。就在 Transformer 提出的第二年,谷歌又发布了 Universal Transformer(UT)。它的核心特征是通过跨层共享参数来实现深度循环,从而重新引入了 RNN 具有的循环表达能力。

来自主题: AI技术研报
8737 点击    2024-10-19 14:29