AI资讯新闻榜单内容搜索-Transforme

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: Transforme
首个全自动科学发现AI系统,Transformer作者创业公司Sakana AI推出AI Scientist

首个全自动科学发现AI系统,Transformer作者创业公司Sakana AI推出AI Scientist

首个全自动科学发现AI系统,Transformer作者创业公司Sakana AI推出AI Scientist

一年前,谷歌最后一位 Transformer 论文作者 Llion Jones 离职创业,与前谷歌研究人员 David Ha共同创立人工智能公司 Sakana AI。Sakana AI 声称将创建一种基于自然启发智能的新型基础模型! 现在,Sakana AI 交上了自己的答卷。

来自主题: AI资讯
6307 点击    2024-08-18 10:23
黑匣子被打开了!能玩的Transformer可视化解释工具,本地运行GPT-2、还可实时推理

黑匣子被打开了!能玩的Transformer可视化解释工具,本地运行GPT-2、还可实时推理

黑匣子被打开了!能玩的Transformer可视化解释工具,本地运行GPT-2、还可实时推理

2017 年,谷歌在论文《Attention is all you need》中提出了 Transformer,成为了深度学习领域的重大突破。该论文的引用数已经将近 13 万,后来的 GPT 家族所有模型也都是基于 Transformer 架构,可见其影响之广。 作为一种神经网络架构,Transformer 在从文本到视觉的多样任务中广受欢迎,尤其是在当前火热的 AI 聊天机器人领域。

来自主题: AI资讯
6133 点击    2024-08-11 17:38
2.5天完成1年的MD计算?DeepMind团队基于欧几里得Transformer的新计算方法

2.5天完成1年的MD计算?DeepMind团队基于欧几里得Transformer的新计算方法

2.5天完成1年的MD计算?DeepMind团队基于欧几里得Transformer的新计算方法

近年来,基于从头算参考计算的机器学习力场 (MLFF) 的开发取得了巨大进展。虽然实现了较低的测试误差,但由于担心在较长的模拟时间范围内会出现不稳定性,MLFF 在分子动力学 (MD) 模拟中的可靠性正面临越来越多的审查。

来自主题: AI资讯
7345 点击    2024-08-10 18:18
对话RWKV作者彭博:单枪匹马挑战Transformer的神秘怪才

对话RWKV作者彭博:单枪匹马挑战Transformer的神秘怪才

对话RWKV作者彭博:单枪匹马挑战Transformer的神秘怪才

一个人,待在家里,“懒散”的有一搭没一搭,训练一个要挑战已经“一统世界”的Transformer 的模型。这听起来足够夸张。

来自主题: AI资讯
8668 点击    2024-08-08 14:45
无比喻,不论文!用「画家流水线」的方式理解Transformer中间层

无比喻,不论文!用「画家流水线」的方式理解Transformer中间层

无比喻,不论文!用「画家流水线」的方式理解Transformer中间层

Transformer架构层层堆叠,包含十几亿甚至几十亿个参数,这些层到底是如何工作的?当一个新奇的比喻——「画家流水线」,被用于类比并理解Transformer架构的中间层,情况突然变得明朗起来,并引出了一些有趣的发现。

来自主题: AI技术研报
9465 点击    2024-08-08 14:37
八问八答搞懂Transformer内部运作原理

八问八答搞懂Transformer内部运作原理

八问八答搞懂Transformer内部运作原理

七年前,论文《Attention is all you need》提出了 transformer 架构,颠覆了整个深度学习领域。

来自主题: AI技术研报
8450 点击    2024-08-07 14:31
30人,25亿美元卖身,大模型淘汰赛加速

30人,25亿美元卖身,大模型淘汰赛加速

30人,25亿美元卖身,大模型淘汰赛加速

卖身,AI大模型创企的归宿?

来自主题: AI资讯
6370 点击    2024-08-04 14:18
小技巧大功效,「仅阅读两次提示」让循环语言模型超越Transformer++

小技巧大功效,「仅阅读两次提示」让循环语言模型超越Transformer++

小技巧大功效,「仅阅读两次提示」让循环语言模型超越Transformer++

在当前 AI 领域,大语言模型采用的主流架构是 Transformer。不过,随着 RWKV、Mamba 等架构的陆续问世,出现了一个很明显的趋势:在语言建模困惑度方面与 Transformer 较量的循环大语言模型正在快速进入人们的视线。

来自主题: AI资讯
9205 点击    2024-08-04 14:04