# 热门搜索 #
搜索
搜索: AI框架
黑匣子被打开了!能玩的Transformer可视化解释工具,本地运行GPT-2、还可实时推理

2017 年,谷歌在论文《Attention is all you need》中提出了 Transformer,成为了深度学习领域的重大突破。该论文的引用数已经将近 13 万,后来的 GPT 家族所有模型也都是基于 Transformer 架构,可见其影响之广。 作为一种神经网络架构,Transformer 在从文本到视觉的多样任务中广受欢迎,尤其是在当前火热的 AI 聊天机器人领域。

来自主题: AI资讯
5746 点击    2024-08-11 17:38
无比喻,不论文!用「画家流水线」的方式理解Transformer中间层

Transformer架构层层堆叠,包含十几亿甚至几十亿个参数,这些层到底是如何工作的?当一个新奇的比喻——「画家流水线」,被用于类比并理解Transformer架构的中间层,情况突然变得明朗起来,并引出了一些有趣的发现。

来自主题: AI技术研报
9078 点击    2024-08-08 14:37
八问八答搞懂Transformer内部运作原理

七年前,论文《Attention is all you need》提出了 transformer 架构,颠覆了整个深度学习领域。

来自主题: AI技术研报
8089 点击    2024-08-07 14:31
ICML 2024|复杂组合3D场景生成,LLMs对话式3D可控生成编辑框架来了

近年来,针对单个物体的 Text-to-3D 方法取得了一系列突破性进展,但是从文本生成可控的、高质量的复杂多物体 3D 场景仍然面临巨大挑战。之前的方法在生成场景的复杂度、几何质量、纹理一致性、多物体交互关系、可控性和编辑性等方面均存在较大缺陷。

来自主题: AI技术研报
9118 点击    2024-07-31 17:34
位置编码发展史:从零开始带你推导神秘的RoPE

RNN每个step的隐状态都取决于上一个step的输出,这种连续的状态转移方式使得RNN天然带有位置信息。

来自主题: AI技术研报
4674 点击    2024-07-26 09:23