# 热门搜索 #
搜索
搜索: Transforme
Meta无限长文本大模型来了:参数仅7B,已开源

Transformers 的二次复杂度和弱长度外推限制了它们扩展到长序列的能力,虽然存在线性注意力和状态空间模型等次二次解决方案

来自主题: AI技术研报
5687 点击    2024-04-17 20:17
DeepMind升级Transformer,前向通过FLOPs最多可降一半

Transformer 的重要性无需多言,目前也有很多研究团队致力于改进这种变革性技术,其中一个重要的改进方向是提升 Transformer 的效率,比如让其具备自适应计算能力,从而可以节省下不必要的计算。

来自主题: AI资讯
2932 点击    2024-04-16 21:18
魔改RNN挑战Transformer,RWKV上新:推出2种新架构模型

不走Transformer寻常路,魔改RNN的国产新架构RWKV,有了新进展: 提出了两种新的RWKV架构,即Eagle (RWKV-5) 和Finch(RWKV-6)。

来自主题: AI资讯
7268 点击    2024-04-13 18:06
谷歌更新Transformer架构,更节省计算资源!50%性能提升

谷歌终于更新了Transformer架构。最新发布的Mixture-of-Depths(MoD),改变了以往Transformer计算模式。它通过动态分配大模型中的计算资源,跳过一些不必要计算,显著提高训练效率和推理速度。

来自主题: AI技术研报
5591 点击    2024-04-05 17:04
CVPR 2024满分论文,英伟达开源BOP排行榜6D物体姿态第一名方法

物体姿态估计对于各种应用至关重要,例如机器人操纵和混合现实。实例级方法通常需要纹理 CAD 模型来生成训练数据,并且不能应用于测试时未见过的新物体;而类别级方法消除了这些假设(实例训练和 CAD 模型),但获取类别级训练数据需要应用额外的姿态标准化和检查步骤。

来自主题: AI技术研报
6743 点击    2024-04-04 15:32