AI资讯新闻榜单内容搜索-transforme

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: transforme
在12个视频理解任务中,Mamba先打败了Transformer

在12个视频理解任务中,Mamba先打败了Transformer

在12个视频理解任务中,Mamba先打败了Transformer

探索视频理解的新境界,Mamba 模型引领计算机视觉研究新潮流!传统架构的局限已被打破,状态空间模型 Mamba 以其在长序列处理上的独特优势,为视频理解领域带来了革命性的变革。

来自主题: AI技术研报
6225 点击    2024-04-30 18:28
首个基于Mamba的MLLM来了!模型权重、训练代码等已全部开源

首个基于Mamba的MLLM来了!模型权重、训练代码等已全部开源

首个基于Mamba的MLLM来了!模型权重、训练代码等已全部开源

近年来,多模态大型语言模型(MLLM)在各个领域的应用取得了显著的成功。然而,作为许多下游任务的基础模型,当前的 MLLM 由众所周知的 Transformer 网络构成,这种网络具有较低效的二次计算复杂度。

来自主题: AI技术研报
7444 点击    2024-04-22 17:42
Meta无限长文本大模型来了:参数仅7B,已开源

Meta无限长文本大模型来了:参数仅7B,已开源

Meta无限长文本大模型来了:参数仅7B,已开源

Transformers 的二次复杂度和弱长度外推限制了它们扩展到长序列的能力,虽然存在线性注意力和状态空间模型等次二次解决方案

来自主题: AI技术研报
6309 点击    2024-04-17 20:17
DeepMind升级Transformer,前向通过FLOPs最多可降一半

DeepMind升级Transformer,前向通过FLOPs最多可降一半

DeepMind升级Transformer,前向通过FLOPs最多可降一半

Transformer 的重要性无需多言,目前也有很多研究团队致力于改进这种变革性技术,其中一个重要的改进方向是提升 Transformer 的效率,比如让其具备自适应计算能力,从而可以节省下不必要的计算。

来自主题: AI资讯
3550 点击    2024-04-16 21:18
还在卷长文本?谷歌最新论文直接把文本干到…无限长了

还在卷长文本?谷歌最新论文直接把文本干到…无限长了

还在卷长文本?谷歌最新论文直接把文本干到…无限长了

通过这项技术,能使transformer大模型在有限的计算资源 条件下,处理无限长度的输入。

来自主题: AI技术研报
5898 点击    2024-04-15 15:15