# 热门搜索 #
搜索
搜索: Transforme
华为最新研究挑战Scaling Law

“Scaling Law不是万金油”——关于大模型表现,华为又提出了新理论。

来自主题: AI资讯
4845 点击    2024-05-18 19:31
原作者带队,LSTM真杀回来了!

20 世纪 90 年代,长短时记忆(LSTM)方法引入了恒定误差选择轮盘和门控的核心思想。三十多年来,LSTM 经受住了时间的考验,并为众多深度学习的成功案例做出了贡献。然而,以可并行自注意力为核心 Transformer 横空出世之后,LSTM 自身所存在的局限性使其风光不再。

来自主题: AI资讯
6627 点击    2024-05-10 10:19
平均准确率达96.4%,中山大学&重庆大学开发基于Transformer的单细胞注释方法

使用测序 (scATAC-seq) 技术对转座酶可及的染色质进行单细胞测定,可在单细胞分辨率下深入了解基因调控和表观遗传异质性,但由于数据的高维性和极度稀疏性,scATAC-seq 的细胞注释仍然具有挑战性。现有的细胞注释方法大多集中在细胞峰矩阵上,而没有充分利用底层的基因组序列。

来自主题: AI技术研报
9494 点击    2024-05-04 20:01
在12个视频理解任务中,Mamba先打败了Transformer

探索视频理解的新境界,Mamba 模型引领计算机视觉研究新潮流!传统架构的局限已被打破,状态空间模型 Mamba 以其在长序列处理上的独特优势,为视频理解领域带来了革命性的变革。

来自主题: AI技术研报
5288 点击    2024-04-30 18:28
首个基于Mamba的MLLM来了!模型权重、训练代码等已全部开源

近年来,多模态大型语言模型(MLLM)在各个领域的应用取得了显著的成功。然而,作为许多下游任务的基础模型,当前的 MLLM 由众所周知的 Transformer 网络构成,这种网络具有较低效的二次计算复杂度。

来自主题: AI技术研报
6580 点击    2024-04-22 17:42