AI资讯新闻榜单内容搜索-Mamba

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Mamba
首个Mamba+Transformer混合架构多模态大模型来了,实现单卡千图推理

首个Mamba+Transformer混合架构多模态大模型来了,实现单卡千图推理

首个Mamba+Transformer混合架构多模态大模型来了,实现单卡千图推理

扩展多模态大语言模型(MLLMs)的长上下文能力对于视频理解、高分辨率图像理解以及多模态智能体至关重要。这涉及一系列系统性的优化,包括模型架构、数据构建和训练策略,尤其要解决诸如随着图像增多性能下降以及高计算成本等挑战。

来自主题: AI技术研报
7441 点击    2024-09-21 18:19
3天把Llama训成Mamba,性能不降,推理更快!

3天把Llama训成Mamba,性能不降,推理更快!

3天把Llama训成Mamba,性能不降,推理更快!

近日,Mamba方面又搞出了有意思的研究:来自康奈尔、普林斯顿等机构的研究人员成功将Llama提炼成了Mamba模型,并且设计了新的推测解码算法,加速了模型的推理。

来自主题: AI技术研报
7605 点击    2024-09-05 15:31
Mamba作者新作:将Llama3蒸馏成混合线性 RNN

Mamba作者新作:将Llama3蒸馏成混合线性 RNN

Mamba作者新作:将Llama3蒸馏成混合线性 RNN

Transformer 在深度学习领域取得巨大成功的关键是注意力机制。注意力机制让基于 Transformer 的模型关注与输入序列相关的部分,实现了更好的上下文理解。然而,注意力机制的缺点是计算开销大,会随输入规模而二次增长,Transformer 也因此难以处理非常长的文本。

来自主题: AI技术研报
7541 点击    2024-08-31 14:54
Jamba 1.5发布,最长上下文,非Transformer架构首次成功领先

Jamba 1.5发布,最长上下文,非Transformer架构首次成功领先

Jamba 1.5发布,最长上下文,非Transformer架构首次成功领先

Jamba是第一个基于 Mamba 架构的生产级模型。Mamba 是由卡内基梅隆大学和普林斯顿大学的研究人员提出的新架构,被视为 Transformer 架构的有力挑战者。

来自主题: AI资讯
7897 点击    2024-08-24 10:07
一文看懂Mamba,Transformer最强竞争者

一文看懂Mamba,Transformer最强竞争者

一文看懂Mamba,Transformer最强竞争者

Mamba 虽好,但发展尚早。

来自主题: AI资讯
6330 点击    2024-08-19 14:46
Mamba再次挑战霸主Transformer!首个通用Mamba开源大模型一鸣惊人

Mamba再次挑战霸主Transformer!首个通用Mamba开源大模型一鸣惊人

Mamba再次挑战霸主Transformer!首个通用Mamba开源大模型一鸣惊人

TII开源全球第一个通用的大型Mamba架构模型Falcon Mamba 7B,性能与Transformer架构模型相媲美,在多个基准测试上的均分超过了Llama 3.1 8B和Mistral 7B。

来自主题: AI资讯
6477 点击    2024-08-13 17:07