AI资讯新闻榜单内容搜索-Mamba

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: Mamba
轻量化MobileMamba视觉模型来了|浙大/腾讯优图/华中科大联合出品

轻量化MobileMamba视觉模型来了|浙大/腾讯优图/华中科大联合出品

轻量化MobileMamba视觉模型来了|浙大/腾讯优图/华中科大联合出品

浙大、腾讯优图、华中科技大学的团队,提出轻量化MobileMamba! 既良好地平衡了效率与效果,推理速度远超现有基于Mamba的模型。

来自主题: AI技术研报
7229 点击    2024-12-01 14:27
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

在自然语言处理、语音识别和时间序列分析等众多领域中,序列建模是一项至关重要的任务。然而,现有的模型在捕捉长程依赖关系和高效建模序列方面仍面临诸多挑战。

来自主题: AI技术研报
5974 点击    2024-10-15 19:22
首个Mamba+Transformer混合架构多模态大模型来了,实现单卡千图推理

首个Mamba+Transformer混合架构多模态大模型来了,实现单卡千图推理

首个Mamba+Transformer混合架构多模态大模型来了,实现单卡千图推理

扩展多模态大语言模型(MLLMs)的长上下文能力对于视频理解、高分辨率图像理解以及多模态智能体至关重要。这涉及一系列系统性的优化,包括模型架构、数据构建和训练策略,尤其要解决诸如随着图像增多性能下降以及高计算成本等挑战。

来自主题: AI技术研报
7299 点击    2024-09-21 18:19
3天把Llama训成Mamba,性能不降,推理更快!

3天把Llama训成Mamba,性能不降,推理更快!

3天把Llama训成Mamba,性能不降,推理更快!

近日,Mamba方面又搞出了有意思的研究:来自康奈尔、普林斯顿等机构的研究人员成功将Llama提炼成了Mamba模型,并且设计了新的推测解码算法,加速了模型的推理。

来自主题: AI技术研报
7502 点击    2024-09-05 15:31
Mamba作者新作:将Llama3蒸馏成混合线性 RNN

Mamba作者新作:将Llama3蒸馏成混合线性 RNN

Mamba作者新作:将Llama3蒸馏成混合线性 RNN

Transformer 在深度学习领域取得巨大成功的关键是注意力机制。注意力机制让基于 Transformer 的模型关注与输入序列相关的部分,实现了更好的上下文理解。然而,注意力机制的缺点是计算开销大,会随输入规模而二次增长,Transformer 也因此难以处理非常长的文本。

来自主题: AI技术研报
7423 点击    2024-08-31 14:54
Jamba 1.5发布,最长上下文,非Transformer架构首次成功领先

Jamba 1.5发布,最长上下文,非Transformer架构首次成功领先

Jamba 1.5发布,最长上下文,非Transformer架构首次成功领先

Jamba是第一个基于 Mamba 架构的生产级模型。Mamba 是由卡内基梅隆大学和普林斯顿大学的研究人员提出的新架构,被视为 Transformer 架构的有力挑战者。

来自主题: AI资讯
7753 点击    2024-08-24 10:07