AI资讯新闻榜单内容搜索-Mamba

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: Mamba
Mamba再次挑战霸主Transformer!首个通用Mamba开源大模型一鸣惊人

Mamba再次挑战霸主Transformer!首个通用Mamba开源大模型一鸣惊人

Mamba再次挑战霸主Transformer!首个通用Mamba开源大模型一鸣惊人

TII开源全球第一个通用的大型Mamba架构模型Falcon Mamba 7B,性能与Transformer架构模型相媲美,在多个基准测试上的均分超过了Llama 3.1 8B和Mistral 7B。

来自主题: AI资讯
6022 点击    2024-08-13 17:07
原作亲自下场!Mistral首款开源7B Mamba模型「埃及艳后」效果惊艳

原作亲自下场!Mistral首款开源7B Mamba模型「埃及艳后」效果惊艳

原作亲自下场!Mistral首款开源7B Mamba模型「埃及艳后」效果惊艳

最近,7B小模型又成为了AI巨头们竞相追赶的潮流。继谷歌的Gemma2 7B后,Mistral今天又发布了两个7B模型,分别是针对STEM学科的Mathstral,以及使用Mamaba架构的代码模型Codestral Mamba。

来自主题: AI技术研报
8355 点击    2024-07-17 19:53
Mamba真比Transformer更优吗?Mamba原作者:两个都要!混合架构才是最优解

Mamba真比Transformer更优吗?Mamba原作者:两个都要!混合架构才是最优解

Mamba真比Transformer更优吗?Mamba原作者:两个都要!混合架构才是最优解

Mamba模型由于匹敌Transformer的巨大潜力,在推出半年多的时间内引起了巨大关注。但在大规模预训练的场景下,这两个架构还未有「一较高低」的机会。最近,英伟达、CMU、普林斯顿等机构联合发表的实证研究论文填补了这个空白。

来自主题: AI技术研报
3616 点击    2024-07-13 19:32
Mamba一作再祭神作,H100利用率飙至75%!FlashAttention三代性能翻倍,比标准注意力快16倍

Mamba一作再祭神作,H100利用率飙至75%!FlashAttention三代性能翻倍,比标准注意力快16倍

Mamba一作再祭神作,H100利用率飙至75%!FlashAttention三代性能翻倍,比标准注意力快16倍

时隔一年,FlashAttention又推出了第三代更新,专门针对H100 GPU的新特性进行优化,在之前的基础上又实现了1.5~2倍的速度提升。

来自主题: AI技术研报
8149 点击    2024-07-12 16:57