AI资讯新闻榜单内容搜索-Mamba

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Mamba
刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

Jet-Nemotron是英伟达最新推出的小模型系列(2B/4B),由全华人团队打造。其核心创新在于提出后神经架构搜索(PostNAS)与新型线性注意力模块JetBlock,实现了从预训练Transformer出发的高效架构优化。

来自主题: AI技术研报
6080 点击    2025-08-26 19:34
Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

英伟达发布全新架构9B模型,以Mamba-Transformer混合架构实现推理吞吐量最高提升6倍,对标Qwen3-8B并在数学、代码、推理与长上下文任务中表现持平或更优。

来自主题: AI资讯
6294 点击    2025-08-19 11:35
无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer

无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer

无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer

最近,Mamba 作者之一 Albert Gu 又发新研究,他参与的一篇论文《 Dynamic Chunking for End-to-End Hierarchical Sequence Modeling 》提出了一个分层网络 H-Net,其用模型内部的动态分块过程取代 tokenization,从而自动发现和操作有意义的数据单元。

来自主题: AI技术研报
6237 点击    2025-07-13 11:37
无需CUDA代码给H100加速33%-50%,Flash Attention作者新作火了

无需CUDA代码给H100加速33%-50%,Flash Attention作者新作火了

无需CUDA代码给H100加速33%-50%,Flash Attention作者新作火了

无需CUDA代码,给H100加速33%-50%! Flash Attention、Mamba作者之一Tri Dao的新作火了。

来自主题: AI技术研报
8259 点击    2025-07-11 16:06
Mamba一作预告新架构!长文论述Transformer≠最终解法

Mamba一作预告新架构!长文论述Transformer≠最终解法

Mamba一作预告新架构!长文论述Transformer≠最终解法

Mamba一作最新大发长文! 主题只有一个,即探讨两种主流序列模型——状态空间模型(SSMs)和Transformer模型的权衡之术。

来自主题: AI技术研报
5890 点击    2025-07-10 10:56
单GPU搞定高清长视频生成,效率×10!引入Mamba机制突破DiT瓶颈 | 普林斯顿&Meta

单GPU搞定高清长视频生成,效率×10!引入Mamba机制突破DiT瓶颈 | 普林斯顿&Meta

单GPU搞定高清长视频生成,效率×10!引入Mamba机制突破DiT瓶颈 | 普林斯顿&Meta

普林斯顿大学和Meta联合推出的新框架LinGen,以MATE线性复杂度块取代传统自注意力,将视频生成从像素数的平方复杂度压到线性复杂度,使单张GPU就能在分钟级长度下生成高质量视频,大幅提高了模型的可扩展性和生成效率。

来自主题: AI技术研报
6656 点击    2025-06-19 12:07
算力终结者来了!华人天团「降维打击」注意力瓶颈,AI狂飙进对数时代

算力终结者来了!华人天团「降维打击」注意力瓶颈,AI狂飙进对数时代

算力终结者来了!华人天团「降维打击」注意力瓶颈,AI狂飙进对数时代

注意力机制的「平方枷锁」,再次被撬开!一招Fenwick树分段,用掩码矩阵,让注意力焕发对数级效率。更厉害的是,它无缝对接线性注意力家族,Mamba-2、DeltaNet 全员提速,跑分全面开花。长序列处理迈入log时代!

来自主题: AI技术研报
7227 点击    2025-06-08 15:27
Mamba核心作者新作:取代DeepSeek在用的注意力机制,专为推理打造

Mamba核心作者新作:取代DeepSeek在用的注意力机制,专为推理打造

Mamba核心作者新作:取代DeepSeek在用的注意力机制,专为推理打造

曾撼动Transformer统治地位的Mamba作者之一Tri Dao,刚刚带来新作——提出两种专为推理“量身定制”的注意力机制。

来自主题: AI技术研报
6906 点击    2025-06-02 15:04
Transformer+Mamba黄金组合!长文推理性能飙升3倍,性能还更强

Transformer+Mamba黄金组合!长文推理性能飙升3倍,性能还更强

Transformer+Mamba黄金组合!长文推理性能飙升3倍,性能还更强

Nemotron-H模型混合了Transformer和Mamba架构,使长文本推理速度提升3倍,同时还能保持高性能,开源版本包括8B和56B尺寸。训练过程采用FP8训练和压缩技术,进一步提高了20%推理速度

来自主题: AI产品测评
6682 点击    2025-04-20 20:47