AI资讯新闻榜单内容搜索-注意力机制

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 注意力机制
时空压缩!剑桥大学提出注意力机制MTLA:推理加速5倍,显存减至1/8

时空压缩!剑桥大学提出注意力机制MTLA:推理加速5倍,显存减至1/8

时空压缩!剑桥大学提出注意力机制MTLA:推理加速5倍,显存减至1/8

在大语言模型蓬勃发展的背景下,Transformer 架构依然是不可替代的核心组件。尽管其自注意力机制存在计算复杂度为二次方的问题,成为众多研究试图突破的重点

来自主题: AI技术研报
6965 点击    2025-06-11 11:43
算力终结者来了!华人天团「降维打击」注意力瓶颈,AI狂飙进对数时代

算力终结者来了!华人天团「降维打击」注意力瓶颈,AI狂飙进对数时代

算力终结者来了!华人天团「降维打击」注意力瓶颈,AI狂飙进对数时代

注意力机制的「平方枷锁」,再次被撬开!一招Fenwick树分段,用掩码矩阵,让注意力焕发对数级效率。更厉害的是,它无缝对接线性注意力家族,Mamba-2、DeltaNet 全员提速,跑分全面开花。长序列处理迈入log时代!

来自主题: AI技术研报
6933 点击    2025-06-08 15:27
Mamba核心作者新作:取代DeepSeek在用的注意力机制,专为推理打造

Mamba核心作者新作:取代DeepSeek在用的注意力机制,专为推理打造

Mamba核心作者新作:取代DeepSeek在用的注意力机制,专为推理打造

曾撼动Transformer统治地位的Mamba作者之一Tri Dao,刚刚带来新作——提出两种专为推理“量身定制”的注意力机制。

来自主题: AI技术研报
6623 点击    2025-06-02 15:04
CVPR 2025 Highlight | 提升自回归模型样例学习能力,Few-shot图像编辑新范式开源

CVPR 2025 Highlight | 提升自回归模型样例学习能力,Few-shot图像编辑新范式开源

CVPR 2025 Highlight | 提升自回归模型样例学习能力,Few-shot图像编辑新范式开源

研究者针对 few-shot 图像编辑提出一个新的自回归模型结构 ——InstaManip,并创新性地提出分组自注意力机制(group self-attention),在此任务上取得了优异的效果。

来自主题: AI技术研报
7605 点击    2025-06-01 13:30
北大DeepSeek论文或预定ACL Best Paper!梁文锋署名

北大DeepSeek论文或预定ACL Best Paper!梁文锋署名

北大DeepSeek论文或预定ACL Best Paper!梁文锋署名

北大DeepSeek联合发布的NSA论文,目前已被ACL 2025录用并获得了极高评分,甚至有望冲击最佳论文奖。该技术颠覆传统注意力机制,实现算力效率飞跃,被誉为长文本处理的革命性突破。

来自主题: AI资讯
7948 点击    2025-05-19 17:19
AI怎样模仿人类大脑的注意力机制?

AI怎样模仿人类大脑的注意力机制?

AI怎样模仿人类大脑的注意力机制?

最近,人们对AI谈得最多的是deepseek(简称DS)。这匹来自中国本土的黑马,闯入全球视野,一度扰乱美国股市,在 AI 领域掀起了一场轩然大波。

来自主题: AI技术研报
7870 点击    2025-05-17 18:15
刚刚,ICLR 2025时间检验奖颁给Adam之父!Bengio「注意力机制」摘亚军

刚刚,ICLR 2025时间检验奖颁给Adam之父!Bengio「注意力机制」摘亚军

刚刚,ICLR 2025时间检验奖颁给Adam之父!Bengio「注意力机制」摘亚军

ICLR 2025时间检验奖重磅揭晓!Yoshua Bengio与华人科学家Jimmy Ba分别领衔的两篇十年前论文摘得冠军与亚军。一个是Adam优化器,另一个注意力机制,彻底重塑深度学习的未来。

来自主题: AI资讯
6808 点击    2025-04-15 17:06