AI资讯新闻榜单内容搜索-Attention

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Attention
用好视觉Attention局部性,清华、字节提出Token Reorder,无损实现5倍稀疏、4比特量化

用好视觉Attention局部性,清华、字节提出Token Reorder,无损实现5倍稀疏、4比特量化

用好视觉Attention局部性,清华、字节提出Token Reorder,无损实现5倍稀疏、4比特量化

近年来,随着视觉生成模型的发展,视觉生成任务的输入序列长度逐渐增长(高分辨率生成,视频多帧生成,可达到 10K-100K)。

来自主题: AI技术研报
5751 点击    2025-06-30 15:35
深度分析:为什么a16z敢1500万美金押注一个"作弊工具"?Attention is All You Need的AI时代!

深度分析:为什么a16z敢1500万美金押注一个"作弊工具"?Attention is All You Need的AI时代!

深度分析:为什么a16z敢1500万美金押注一个"作弊工具"?Attention is All You Need的AI时代!

你有没有想过,一个因为开发作弊工具被哥伦比亚大学开除的 21 岁学生,竟然能在短短几个月内获得 a16z 领投的 1500 万美元融资?

来自主题: AI资讯
6972 点击    2025-06-29 11:31
无需训练,即插即用,2倍GPU端到端推理加速——视频扩散模型加速方法DraftAttention

无需训练,即插即用,2倍GPU端到端推理加速——视频扩散模型加速方法DraftAttention

无需训练,即插即用,2倍GPU端到端推理加速——视频扩散模型加速方法DraftAttention

在高质量视频生成任务中,扩散模型(Diffusion Models)已经成为主流。然而,随着视频长度和分辨率的提升,Diffusion Transformer(DiT)模型中的注意力机制计算量急剧增加,成为推理效率的最大瓶颈。

来自主题: AI技术研报
5846 点击    2025-06-28 16:09
清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练

清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练

清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练

随着大型模型需要处理的序列长度不断增加,注意力运算(Attention)的时间开销逐渐成为主要开销。

来自主题: AI技术研报
7126 点击    2025-06-19 10:47
AGI真方向?谷歌证明:智能体在自研世界模型,世界模型is all You Need

AGI真方向?谷歌证明:智能体在自研世界模型,世界模型is all You Need

AGI真方向?谷歌证明:智能体在自研世界模型,世界模型is all You Need

越通用,就越World Models。 我们知道,大模型技术爆发的原点可能在谷歌一篇名为《Attention is All You Need》的论文上。

来自主题: AI技术研报
6516 点击    2025-06-14 13:22
Transformer八周年!Attention Is All You Need被引破18万封神

Transformer八周年!Attention Is All You Need被引破18万封神

Transformer八周年!Attention Is All You Need被引破18万封神

Transformer已满8岁,革命性论文《Attention Is All You Need》被引超18万次,掀起生成式AI革命。Transformer催生了ChatGPT、Gemini、Claude等诸多前沿产品。更重要的是,它让人类真正跨入了生成式AI时代。

来自主题: AI资讯
7802 点击    2025-06-13 14:53
算力终结者来了!华人天团「降维打击」注意力瓶颈,AI狂飙进对数时代

算力终结者来了!华人天团「降维打击」注意力瓶颈,AI狂飙进对数时代

算力终结者来了!华人天团「降维打击」注意力瓶颈,AI狂飙进对数时代

注意力机制的「平方枷锁」,再次被撬开!一招Fenwick树分段,用掩码矩阵,让注意力焕发对数级效率。更厉害的是,它无缝对接线性注意力家族,Mamba-2、DeltaNet 全员提速,跑分全面开花。长序列处理迈入log时代!

来自主题: AI技术研报
7002 点击    2025-06-08 15:27
CVPR 2025 Highlight | 提升自回归模型样例学习能力,Few-shot图像编辑新范式开源

CVPR 2025 Highlight | 提升自回归模型样例学习能力,Few-shot图像编辑新范式开源

CVPR 2025 Highlight | 提升自回归模型样例学习能力,Few-shot图像编辑新范式开源

研究者针对 few-shot 图像编辑提出一个新的自回归模型结构 ——InstaManip,并创新性地提出分组自注意力机制(group self-attention),在此任务上取得了优异的效果。

来自主题: AI技术研报
7678 点击    2025-06-01 13:30
ICML 2025 | 视频生成模型无损加速两倍,秘诀竟然是「抓住attention的时空稀疏性」

ICML 2025 | 视频生成模型无损加速两倍,秘诀竟然是「抓住attention的时空稀疏性」

ICML 2025 | 视频生成模型无损加速两倍,秘诀竟然是「抓住attention的时空稀疏性」

自 OpenAI 发布 Sora 以来,AI 视频生成技术进入快速爆发阶段。凭借扩散模型强大的生成能力,我们已经可以看到接近现实的视频生成效果。但在模型逼真度不断提升的同时,速度瓶颈却成为横亘在大规模应用道路上的最大障碍。

来自主题: AI技术研报
7978 点击    2025-05-08 10:15