AI资讯新闻榜单内容搜索-Attention

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Attention
ICML25|标点符号竟是LLM记忆核心!正确处理性能暴涨

ICML25|标点符号竟是LLM记忆核心!正确处理性能暴涨

ICML25|标点符号竟是LLM记忆核心!正确处理性能暴涨

近年来,大语言模型(LLM)的能力越来越强,但它们的“饭量”也越来越大。这个“饭量”主要体现在计算和内存上。当模型处理的文本越来越长时,一个叫做“自注意力(Self-Attention)”的核心机制会导致计算量呈平方级增长。这就像一个房间里的人开会,如果每个人都要和在场的其他所有人单独聊一遍,那么随着人数增加,总的对话次数会爆炸式增长。

来自主题: AI技术研报
5129 点击    2025-07-29 12:29
重塑注意力机制:GTA登场,KV缓存缩减70%、计算量削减62.5%

重塑注意力机制:GTA登场,KV缓存缩减70%、计算量削减62.5%

重塑注意力机制:GTA登场,KV缓存缩减70%、计算量削减62.5%

GTA 工作由中国科学院自动化研究所、伦敦大学学院及香港科技大学(广州)联合研发,提出了一种高效的大模型框架,显著提升模型性能与计算效率。

来自主题: AI技术研报
7360 点击    2025-07-23 10:15
无需CUDA代码给H100加速33%-50%,Flash Attention作者新作火了

无需CUDA代码给H100加速33%-50%,Flash Attention作者新作火了

无需CUDA代码给H100加速33%-50%,Flash Attention作者新作火了

无需CUDA代码,给H100加速33%-50%! Flash Attention、Mamba作者之一Tri Dao的新作火了。

来自主题: AI技术研报
8152 点击    2025-07-11 16:06
清华第三代Sage注意力发布!提速5倍,精度不降,训推都能用

清华第三代Sage注意力发布!提速5倍,精度不降,训推都能用

清华第三代Sage注意力发布!提速5倍,精度不降,训推都能用

清华大学朱军教授团队提出SageAttention3,利用FP4量化实现推理加速,比FlashAttention快5倍,同时探索了8比特注意力用于训练任务的可行性,在微调中实现了无损性能。

来自主题: AI技术研报
6094 点击    2025-07-08 12:08
原来Scaling Law还能被优化?Meta这招省token又提效

原来Scaling Law还能被优化?Meta这招省token又提效

原来Scaling Law还能被优化?Meta这招省token又提效

2017 年,一篇《Attention Is All You Need》论文成为 AI 发展的一个重要分水岭,其中提出的 Transformer 依然是现今主流语言模型的基础范式。尤其是在基于 Transformer 的语言模型的 Scaling Law 得到实验验证后,AI 领域的发展更是进入了快车道。

来自主题: AI技术研报
5944 点击    2025-07-06 14:56
用好视觉Attention局部性,清华、字节提出Token Reorder,无损实现5倍稀疏、4比特量化

用好视觉Attention局部性,清华、字节提出Token Reorder,无损实现5倍稀疏、4比特量化

用好视觉Attention局部性,清华、字节提出Token Reorder,无损实现5倍稀疏、4比特量化

近年来,随着视觉生成模型的发展,视觉生成任务的输入序列长度逐渐增长(高分辨率生成,视频多帧生成,可达到 10K-100K)。

来自主题: AI技术研报
5867 点击    2025-06-30 15:35
深度分析:为什么a16z敢1500万美金押注一个"作弊工具"?Attention is All You Need的AI时代!

深度分析:为什么a16z敢1500万美金押注一个"作弊工具"?Attention is All You Need的AI时代!

深度分析:为什么a16z敢1500万美金押注一个"作弊工具"?Attention is All You Need的AI时代!

你有没有想过,一个因为开发作弊工具被哥伦比亚大学开除的 21 岁学生,竟然能在短短几个月内获得 a16z 领投的 1500 万美元融资?

来自主题: AI资讯
7115 点击    2025-06-29 11:31
无需训练,即插即用,2倍GPU端到端推理加速——视频扩散模型加速方法DraftAttention

无需训练,即插即用,2倍GPU端到端推理加速——视频扩散模型加速方法DraftAttention

无需训练,即插即用,2倍GPU端到端推理加速——视频扩散模型加速方法DraftAttention

在高质量视频生成任务中,扩散模型(Diffusion Models)已经成为主流。然而,随着视频长度和分辨率的提升,Diffusion Transformer(DiT)模型中的注意力机制计算量急剧增加,成为推理效率的最大瓶颈。

来自主题: AI技术研报
5964 点击    2025-06-28 16:09
清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练

清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练

清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练

随着大型模型需要处理的序列长度不断增加,注意力运算(Attention)的时间开销逐渐成为主要开销。

来自主题: AI技术研报
7218 点击    2025-06-19 10:47