
重塑注意力机制:GTA登场,KV缓存缩减70%、计算量削减62.5%
重塑注意力机制:GTA登场,KV缓存缩减70%、计算量削减62.5%GTA 工作由中国科学院自动化研究所、伦敦大学学院及香港科技大学(广州)联合研发,提出了一种高效的大模型框架,显著提升模型性能与计算效率。
来自主题: AI技术研报
7262 点击 2025-07-23 10:15
GTA 工作由中国科学院自动化研究所、伦敦大学学院及香港科技大学(广州)联合研发,提出了一种高效的大模型框架,显著提升模型性能与计算效率。
谁曾想,AI竟能实时生成GTA级大作。刚刚,谷歌、英伟达等机构联手,震撼发布全球首款AI原生UGC游戏引擎——Mirage,没有预设关卡,一句话即生游戏,超长十分钟沉浸式体验
曾撼动Transformer统治地位的Mamba作者之一Tri Dao,刚刚带来新作——提出两种专为推理“量身定制”的注意力机制。
利用语言模型调用工具,是实现通用目标智能体(general-purpose agents)的重要途径,对语言模型的工具调用能力提出了挑战。
GTA 新出的游戏预告片看了吗?据说,这个预告片已经破了三项吉尼斯世界纪录,观看次数已经破亿。