
谷歌爆改Transformer,“无限注意力”让1B小模型读完10部小说,114倍信息压缩
谷歌爆改Transformer,“无限注意力”让1B小模型读完10部小说,114倍信息压缩它通过将压缩记忆(compressive memory)整合到线性注意力机制中,用来处理无限长上下文
来自主题: AI资讯
8076 点击 2024-04-13 20:07
它通过将压缩记忆(compressive memory)整合到线性注意力机制中,用来处理无限长上下文
Lightning Attention-2 是一种新型的线性注意力机制,让长序列的训练和推理成本与 1K 序列长度的一致。
替代注意力机制,SSM 真的大有可为?
现在ChatGPT等大模型一大痛点:处理长文本算力消耗巨大,背后原因是Transformer架构中注意力机制的二次复杂度。
大语言模型「拍马屁」的问题到底要怎么解决?最近,LeCun转发了Meta发布的一篇论文,研究人员提出了新的方法,有效提升了LLM回答问题的事实性和客观性。我们一起来看一下吧。
关于大模型注意力机制,Meta又有了一项新研究。通过调整模型注意力,屏蔽无关信息的干扰,新的机制让大模型准确率进一步提升。而且这种机制不需要微调或训练,只靠Prompt就能让大模型的准确率上升27%。