
谷歌爆改Transformer,“无限注意力”让1B小模型读完10部小说,114倍信息压缩
谷歌爆改Transformer,“无限注意力”让1B小模型读完10部小说,114倍信息压缩它通过将压缩记忆(compressive memory)整合到线性注意力机制中,用来处理无限长上下文
来自主题: AI资讯
7893 点击 2024-04-13 20:07
它通过将压缩记忆(compressive memory)整合到线性注意力机制中,用来处理无限长上下文
谷歌又放大招了,发布下一代 Transformer 模型 Infini-Transformer。