清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回! 关键词: NLP,清华NLP,InfLLM,超长上下文,token,模型训练 挖掘大模型固有的长文本理解能力,InfLLM在没有引入额外训练的情况下,利用一个外部记忆模块存储超长上下文信息,实现了上下文长度的扩展。 来自主题: AI技术研报 3514 点击 2024-03-11 17:31