
清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!
清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!挖掘大模型固有的长文本理解能力,InfLLM在没有引入额外训练的情况下,利用一个外部记忆模块存储超长上下文信息,实现了上下文长度的扩展。
来自主题: AI技术研报
3971 点击 2024-03-11 17:31
挖掘大模型固有的长文本理解能力,InfLLM在没有引入额外训练的情况下,利用一个外部记忆模块存储超长上下文信息,实现了上下文长度的扩展。