400万token上下文、推理再加速46%!最新开源方案升级MIT成果,推理成本再降低 400万token上下文、推理再加速46%!最新开源方案升级MIT成果,推理成本再降低 关键词: StreamingLLM,SwiftInfer,上下文 22倍加速还不够,再来提升46%,而且方法直接开源!这就是开源社区改进MIT爆火项目StreamingLLM的最新成果。 来自主题: AI资讯 7386 点击 2024-01-08 14:44