400万token上下文、推理再加速46%!最新开源方案升级MIT成果,推理成本再降低 关键词: StreamingLLM,SwiftInfer,上下文 22倍加速还不够,再来提升46%,而且方法直接开源!这就是开源社区改进MIT爆火项目StreamingLLM的最新成果。 来自主题: AI资讯 6884 点击 2024-01-08 14:44
大模型无限流式输入推理飙升46%!国产开源加速「全家桶」,打破多轮对话长度限制 关键词: LLM,SwiftInfer,Colossal-AI,StreamingLLM 大模型推理再次跃升一个新台阶!最近,全新开源的国产SwiftInfer方案,不仅能让LLM处理无限流式输入,而且还将推理性能提升了46%。 来自主题: AI资讯 3757 点击 2024-01-08 13:42