2倍提速!KV缓存压缩不只看重要性,上交大团队让模型推理「又快又稳」 | ICLR'26 2倍提速!KV缓存压缩不只看重要性,上交大团队让模型推理「又快又稳」 | ICLR'26 关键词: AI,模型训练,EPIC Lab,人工智能,MixKV 长上下文推理已经成了VLM/LLM的默认形态。 来自主题: AI技术研报 5388 点击 2026-04-01 09:40