10倍吞吐提升无损性能:多模态适用的KV cache量化策略来了,即插即用无需改原模型 10倍吞吐提升无损性能:多模态适用的KV cache量化策略来了,即插即用无需改原模型 关键词: AI,CalibQuant,模型训练,KV cache 在InternVL-2.5上实现10倍吞吐量提升,模型性能几乎无损失。 来自主题: AI技术研报 6073 点击 2025-04-03 16:12