Cache Me If You Can:陈丹琦团队如何「抓住」关键缓存,解放LLM内存? Cache Me If You Can:陈丹琦团队如何「抓住」关键缓存,解放LLM内存? 关键词: AI,模型训练,陈丹琦,KV足迹 普林斯顿大学计算机科学系助理教授陈丹琦团队又有了新论文了。近期,诸如「长思维链」等技术的兴起,带来了需要模型生成数万个 token 的全新工作负载。 来自主题: AI技术研报 8089 点击 2025-06-25 10:51