不用额外缓存!英伟达开源大模型记忆压缩方案,128K上下文提速2.7倍 不用额外缓存!英伟达开源大模型记忆压缩方案,128K上下文提速2.7倍 关键词: AI新闻,模型训练,TTT-E2E,人工智能 提高大模型记忆这块儿,美国大模型开源王者——英伟达也出招了。 来自主题: AI技术研报 8180 点击 2026-01-14 15:29