ICML2024高分!魔改注意力,让小模型能打两倍大的模型 ICML2024高分!魔改注意力,让小模型能打两倍大的模型 关键词: Transformer,DCFormer,AI框架,模型训练 改进Transformer核心机制注意力,让小模型能打两倍大的模型! 来自主题: AI技术研报 8266 点击 2024-06-03 15:44