
next-token被淘汰!Meta实测「多token」训练方法,推理提速3倍,性能大涨10%+
next-token被淘汰!Meta实测「多token」训练方法,推理提速3倍,性能大涨10%+研究人员提出了一种新的大型语言模型训练方法,通过一次性预测多个未来tokens来提高样本效率和模型性能,在代码和自然语言生成任务上均表现出显著优势,且不会增加训练时间,推理速度还能提升至三倍。
来自主题: AI技术研报
8486 点击 2024-06-03 11:00
研究人员提出了一种新的大型语言模型训练方法,通过一次性预测多个未来tokens来提高样本效率和模型性能,在代码和自然语言生成任务上均表现出显著优势,且不会增加训练时间,推理速度还能提升至三倍。