陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减
陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减陈丹琦团队又带着他们的降本大法来了—— 数据砍掉三分之一,大模型性能却完全不减。 他们引入了元数据,加速了大模型预训练的同时,也不增加单独的计算开销。
来自主题: AI资讯
6390 点击 2025-01-08 09:56
陈丹琦团队又带着他们的降本大法来了—— 数据砍掉三分之一,大模型性能却完全不减。 他们引入了元数据,加速了大模型预训练的同时,也不增加单独的计算开销。