陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减
陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减陈丹琦团队又带着他们的降本大法来了—— 数据砍掉三分之一,大模型性能却完全不减。 他们引入了元数据,加速了大模型预训练的同时,也不增加单独的计算开销。
来自主题: AI资讯
6389 点击 2025-01-08 09:56
陈丹琦团队又带着他们的降本大法来了—— 数据砍掉三分之一,大模型性能却完全不减。 他们引入了元数据,加速了大模型预训练的同时,也不增加单独的计算开销。
好家伙!为了揭秘Transformer内部工作原理,陈丹琦团队直接复现——
陈丹琦团队刚刚发布了一项新工作,主题是: