# 热门搜索 #
搜索
搜索: Llama
Llama3训练每3小时崩一次?豆包大模型、港大团队为脆皮万卡训练提效

伴随大模型迭代速度越来越快,训练集群规模越来越大,高频率的软硬件故障已经成为阻碍训练效率进一步提高的痛点,检查点(Checkpoint)系统在训练过程中负责状态的存储和恢复,已经成为克服训练故障、保障训练进度和提高训练效率的关键。

来自主题: AI资讯
4672 点击    2024-08-08 18:53
小扎自曝砸重金训Llama 4,24万块GPU齐发力!预计2025年发布

Llama 3.1刚发布不久,Llama 4已完全投入训练中。 这几天,小扎在二季度财报会上称,Meta将用Llama 3的十倍计算量,训练下一代多模态Llama 4,预计在2025年发布。

来自主题: AI技术研报
6608 点击    2024-08-05 15:25
Meta的Llama 3是合成数据训练?数据荒了解一下

如今一场席卷人工智能圈的“石油危机”已经出现,几乎每一家AI厂商都在竭力寻求新的语料来源,但再多的数据似乎也填不满AI大模型的胃口。更何况越来越多的内容平台意识到了手中数据的价值,纷纷开始敝帚自珍。为此,“合成数据”也成为了整个AI行业探索的新方向。

来自主题: AI资讯
6628 点击    2024-08-05 12:23
【LLM开源模型】LLMs-Llama3.1-240723通关攻略笔记v1.0

不同类型的数据配比如何配置:先通过小规模实验确定最优配比,然后将其应用到大模型的训练中。 Token配比结论:通用知识50%;数学与逻辑25%;代码17%;多语言8%。

来自主题: AI技术研报
6527 点击    2024-08-02 11:53
大模型行业,根本没有什么“真”开源?

最近一段时间开源大模型市场非常热闹,先是苹果开源了70亿参数小模型DCLM,然后是重量级的Meta的Llama 3.1 和Mistral Large 2相继开源,在多项基准测试中Llama 3.1超过了闭源SOTA模型。 不过开源派和闭源派之间的争论并没有停下来的迹象。

来自主题: AI资讯
5815 点击    2024-08-01 11:26