AI资讯新闻榜单内容搜索-训练大模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练大模型
GPU 维修那些事: H100 哪里容易坏?以 Llama3 训练大模型为例

GPU 维修那些事: H100 哪里容易坏?以 Llama3 训练大模型为例

GPU 维修那些事: H100 哪里容易坏?以 Llama3 训练大模型为例

根据去年2024年7月28日Meta公司在训练大模型(Llama 3)时使用“16384 个 英伟达H100 GPU 集群”的经验,该显卡在高负载、大规模集群运行环境下容易出现以下故障点:

来自主题: AI技术研报
12151 点击    2025-04-07 09:17
诉讼频发,AI训练“盗用”版权内容,建立共享数据库迫在眉睫?

诉讼频发,AI训练“盗用”版权内容,建立共享数据库迫在眉睫?

诉讼频发,AI训练“盗用”版权内容,建立共享数据库迫在眉睫?

AI具备的能力,本质上来自算法和训练大模型所用的数据,数据的数量和质量会对大模型起到决定性作用。此前OpenAI工作人员表示,因没有足够多的高质量数据,Orion项目(即GPT-5)进展缓慢。不得已之下,OpenAI招募了许多数学家、物理学家、程序员原创数据,用于训练大模型。

来自主题: AI资讯
6587 点击    2025-01-21 07:33
如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

Fine-tuning理论上很复杂,但是OpenAI把这个功能完善到任何一个人看了就能做出来的程度。我们先从原理入手,你看这张图,左边是Pre-trained LLM (预训练大模型模型),也就是像ChatGPT这样的模型;右边是Fine-tuned LLM (微调过的语言大模型),中间就是进行微调的过程,它需要我们提供一些「ChatGPT提供不了但是我们需要的东西」。

来自主题: AI技术研报
10792 点击    2024-12-01 10:56
Benchmark合伙人:训练大模型目前成本远大于收入;但理论上成功回报极大,所以你仍需不断加注

Benchmark合伙人:训练大模型目前成本远大于收入;但理论上成功回报极大,所以你仍需不断加注

Benchmark合伙人:训练大模型目前成本远大于收入;但理论上成功回报极大,所以你仍需不断加注

随着LLM的进步,它将超越代码补全(“Copilot”)的功能,进入代码创作(“Autopilot”)的领域。随着LLM变得越来越复杂,它们能够释放的经济价值也会越来越大。AGI的经济价值仅受我们的想象力限制。

来自主题: AI资讯
4804 点击    2024-10-15 14:01
2024年中国AI基础数据服务研究报告

2024年中国AI基础数据服务研究报告

2024年中国AI基础数据服务研究报告

近年来,Transformer等预训练大模型在语言理解及生成等领域表现出色,大模型背后的Scaling Law(规模定律)进一步揭示了模型性能与数据量、算力之间的关系,强化了数据在提升AI表现中的关键作用。

来自主题: AI资讯
7441 点击    2024-09-03 10:04