AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
这才是真・开源模型!公开「后训练」一切,性能超越Llama 3.1 Instruct

这才是真・开源模型!公开「后训练」一切,性能超越Llama 3.1 Instruct

这才是真・开源模型!公开「后训练」一切,性能超越Llama 3.1 Instruct

开源模型阵营又迎来一员猛将:Tülu 3。它来自艾伦人工智能研究所(Ai2),目前包含 8B 和 70B 两个版本(未来还会有 405B 版本),并且其性能超过了 Llama 3.1 Instruct 的相应版本!长达 73 的技术报告详细介绍了后训练的细节。

来自主题: AI技术研报
10765 点击    2024-11-23 16:04
做出最好大模型的 CEO,不认为 Scaling Law 撞墙了

做出最好大模型的 CEO,不认为 Scaling Law 撞墙了

做出最好大模型的 CEO,不认为 Scaling Law 撞墙了

Claude 3.5 Sonnet 应该是目前公认综合能力最好的基础模型。

来自主题: AI资讯
8687 点击    2024-11-23 11:19
大模型不会推理,为什么也能有思路?有人把原理搞明白了

大模型不会推理,为什么也能有思路?有人把原理搞明白了

大模型不会推理,为什么也能有思路?有人把原理搞明白了

大模型不会照搬训练数据中的数学推理,回答事实问题和推理问题的「思路」也不一样。

来自主题: AI技术研报
7478 点击    2024-11-22 16:53
上交大o1复现新突破:蒸馏超越原版,警示AI研发"捷径陷阱"

上交大o1复现新突破:蒸馏超越原版,警示AI研发"捷径陷阱"

上交大o1复现新突破:蒸馏超越原版,警示AI研发"捷径陷阱"

自从 OpenAI 发布展现出前所未有复杂推理能力的 o1 系列模型以来,全球掀起了一场 AI 能力 “复现” 竞赛。近日,上海交通大学 GAIR 研究团队在 o1 模型复现过程中取得新的突破,通过简单的知识蒸馏方法,团队成功使基础模型在数学推理能力上超越 o1-preview。

来自主题: AI技术研报
5209 点击    2024-11-22 16:46
续命Scaling Law?世界模型GPT-4o让智能体超级规划,OSU华人一作

续命Scaling Law?世界模型GPT-4o让智能体超级规划,OSU华人一作

续命Scaling Law?世界模型GPT-4o让智能体超级规划,OSU华人一作

Scaling Law撞墙,扩展语言智能体的推理时计算实在太难了!破局之道,竟是使用LLM作为世界模型?OSU华人团队发现,使用GPT-4o作为世界模型来支持复杂环境中的规划,潜力巨大。

来自主题: AI技术研报
6005 点击    2024-11-22 13:38
神级项目训练GPT-2仅需5分钟,Andrej Karpathy都点赞

神级项目训练GPT-2仅需5分钟,Andrej Karpathy都点赞

神级项目训练GPT-2仅需5分钟,Andrej Karpathy都点赞

今年 4 月,AI 领域大牛 Karpathy 一个仅用 1000 行代码即可在 CPU/fp32 上实现 GPT-2 训练的项目「llm.c」曾经引发机器学习社区的热烈讨论。

来自主题: AI资讯
5579 点击    2024-11-22 10:18
Dario Amodei:Scaling Law 还没遇到上限

Dario Amodei:Scaling Law 还没遇到上限

Dario Amodei:Scaling Law 还没遇到上限

Powerful AI 预计会在 2026 年实现,足够强大的 AI 也能够将把一个世纪的科研进展压缩到 5-10 年实现(“Compressed 21st Century”),在他和 Lex Fridman 的最新对谈中,Dario 具体解释了自己对于 Powerful AI 可能带来的机会的理解,以及 scaling law、RL、Compute Use 等模型训练和产品的细节进行了分享

来自主题: AI资讯
8553 点击    2024-11-22 10:06
手把手教你预训练一个小型 LLM|Steel-LLM 的实战经验

手把手教你预训练一个小型 LLM|Steel-LLM 的实战经验

手把手教你预训练一个小型 LLM|Steel-LLM 的实战经验

随着开源数据的日益丰富以及算力价格的持续下降,对于个人或小型机构而言,预训练一个小型的 LLM 已逐渐成为可能。开源中文预训练语言模型 Steel - LLM 就是一个典型案例,其模型参数量与数据量并非十分庞大,基本处于参数量为 B 级别、数据量为 T 级别的规模。

来自主题: AI技术研报
7236 点击    2024-11-22 09:44
405B大模型也能线性化!斯坦福MIT最新研究,0.2%训练量让线性注意力提分20+

405B大模型也能线性化!斯坦福MIT最新研究,0.2%训练量让线性注意力提分20+

405B大模型也能线性化!斯坦福MIT最新研究,0.2%训练量让线性注意力提分20+

近日,来自斯坦福、MIT等机构的研究人员推出了低秩线性转换方法,让传统注意力无缝转移到线性注意力,仅需0.2%的参数更新即可恢复精度,405B大模型两天搞定!

来自主题: AI技术研报
5388 点击    2024-11-21 13:47