
Meta用40万个GPU小时做了一个实验,只为弄清强化学习Scaling Law
Meta用40万个GPU小时做了一个实验,只为弄清强化学习Scaling Law在 LLM 领域,扩大强化学习算力规模正在成为一个关键的研究范式。但要想弄清楚 RL 的 Scaling Law 具体是什么样子,还有几个关键问题悬而未决:如何 scale?scale 什么是有价值的?RL 真的能如预期般 scale 吗?
在 LLM 领域,扩大强化学习算力规模正在成为一个关键的研究范式。但要想弄清楚 RL 的 Scaling Law 具体是什么样子,还有几个关键问题悬而未决:如何 scale?scale 什么是有价值的?RL 真的能如预期般 scale 吗?
AMD再下一城!Oracle宣布自2026年第三季度起,将在其云基础设施(OCI)部署5万颗AMD Instinct™ MI450系列GPU,构建全新AI超级集群,并计划持续扩容。此举标志着AMD与Oracle的合作迈入新阶段,也被视为AMD在打破英伟达长期主导的AI算力生态中的又一关键突破。
10月15日消息,近日,在泰安市卫星互联网产业发展暨“星算”计划02组星座合作大会上,国星宇航“星算”计划02组星座正式发布,单星算力突破10P的“天秤-10”卫星同步亮相。此外,多项产业合作项目现场达成签约。
从2025年9月开始,美国多家科技巨头放弃彼此间的“恩恩怨怨”,转而围绕算力展开串联合作,呈现成片的“合纵连横”态势。
OpenAI终于官宣了!联手芯片巨头博通下场造AI芯片,预计2029年底部署10GW算力。内部已秘密研发18个月,首颗芯片9个月后量产,AI领域的M1时刻将至。
来扒一扒OpenAI算力支出的天价账单——据Epoch AI统计的数据显示,去年OpenAI在计算资源上支出了70亿美元。由于公司当时还没有大量的算力,所以这笔天价账单基本都是以向微软租用云算力的形式支付出去的,并不包括对数据中心的前期投入。
Mila 和微软研究院等多家机构的一个联合研究团队却另辟蹊径,提出了一个不同的问题:如果环境从一开始就不会造成计算量的二次级增长呢?他们提出了一种新的范式,其中策略会在基于一个固定大小的状态上进行推理。他们将这样的策略命名为马尔可夫式思考机(Markovian Thinker)。
为了争夺有限的GPU,OpenAI内部一度打得不可开交。2024年总算力投入70亿美元,但算力需求依旧是无底洞。恰恰,微软发布了全球首台GB300超算,专供OpenAI让万亿LLM数天训完。
当OpenAI与AMD签署涵盖6GW芯片供给+认股权证的合作协议时,更像是一记「战略炸弹」,可能撬动出AI硬件生态的新秩序。对于AMD而言,这是一次从追赶者到潜在「核算力玩家」的重塑,风险与机遇并存。
什么AI应用公司和方向是OpenAI看好的?这不,OpenAI公布了30家Tokens消耗破万亿的“大金主”。榜单按每家公司接入OpenAI API挂名人的姓氏排序,排名不分先后,初创公司多数由联合创始人亲自挂名,而大型企业则由专门的AI部门负责人负责对接。