
「压缩即智能」得到实验验证,无需预训练和大量数据就能解决ARC-AGI问题
「压缩即智能」得到实验验证,无需预训练和大量数据就能解决ARC-AGI问题「压缩即智能」。这并不是一个新想法,著名 AI 研究科学家、OpenAI 与 SSI 联合创始人 Ilya Sutskever 就曾表达过类似的观点。
「压缩即智能」。这并不是一个新想法,著名 AI 研究科学家、OpenAI 与 SSI 联合创始人 Ilya Sutskever 就曾表达过类似的观点。
谷歌发布了1000亿文本-图像对数据集,是此前类似数据集的10倍,创下新纪录!基于新数据集,发现预训练Scaling Law,虽然对模型性能提升不明显,但对于小语种等其他指标提升明显。让ViT大佬翟晓华直呼新发现让人兴奋!
Ilya团队再次拿到20亿美元新一轮融资,估值300亿美元。与此同时,SSI在以色列特拉维夫办公室的首支研究团队的成员曝光,阵容堪称豪华。硅谷当下投资最热门,不是某个产品,而是一个人。
PyTorch机器学习大神Horace He宣布,正是离职加入OpenAI前CTO初创Thinking Machines。这位技术奇才,曾被OpenAI、SSI、谷歌等顶级AI实验室争相邀请,最终选择了刚刚成立的初创。他的选择,不仅是个人职业生涯的转折,更是对AI未来发展方向的一次战略性押注。
不过半月,Ilya神秘初创SSI又被曝出将完成超10亿美金新一轮融资,估值超300亿。成立8个月时间,官网至今也只有一页文字。
Ilya Sutskever,带着新消息又出现了——创办的公司SSI(Safe SuperIntelligence),正在进行新一轮融资洽谈。目标:估值至少200亿美元。
Ilya Sutskever 在 NeurIPS 会上直言:大模型预训练这条路可能已经走到头了。上周的 CES 2025,黄仁勋有提到,在英伟达看来,Scaling Laws 仍在继续,所有新 RTX 显卡都在遵循三个新的扩展维度:预训练、后训练和测试时间(推理),提供了更佳的实时视觉效果。
过去一段时间,“预训练终结”成为了 AI 领域最热烈的讨论之一。OpenAI的GPT系列模型此前大踏步的前进,预训练是核心推动力。而前 OpenAI 首席科学家 Ilya Sutskever、预训练和scaling law(规模定律)最忠实的倡导者,却宣称预训练要终结了、scaling law要失效。由此,引发了大量争议。
在 2024 年的 NeurIPS 会议上,Ilya Sutskever 提出了一系列关于人工智能发展的挑战性观点,尤其集中于 Scaling Law 的观点:「现有的预训练方法将会结束」,这不仅是一次技术的自然演进,也可能标志着对当前「大力出奇迹」方法的根本性质疑。
谷歌开发者暗示,我们直接进入ASI的可能性,正在逐月增加!Ilya早就看到了这一点,因为扩展测试时计算的成功,证明目前的路径能够到达ASI。与此同时,AI学会自我改进、取代人类研究员的未来似乎也愈发逼近,到时再拔网线来得及吗?