LeCun在Meta还有论文:JEPA物理规划的「终极指南」
LeCun在Meta还有论文:JEPA物理规划的「终极指南」真正的挑战在于,如何在错综复杂的原始视觉输入中提取抽象精髓。这便引出了本研究的主角:JEPA-WM(联合嵌入预测世界模型)。从名字也能看出来,这个模型与 Yann LeCun 的 JEPA(联合嵌入预测架构)紧密相关。事实上也确实如此,并且 Yann LeCun 本人也是该论文的作者之一。
真正的挑战在于,如何在错综复杂的原始视觉输入中提取抽象精髓。这便引出了本研究的主角:JEPA-WM(联合嵌入预测世界模型)。从名字也能看出来,这个模型与 Yann LeCun 的 JEPA(联合嵌入预测架构)紧密相关。事实上也确实如此,并且 Yann LeCun 本人也是该论文的作者之一。
大家好,我是袋鼠帝 在过去的2年里,我为了写教程,也为了让AI帮我躺平,前前后后试了上百种AI工具,有免费的,有付费的,有本地部署的。 有些工具很棒,有些一言难尽,甚至有些已经不在了 最近几天我把这2
近日,腾讯微信 AI 团队提出了 WeDLM(WeChat Diffusion Language Model),这是首个在工业级推理引擎(vLLM)优化条件下,推理速度超越同等 AR 模型的扩散语言模型。
又一个中国新模型被推到聚光灯下,刷屏国内外科技圈。IQuest-Coder-V1模型系列,看起来真的很牛。在最新版SWE-Bench Verified榜单中,40B参数版本的IQuest-Coder取得了81.4%的成绩,这个成绩甚至超过了Claude Opus-4.5和GPT-5.2(这俩模型没有官方资料,但外界普遍猜测参数规模在千亿-万亿级)。
当科技巨头们正扎堆把 AI 塞进眼镜、手表、耳机这些贴身设备,OpenAI 的首款 AI 硬件却可能反其道而行之—— 造一支 AI 笔。据博主智慧皮卡丘从供应链渠道获知的消息,OpenAI 与前苹果首席设计官 Jony Ive 合作的硬件项目内部代号「Gumdrop」(软糖)。
今天,我看了卡兹克的《我的 2025 年度 AI 大盘点——前路已明》读罢总觉得侧重于参数罗列,内容略显单薄,缺乏实战的颗粒度,我较为认同秋芝的《年度好用 AI 大赏——小白必备》但细节描述上不够详细。
我正在用 ChatGPT 给自家的狗生成一张穿着鹈鹕服装的搞笑照片。几秒钟后,图片出来了——狗狗的装扮很完美,但图片左侧莫名其妙多了一个「Half Moon Bay」(半月湾)的标志。
近日,美国华盛顿大学博士生邵如琳和合作团队打造出一个名为 Deep Research Tulu(DR Tulu)的深度研究小助手。使用一次 OpenAI 的 Deep Research 服务可能需要大约 1.8 美元,而 DR Tulu 使用一次的成本却不到 0.002 美元,这几乎是千倍的效率提升,这意味着未来个人或者小团队也能负担得起高质量、高可信度的 AI 研究服务。
结婚誓词是 AI 写的,劝分劝离的建议是 AI 给的,就连出轨对象也是 AI。 作者|Moonshot 编辑|靖宇 如果说这个世界上有什么事比「被分手」更惨,那大概就是「被 AI 分手」,或者说关系里
近年来,大模型的应用正从对话与创意写作,走向更加开放、复杂的研究型问题。尽管以检索增强生成(RAG)为代表的方法缓解了知识获取瓶颈,但其静态的 “一次检索 + 一次生成” 范式,难以支撑多步推理与长期