《LeJEPA:无需启发式的可证明且可扩展的自监督学习》。
“这可能是LeCun以Meta身份发表的最后一篇论文了。”

没错,这篇带“Le”的论文,介绍了一种自监督学习方法,于11月11日在arXiv提交,是LeCun的最新公开成果。
也是在这一天,他离职Meta的消息被曝光。
如果说LeCun在2013年加入开启了Meta AI研究的一个时代,那么LeJEPA就是他在Meta的告别之作。
LeJEPA究竟是怎样的“最后一舞”?
LeJEPA核心是提出了一种基于各向同性高斯嵌入的自监督学习方法,通过引入SIGReg正则化,有效解决了表示崩溃问题,并显著提升了模型的泛化能力。
在传统的JEPA框架中,预测任务常面临表示崩溃的问题。
这意味着,在训练过程中,模型可能将所有输入映射到单一的点或低维空间,导致嵌入空间中的样本不可区分,从而无法有效捕捉样本间的语义差异。
针对这一问题,现有方法依赖启发式技术,如停止梯度、非对称视图生成和教师-学生网络,但这些方法由于缺乏对JEPA基础理论的探索,被视为替代方案。
基于以上背景,研究提出一种新的JEPA框架——潜在欧几里得JEPA(Latent-Euclidean Joint Embedding PredictiveArchitecture,LeJEPA),其核心是使嵌入空间遵循特定的统计分布,从而提升模型的预测性能。
首先,研究通过最小二乘回归(OLS)分析了嵌入分布对偏差和方差的影响。
结果表明,等向高斯分布能够最小化训练过程中的偏差和方差。
特别地,在总方差相同的情况下,非等向分布会导致更高的偏差和方差,而等向高斯分布则能够有效地保证最小的偏差和方差,从而提高下游任务的稳定性和准确性。
通过在非线性探测和几何直觉方面的实验,研究进一步验证了等向高斯分布的优越性。
实验表明,无论是在回归任务还是分类任务中,等向高斯分布都能保持最小的误差,而非等向分布则表现出较高的方差。

研究表明, 各向同性高斯分布是嵌入空间的最佳分布,它可以在没有任务信息的情况下,保证最小化偏差和方差,从而提高下游任务的表现。
为实现上述分布匹配,研究提出了草图化各向同性高斯正则化(Sketched Isotropic Gaussian Regularization,SIGReg),这是一种可处理、可证明正确的正则化方法。
SIGReg的创新点在于:
SIGReg通过单变量方向检验,结合Epps-Pulley测试来判断嵌入分布与目标分布(等向高斯分布)的匹配程度。
它将分布匹配转化为零假设与备择假设的检验,并通过统计量判断是否拒绝零假设,从而确认分布是否匹配。
SIGReg还通过两条机制解决了高维空间中的计算挑战:
在实现方面,LeJEPA结合了SIGReg和预测损失两部分,通过Epps-Pulley统计量实现分布匹配,并通过小批次训练保证计算效率和稳定性。最终的总损失是SIGReg损失和预测损失的加权和。
为了验证LeJEPA的可靠性,研究在多个大型架构上进行实验,包括ViT、ConvNeXt、ResNet、MaxViT和Swin Transformer等,模型规模接近10亿参数。

实验结果显示,LeJEPA在这些架构上表现超越现有方法,且保持了训练的简便性和鲁棒性。
特别地,在领域特定的数据集(如Galaxy10、Food101)上,LeJEPA在直接在目标数据上预训练时超越了基于DINOv2的迁移学习方法。

总的来说,LeJEPA延续了之前JEPA的探索,重新确立了自监督学习作为AI研究的核心方法。
LeJEPA通过提供一个简单且理论上有支持的框架,使得从数据中学习表示变得更加高效,并在多个任务中展示了优越的性能。
自LeCun于2022年在《A Path Towards Autonomous Machine Intelligence》中首次提出JEPA以来,基于JEPA的架构已经发展了整整三年。

JEPA(Joint-Embedding Predictive Architecture)是一种自监督学习框架,旨在通过基于嵌入空间的联合预测方法来提升模型的表达能力和推理能力。
与生成式模型不同,它并不能简单地用于从x预测y,它仅捕捉x和y之间的依赖关系而无需显式生成y的预测。

此外,为了应对长期规划问题,JEPA还可以进一步通过分层架构(即H-JEPA)来增强其抽象能力。
在H-JEPA中,低层表示处理短期预测任务,而高层表示则用于长期预测。
这种分层结构使得模型在进行长期规划时,可以在不同的抽象层次上进行操作,从而提高可预测性和减少信息损失。

值得一提的是,JEPA架构通常与世界模型密切相关,只不过其与一般意义上的世界模型仍有区别。
传统的世界模型一般指能够模拟环境或系统的模型,其主要目的是通过预测未来状态来实现长期规划和决策(如强化学习)。
而JEPA则是一种通过联合嵌入空间学习状态与动作转移的架构,重点在于结合表示学习和自监督学习来完成预测和规划任务。

在JEPA中,世界模型的目的是预测世界状态的未来表现形式。
具体而言,JEPA通过学习状态与动作的转移来训练世界模型,其核心在于从当前状态的表示推断未来状态的表示,这一过程是在联合嵌入空间中完成的。该空间通过最小化预测误差来学习状态表示与动作之间的关系。
尽管最初的JEPA论文呈现出一种对生成式AI的反思,描述了人工智能未来的愿景,并指出这一愿景可能需要数十年的时间才能实现。
但自2022年夏季发布以来,在LeCun的推动下,JEPA架构已经取得了一些显著进展。
I-JEPA: Self-Supervised Learning from Images with a Joint-Embedding Predictive Architecture

与其他图像SSL方法相比,I-JEPA充分利用了Transformer架构的灵活性。
在I-JEPA中,上下文编码器是一个ViT,它仅处理可见的上下文块。
预测器接收上下文编码器的输出,并根据位置标记(以颜色显示)预测特定位置的目标块表示。
目标表示对应于目标编码器的输出,权重在每次迭代中通过上下文编码器权重的指数滑动平均进行更新。
V-JEPA: Revisiting Feature Prediction for Learning Visual Representations from Video

V-JEPA是I-JEPA在视频领域的扩展,它通过将视频视为3D图像来实现这一点。
训练过程基于一个包含T帧的视频片段,空间分辨率为H×W,并将其展平成一个L个token的序列。
首先通过从视频片段中去除一些tokens来获得x-encoder的输入。
接着,x-encoder处理被屏蔽的视频序列,并为每个输入token输出一个嵌入向量。
然后,x-encoder的输出与一组可学习的mask tokens进行拼接,这些mask tokens包含了被屏蔽的时空补丁的位置信息嵌入。
预测网络处理拼接后的token序列,并为每个mask token输出一个嵌入向量。
最后,预测网络的输出通过 L1 损失回归到预测目标。预测目标对应于y-encoder的输出。
今年7月,LeCun团队又进一步发布了V-JEPA 2。

V -JEPA 2基于V-JEPA,进一步提升了动作预测和世界建模能力,使机器人能够与陌生物体和环境进行交互,从而完成任务。
MC-JEPA: A Joint-Embedding Predictive Architecture for Self-Supervised Learning of Motion and Content Features

MC-JEPA是JEPA 的扩展,使其能够包含运动信息。
架构通过在视频中使用光流估计学习运动,并通过图像视角的联合嵌入学习内容,以多任务方式共享编码器。其光流估计架构基于PWC-Net。
光流估计采用粗到精的方式,先估算初步的光流,再逐层精细化,最终通过图像重建损失来优化。
整个过程中,前向-反向光流的一致性通过循环一致性损失得到强化。为了避免训练不稳定,模型在每个特征层使用方差-协方差正则化。
除上述工作以外,LeCun及其团队还进一步围绕JEPA发表了JEPAs、LLM-JEAP等工作。
总的来说,尽管JEPA架构相较于传统监督学习方法提供了一条新路径,但其自发布以来就毁誉参半。
比如,有人批评JEPA架构过于抽象,难以应用到最前沿的主流模型中,其与生成式AI的背离也让不少网友将Meta的失利归咎于LeCun的学术取向。
甚至有Meta AI员工表示:Fair尚未证明自己是DeepMind等研究机构的真正竞争对手。
而最新发布的LeJEPA也彻底在LeCun和Meta之间划上了句号。

不过,LeJEPA虽然可能LeCun在Meta的研究终点,但肯定不是JEPA发展的终结。
据消息称,LeCun已经在筹集资金,创办初创公司,继续推进他在世界模型方面的工作。
而在AI热辣滚烫之下,这位65岁图灵奖得主、AI三巨头之一的教父级人物,创业又岂会缺资源?
唯一的问题,只可能是LeCun一直以来给人过于“学术”的风格和印象,担忧他在严格计算ROI的商业世界里,再次遭遇Meta生涯末期里的分歧和困境。
虽然LeCun与Meta的“分手”说不上体面,但在Meta的这十多年也许是LeCun生涯中最顺的时期——
深度学习爆发、加入纽大、建立FAIR、办顶会(ICLR)、拿图灵奖、出自传(《科学之路》)、发paper,带学生。

自2013年加入Meta以来,LeCun的个人被引飙升,约为406919次,占总数的93%。
虽然光三巨头合写的《深度学习》综述就贡献了10万多次,但也足见LeCun学术影响力的飙升。

这段黄金时期不仅见证了LeCun个人事业的巅峰,更推动了整个AI领域的发展。
江湖上至今流传着扎克伯格当年现身NIPS时的轰动,并且都在认为他会带走一票AI天才……

△扎克伯格与约书亚·本吉奥在NIPS 2013
但最后扎克伯格只是请来了LeCun,一人胜过千军万马。
LeCun成就了Facebook\Meta的AI转型之名,成为了金字招牌;Meta也一度给过LeCun足够自由的研究待遇和环境。

只是最后结局前的波澜,令人唏嘘~
好在,65岁的Yann LeCun,依旧是闯的年纪~~
参考链接
[1]https://ai.meta.com/blog/v-jepa-2-world-model-benchmarks/
[2]https://arxiv.org/abs/2511.08544
[3]https://arxiv.org/abs/2301.08243
[4]https://malcolmlett.medium.com/critical-review-of-lecuns-introductory-jepa-paper-fabe5783134e
[5]https://github.com/GihhArwtw
文章来自于“量子位”,作者 “henry”。
【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。
项目地址:https://github.com/microsoft/graphrag
【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。
项目地址:https://github.com/langgenius/dify
【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。
项目地址:https://github.com/infiniflow/ragflow/tree/main
【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目
项目地址:https://github.com/phidatahq/phidata
【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。
项目地址:https://github.com/TaskingAI/TaskingAI