ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
破解36年前魔咒!Meta推出反向训练大法消除大模型「逆转诅咒」
5290点击    2024-04-09 15:57

【新智元导读】大语言模型的「逆转诅咒」,被解开了。近日,来自Meta FAIR的研究人员推出了反向训练大法,让模型从反方向上学到了事实之间的逻辑,终于改进了这个困扰人们已久的问题。


大语言模型的「逆转诅咒」,被解开了!


这个诅咒在去年9月首次被发现,一时间引起LeCun、Karpathy、马库斯等一众大佬的惊呼。



因为风光无两、不可一世的大模型竟存在着“阿克琉斯之踵”:一个在「A是B」上训练的语言模型,并不能正确回答出「B是A」。


比如下面这个例子:在LLM明知道「汤姆·克鲁斯的母亲是Mary Lee Pfeiffer」的情况下,却无法答出「Mary Lee Pfeiffer的孩子是汤姆·克鲁斯」。



——这可是当时最先进的GPT-4,结果连小孩子都具备的正常逻辑思维,LLM却做不到。


立于海量的数据之上,记住了几乎超过所有人类的知识,却表现得如此呆板,取得了智慧之火,却永远被囚禁于这个诅咒之中。


论文地址:https://arxiv.org/pdf/2309.12288v1.pdf


这事一出,全网一片哗然。


一方面,网友们表示,大模型真傻,真的。单知道「A是B」,却不知道「B是A」,自己终于保住了作为人类的尊严。


而另一方面,研究人员们也开始对此展开研究,快马加鞭解决这个重大挑战。


近日,来自Meta FAIR的研究人员推出了反向训练大法来一举解决LLM的“逆转诅咒”。


论文地址:https://arxiv.org/pdf/2403.13799.pdf


研究人员首先观察到,LLMs从左到右以自回归的方式进行训练,——这可能是导致逆转诅咒的原因。


那么,如果以从右到左的方向来训练LLM(逆向训练),就有可能让模型在反方向上看到事实。


可以将反向文本视为第二语言,通过多任务处理或跨语言预训练,来利用多个不同的来源。


研究人员考虑了4种反向类型:标记反转、单词反转、实体保留反转和随机段反转。


标记和单词反转,通过将序列分别拆分为标记或单词,并颠倒它们的顺序以形成新序列。

实体保留反转,在序列中查找实体名称,并在其中保留从左到右的单词顺序,同时进行单词反转。

随机段反转,将标记化的序列分割成随机长度的块,然后保留每个块内从左到右的顺序。


研究人员在1.4B和7B的参数规模上,测试了这些反转类型的有效性,结果表明,实体保留和随机分段反向训练可以减轻逆向诅咒,甚至在某些情况下完全消除它。


此外,研究人员还发现,与标准的从左到右训练相比,训练前逆转的方式使模型的表现有所提高,——所以反向训练可以作为一种通用的训练方法。


反向训练大法


逆向训练包括获取具有N个样本的训练数据集,并构造反向样本集REVERSE(x)。


函数REVERSE负责反转给定的字符串,具体做法如下:


单词反转 :每个示例首先被拆分为单词,然后在单词级别反转字符串,用空格将其连接在一起。


实体保留反转:对给定的训练样本运行实体检测器,将非实体也拆分为单词。然后将非实体的单词进行颠倒,而表示实体的单词保留原有词序。


随机段反转:这里没有使用实体检测器,而是尝试使用均匀采样,将序列随机分割成大小为1到k个token之间的句段,然后颠倒这些句段,但保持每个句段内的词序,之后,这些句段使用特殊标记[REV]连接。


上表给出了在给定字符串上,不同反转类型的示例。


此时,语言模型仍然从左到右进行训练,在单词反转的情况下,就相当于从右到左预测句子。


逆向训练涉及对标准和反向示例的训练,因此训练token的数量增加了一倍,同时正向和反向训练样本都混合在一起。


逆向转换可以看作是模型必须学习的第二种语言,请注意,在反转的过程中,事实之间的关系保持不变,模型可以从语法中判断它是处于正向还是反向语言预测模式。


逆向训练的另一个角度可以由信息论来解释:语言建模的目标是学习自然语言的概率分布


反向任务训练测试


实体对映射


首先创建一个简单的基于符号数据集,以研究受控环境中的反转诅咒。


以一对一的方式随机配对实体a和b,训练数据包含所有(a→b)映射对,但仅包含一半的(b→a)映射,另一半作为测试数据。


模型必须从训练数据中推断规则a→b ⇔ b→a,然后将其推广到测试数据中的对。



上表展示了符号反向任务的测试准确率(%)。尽管这项任务很简单,但标准语言模型训练完全失败了,这表明仅靠扩展不太可能解决。


相比之下,反向训练几乎可以解决两个单词实体的问题,但随着实体变长,其性能会迅速下降。


单词反转适用于较短的实体,但对于具有较多单词的实体,实体保留反转是必要的。当最大段长度k至少与实体一样长时,随机段反转表现良好。


恢复人名



上表展示了确定人全名的反转任务,当仅给出出生日期确定一个人的全名时,反转任务的准确性仍然接近于零,——这是因为在本文采用的实体检测方法中,日期被视为三个实体,因此在反转中不会保留它们的顺序。


如果将反转任务简化为仅确定人的姓氏,则单词级别的反转就足够了。


另一个可能会令人感到惊讶的现象是,实体保留方法可以确定该人的全名,但不能确定该人的姓氏。


这是一个已知的现象:语言模型可能完全无法检索知识片段的后期标记(比如姓氏)。


现实世界事实


这里作者训练了一个Llama-2 14亿参数模型,在从左到右方向上训练一个2万亿个token的基线模型。


相比之下,逆向训练仅使用1万亿token,但使用相同的数据子集在从左到右和从右到左两个方向上进行训练,——两个方向合起来是2万亿个token,在计算资源上做到公平公正。


为了测试对现实世界事实的反转能力,研究人员使用了一个名人任务,其中包含“诸如某个名人的母亲是谁”之类的问题,同时还包含更具挑战性的反向问题,比如“某个名人的父母的孩子是谁”。



结果如上表所示。研究人员对每个问题的模型进行多次抽样,如果其中任何一个包含正确答案,则将其视为成功。


一般来说,由于模型在参数数量方面很小,预训练有限,并且缺乏微调,因此准确性通常相对较低。然而,反向训练的表现更加优秀。


36年前的预言


1988年,Fodor和Pylyshyn在《认知》刊物上发了一篇关于思维的系统性的文章。



如果你真的理解这个世界,那你就应该能够理解a相对于b的关系,也能理解b相对于a的关系。
即使是非语言认知生物,也应该能够做到这一点。


参考资料:

https://twitter.com/_akhaliq/status/1770641614718833050


文章来自微信公众号“新智元”,作者:新智元




关键词: Meta , 反向训练 , 大模型 , GPT-4 , LLM
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner