ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
大模型「强崩溃」!Meta新作:合成数据有「剧毒」,1%即成LLM杀手
3706点击    2024-10-14 10:12

1%的合成数据,就让LLM完全崩溃了?


7月,登上Nature封面一篇论文证实,用合成数据训练模型就相当于「近亲繁殖」,9次迭代后就会让模型原地崩溃。


论文地址:https://www.nature.com/articles/s41586-024-07566-y


然而,许多大佬都不同意这篇文章的方法和结论。


比如,Scale AI的CEO Alexandr Wang就很看好合成数据的前景,英伟达发布的开源模型Nemotron-4 340B甚至使用了98%的合成数据。


最近,Meta、纽约大学、UCLA机构发表的最新论文,再一次动摇了这些大佬们的结论。


论文地址:https://arxiv.org/abs/2410.04840


他们发现,即使合成数据仅仅占到总数据集的最小部分,甚至是1%的比例,仍然可能导致模型崩溃。


甚至,ChatGPT和Llama这种较大的模型,还可能放大这种「崩溃」现象。


强模型崩溃,如何发生的?


随着越来越多的合成数据出现在训练集中,一种新的现象应运而生:「模型崩溃」。


所谓「模型崩溃」,是指随着时间的推移,LLM或大型图像生成器在其前几代生成的数据上进行递归训练,导致性能下降,直至模型完全丧失能力的情况。


围绕着这个问题,AI学界和业界的大佬依旧莫衷一是,尚未达成一致的结论。


而合成数据究竟会在多大比例、多大程度上导致「模型崩溃」,直接影响着我们在未来如何应用这项技术。


从直觉上理解,合成数据导致「模型崩溃」的底层逻辑,是由于模型开始对合成数据中的模式进行过拟合,而这些模式可能无法代表现实世界数据的丰富性或可变性。



如果进行连续的迭代训练,这种反馈循环会导致模型强化合成数据中存在的错误、偏差或过度简化,因而损害了对现实世界的准确表示能力和泛化能力。


总体而言,这篇文章旨在回答以下两个重要问题:


Q1:模型崩溃是不可避免的,还是可以通过策略性地混合真实数据和合成数据来解决?


Q2:较大的模型比较小的模型更容易崩溃吗?


针对这两个问题,论文以经典线性设置中的回归问题为例进行了理论分析,之后在「玩具设置」(MINIST数据集+迷你模型)和更接近真实场景的GPT-2模型上运行了实验。


理论设置


数据分布


考虑从真实数据分布P_1采样得到的n_1个独立同分布样本????_1={(x_i, y_i)∣1≤i≤n_1},以及从合成数据分布采样得到了n_2个独立同分布样本????_2={(x_i, y_i)∣1≤i≤n_2},令n:=n_1+n_2为训练数据总量。


这里,数据分布的特征可以在ℝ^d×ℝ上给出,即P_k=P_{Σ_k,w_k^∗,σ_k^2}:



其中,每个Σ_k都是一个d×d的正定协方差矩阵,捕获输入特征向量x的内在变化;σ_k控制每种分布中标签噪声的水平。


为了简洁起见,我们将对w_k^∗做出以下先验假设(对于某些d×d正半定矩阵Γ和Δ):


- 真实标签:w_1^∗∼N⁢(0,Γ)

- 真实标签与合成标签之间的不匹配:δ:=w_2^∗−w_1^∗∼N⁢(0,Δ) ,独立于w_1^∗


其中,矩阵Γ捕获真实/测试分布中的真实标签函数的结构P_1;矩阵Δ=cov⁢(w_2^∗−w_1^∗)捕获数据分布P_1和P_2之间关于条件分布p⁢(y|x)差异的协方差结构,连同标签的噪声水平σ_1^2和σ_2^2。


平均而言,两种分布的L2范数差异可以表示为,


因此,合成数据的质量就可以被定义为,


模型和性能度量





实验结果


如上所示,定理2作为定理1的拓展,给了我们相同的结论:要想模型不崩溃,合成数据比例就需要无限接近0。


接下来,作者通过一系列实验验证了这一理论推导,并探究模型尺寸在其中扮演的作用。


图1对应的实验中,训练样本总数固定为 n=500,不同的c^2值对应不同质量的合成数据。


c^2=0 (非常高质量的综合数据),用方形标记表示;c^2=0.1 (高质量合成数据),用菱形表示;c^2=0.5 (低质量),用三角形表示,以及c^2=1 (非常低质量的合成数据),用星形表示


由图可知,对于较高质量的合成数据(方形和菱形),使用较大的模型(即更大的ψ)的确是最佳实践;但如果数据质量较低,模型并不是越大越好,最佳权衡反而处于中等大小。


此外,如图5所示,网络的宽度m也会造成影响,而且实验得到的曲线与理论预测值的拟合效果比较理想。


实线对应实验结果(5次运行),而虚线对应理论预测


改变合成数据的质量后,图5所示的整体趋势依旧成立。



图6所示的实验采用了经过全面训练的两层网络,但仅根据合成数据进行训练,依旧支持了上述的总体趋势:


- 合成数据造成了显著的模型崩溃

- 模型越大,崩溃程度越严重



图7分别显示了随机特征模型(左)和完全训练的神经网络(右)的结果,探究合成数据比例的影响。


两种情况基本一致,除非P_2接近0,否则模型就逐渐脱离Scaling Law的轨迹,逐渐拉平成为一条水平线,即MSE损失不再随样本增加而降低,意味着出现了模型崩溃。



相比图7的小模型和小数据集,图8使用的BabiStories数据集和GPT-2模型更接近现实中的复杂情况。


可以看到,即便是少量的合成数据也会延迟Scaling Law的进展,作者预计,这最终会导致最终Scaling Law提前达到饱和状态或至少出现非常糟糕的指数(即小指数)。


图8(右)所示的关于模型尺寸的影响。在数据集的某个阈值前,较大/较深的模型保持较低的测试损失;但超过一定阈值后,较小的模型反而由于减少过拟合而占了上风。


这表明,较大的模型往往会将模型崩溃放大到某个插值的阈值之外。


BabiStories包含Mixtral-8x7B生成的高质量合成数据


数据混合,能否防止LLM崩溃?


如上,作者分别从理论、实证上,证实了强模型崩溃所在。


接下来,他们将通过合成数据策略,探索如何缓解模型崩溃这一现象。


这里首先假设有关于数据源的明确信息,并使用两种数据混合方法:


1 加权数据混合


2 战略性迭代混合


加权单步数据混合


为了研究学习真实数据和替代数据(例如合成数据)混合的scaling law,考虑的设置需包括以下优化问题:



结果如下所示,真实数据+模拟数据混合法,无法解决模型崩溃问题。


在实验中,作者使用了多个不同的真实数据n1和合成数据n2的大小值。



动态/多步数据混合


迭代混合恢复了scaling law,但在实践中可能不可行。


研究人员观察到,在t次迭代(t的数量级为log(n/d))的迭代混合后,会得到与E成比例的缩放规律,这在图10中得到了经验证实。


然而,这需要付出显著的自举(bootstrapping)成本,大量的真实数据,以及在多次迭代中清晰区分真实和合成数据的能力——这些条件在实践中都过于计算密集且难以实现。




作者介绍


Elvis Dohmatob



2021年,Elvis Dohmatob加入了FacebookAI Research(FAIL)成为一名研究员。在此之前,他曾在INRIA、Criteo担任过研究员。


他的研究兴趣包括:深度学习(主要是理论方面)、稳健优化等等。


Yunzhen Feng(冯韫禛)



Yunzhen Feng目前是纽约大学数据科学中心数学和数据组的博士生,导师是Julia Kempe教授。在Meta的FIRE实习期间,与Yann Olivier博士共事。


目前,他的研究兴趣在于:1)改进的科学推理方法,2)强化学习和测试时间优化,3)人工智能合成数据对当代学习范式的影响。


他曾在2021年获得北大数院应用数学学士学位,导师是Bin Dong教授。


Arjun Subramonian



Arjun Subramonian目前是UCLA计算机科学理论博士生,并在Meta实习。


他的博士研究重点是图神经网络中社会不公平的理论基础,对利用谱图理论和统计学来表征图的结构属性如何导致算法不公平感兴趣。


Julia Kempe



Julia Kempe是纽约大学数据科学中心和Courant数学科学研究所计算机科学、数学和数据科学的银牌教授,也是Meta Fair的客座高级研究员。


参考资料:


https://x.com/dohmatobelvis/status/1844300320811241477


文章来自于 微信公众号“新智元”


关键词: Meta , AI , LLM , 合成数据 , 模型训练
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI数据分析

【开源免费】DeepBI是一款AI原生的数据分析平台。DeepBI充分利用大语言模型的能力来探索、查询、可视化和共享来自任何数据源的数据。用户可以使用DeepBI洞察数据并做出数据驱动的决策。

项目地址:https://github.com/DeepInsight-AI/DeepBI?tab=readme-ov-file

本地安装:https://www.deepbi.com/

【开源免费airda(Air Data Agent)是面向数据分析的AI智能体,能够理解数据开发和数据分析需求、根据用户需要让数据可视化。

项目地址:https://github.com/hitsz-ids/airda

2
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI