ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~
2388点击    2025-02-19 11:06

离开OpenAI后,他们俩把ChatGPT后训练方法做成了PPT,还公开了~


正如网友所言,可能没有人比他俩更了解ChatGPT后训练的事儿。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


毕竟,一位是OpenAI联合创始人,曾经也是OpenAI后训练共同负责人的John Schulman,另一位是曾经在OpenAI当后训练研究VP的Barret Zoph


John Schulman发推文称:


啊,我和Barret Zoph最近在斯坦福做了一场关于后训练以及分享开发ChatGPT经验的演讲,可惜没被录下来,但我们有PPT。


网友不语,只是一味点赞收藏。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


有曾在现场的网友亲证,演讲质量真不戳。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


还有网友在感谢完俩人后想要更多:


如果能分享更多关于训练后阶段的最新进展,比如推理模型、DeepSeek RL等,那就太好了。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


以下是这次的PPT~


ChatGPT后训练方法PPT版


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


先是自我介绍。


Barret Zoph和John Schulman曾在OpenAI共同担任后训练联合负责人,从2022年9月开始合作,主要目标是开发一个对齐的聊天机器人,最初的团队被称为“RL”,只有少数几个人。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


接着介绍了后训练(Post-Training)阶段是什么:


后训练阶段是模型开发的最后一步,目的是让模型更像一个助手,遵循特定格式,并确保其适合实际生产环境,这一阶段通常与产品团队紧密合作。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


用几个具体例子,对比基础模型和后训练模型的区别:


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


后训练VS预训练总的来说:


计算资源需求更低,迭代周期更快;使用基于人类反馈的强化学习(RLHF);教模型使用工具;塑造模型个性;引入拒绝/安全行为;行为严重依赖预训练阶段的泛化能力。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


后训练包含三个主要组成部分:监督微调(SFT)、奖励模型(RM)训练、强化学习(RL)。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


以下是三个组成部分的具体介绍:


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~

随后回顾了ChatGPT和OpenAI后训练的早期发展历程。


包括GPT-3、GPT-3.5的发布、RL团队的工作、GPT-4的准备过程、决定发布ChatGPT的细节以及发布后意外成功,实现病毒式传播。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


ChatGPT曾一度被大批涌来的用户挤崩:


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


随时间推移,ChatGPT模型和功能逐渐更加复杂和多样化:


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


2022年12月最初版本和2025年1月版本的对比:


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


添加了许多功能:


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


然后讲了在功能扩展和公司规模增长的背景下,如何通过主线模型(mainline model)设置来整合变化并降低风险,包括在较小规模上测试;在频繁的更新中逐步整合更改,如果发现问题能够迅速回滚到之前的版本。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


在这当中也出现了一些失误和挑战……


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


比如模型在生成文本时出现了很多拼写错误。


强化学习(RL)后发现拼写错误率有所上升,在监督微调(SFT)数据集中发现了拼写错误的提示。


最终通过对比过程改进,将两个生成的文本(completion 1和completion 2)进行比较,选择改进后的版本,专家会对比这两个文本,有时会写出改进后的版本。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


此外还有过度拒绝的情况。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


早期的拒绝行为过于冗长:


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


有一些方法比如通过改变时态,可以绕过模型的拒绝机制。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


俩人随后讲解了为何拒绝行为难以处理,有边界问题和人类数据问题。


解决方案包括配对数据、有针对性的边界示例、对标注数据进行分层处理。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


另外,模型还会出现偏见。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


还可能会生成虚假或误导性的内容。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


在涉及品味、主观性和高投入的任务中,如何获取高质量人类反馈也是一大挑战。


通过人类与AI团队协作进行标注是解决方案之一。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


他们还探讨了不同来源的人类反馈在提示多样性、标签质量、领域、正确性、意图和合规性等方面的优缺点,并提出了如何利用它们各自优势问题。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


而要让模型按照我们的意愿行事,第一步是弄清楚我们想要什么。


俩人表示这一步出乎意料的难,要明确规范。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


OpenAI2024年5月发布了模型规范。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


还有一个开放性问题,如何保持模型多样性和趣味性。


两人提到通过后训练迭代和模型蒸馏来保持或强化这些特性。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


总结了以InstructGPT、Llama 3.1等为代表的“两个时代”的模型训练流程,包括从基础模型到对齐模型的训练步骤,最终目标是生成一个经过多次优化的对齐模型。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


提出了一个开放性问题,探讨如何在模型训练和优化过程中恢复并保持基础模型中的多样性和趣味性,包括不同的风格和世界观。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


最后他们推荐了一些关于后训练的论文和blog:


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


俩人都被OpenAI前CTO挖走了


John Schulman和Barret Zoph离开OpenAI后,现在都在干什么——


被曝双双加入了OpenAI前CTO Mira Murati的新创业团队Thinking Machines Lab。


Mira Murati去年9月官宣离职OpenAI,离职后不久,就在10月份,她被曝筹备新公司/AI实验室,吸金超1亿美元。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


Mira Murati已经挖到了20多位顶尖研究员和工程师投奔,都是来自OpenAI、谷歌、Anthropic等巨头。


这其中就包括Jonathan Lachman和Barret Zoph。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


John Schulman去年8月离开的OpenAI,先是加入了OpenAI竞争对手Anthropic,致力于LLM的对齐工作,短短六个月后再次离职,加入了Murati的创业项目,担任首席科学家。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


至于Barret Zoph,去年9月份和Mira Murati几乎同时离职,随后就加入了Mira Murati的团队,担任CTO。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~


参考链接:

[1]https://x.com/johnschulman2/status/1891539960743743756

[2]https://www.businessinsider.com/openai-employees-joining-mira-murati-new-startup-2025-2#john-schulman-1


文章来自于“量子位”,作者“西风”。


ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner