ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
OpenAI把GPT-4原始版给了他们:研究不微调只靠提示词能走多远
8171点击    2024-06-03 15:46

除了OpenAI自己,居然还有别人能用上GPT-4-Base版??


也就是未经微调的预训练版,还不会对话聊天,只会补全句子的模型。


EPFL(瑞士洛桑联邦理工)团队申请到了访问权限,用于研究“上下文学习足以让大模型跟随指令吗?”



也就是不用监督微调、也不用RHLF或其他强化学习对齐方法,只靠提示词能走多远?


预训练模型,究竟能不能一步登天,直接改造成聊天机器人或AI助手?



如果可行,将大大降低类ChatGPT大模型的开发难度。


免微调对齐靠谱吗?


免微调对齐,让刚出炉的预训练模型不止会“文本补全”,只从提示词中学会和用户对话、跟随指令,一直是业界关注的研究方向。


目前的SOTA方法URIAL来自艾伦研究所,使用系统提示词+少数风格示例就能达到不错的效果。



但EPFL团队发现,URIAL仍无法完全弥补与指令微调模型的差距,尤其在多轮对话中的表现更差一些。


实验中,在Llama系列、Mistral系列和一般人接触不到的GPT-4-Base都观察到这种现象。


其中GPT-4-Base的API访问权限从OpenAI Researcher Access Program项目中申请到。



EPFL团队从这里出发,尝试了各种办法来提升上下文学习的效果。


首先他们增加示例的数量,但发现帮助不大,没有随着例子数目增加性能就提升的趋势。这一点跟图像分类、机器翻译等任务还不太一样。



然后他们使用了贪心搜索算法,从一大堆示例中选择最佳的添加到上下文。


这种方法可以进一步提高性能,但与指令微调模型的差距仍然存在,特别是在 AlpacaEval 2.0基准测试中。



此外他们还发现,贪心搜索为某个特定模型找到的最佳示例,对于其他模型不能可靠地迁移。


也就是说,不同的示例适合不同的模型



团队还进行了一系列消融实验,以更多地了解上下文学习的工作原理。


他们发现,在MT-Bench这样的综合评测中,示例包含正确的“问题-答案对”至关重要


这与此前大模型在分类任务中,只要有大量示例,部分标签错了也无所谓的发现非常不同。



所以最终得出的结论是:


即使采用更多复杂的改进方法,完全缩小上下文学习和指令微调之间的差距也有挑战,即使对于非常长上下文的大模型也是如此。


论文最后分析,大语言模型可能通过上下文学习只学会了如何模仿例子里的回答风格,但还没有真正理解执行指令的逻辑。


指令跟随任务相对还是比较复杂和开放的,没那么容易掌握。


想让AI助手更“听话”,暂时还是很难有捷径可走。


论文地址:


https://arxiv.org/abs/2405.19874


文章来源于“凹非寺”,作者“梦晨




关键词: GPT-4 , openai , 微调 , 提示词
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

2
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0