# 热门搜索 #
搜索
微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%
5765点击    2023-12-04 13:53

微软最新研究再次证明了提示工程的威力——


无需额外微调,无需专家策划,仅凭提示,GPT-4就能化身“专家”。



使用他们提出的最新提示策略Medprompt,在医疗专业领域,GPT-4在MultiMed QA九个测试集中取得最优结果。


在MedQA数据集(美国医师执照考试题)上,Medprompt让GPT-4的准确率首次超过90%超越BioGPT和Med-PaLM等一众微调方法。



研究人员还表示Medprompt方法是通用的,不仅适用于医学,还可以推广到电气工程、机器学习、法律等专业中。


这项研究在X(原Twitter)一经分享,就引发众多网友关注。



沃顿商学院教授Ethan Mollick、Artificial Intuition作者Carlos E. Perez等都有转发分享。


Carlos E. Perez直呼“出色的提示策略可以甩微调一大截”:



有网友表示早就有这种预感,现在能看到结果出来,真的是“so cool”:



还有网友表示这真的很“激进”:


GPT-4是一项能改变行业的技术,而我们还远没有触及提示的极限,也未达到微调极限。


组合提示策略,“变身”专家


Medprompt是多种提示策略的组合体,包含三大法宝:


  • 动态少样本选择(Dynamic few-shot selection)


  • 自生成思维链(Self-generated chain of thought)


  • 选项洗牌集成(Choice shuffling ensemble)



下面我们来一一介绍。



动态少样本选择


少样本学习是让模型快速学习上下文的一种有效的方法。简单来说,就是输入一些示例,让模型快速适应特定领域,并学习遵循任务的格式。


这种用于特定任务提示的少样本示例通常是固定的,所以对示例的代表性和广泛性有较高的要求。


之前一种方法是让领域专家手动制作范例,但即便如此,也不能保证专家策划的固定的少样本示例在每个任务中都有代表性。


因此,微软研究人员提出了动态少样本示例的方法。


想法是,任务训练集可以作为少样本示例的来源,如果训练集足够大,那就可以为不同的任务输入选择不同的少样本示例。


具体来说,研究人员先利用text-embedding-ada-002模型为每个训练样本和测试样本生成向量表示。然后,对于每个测试样本,基于向量相似度,从训练样本中挑选出最相似的k个样本。


与微调方法相比,动态少样本选择利用了训练数据,但不需要对模型参数进行大量更新。


自生成思维链


思维链(CoT)方法就是让模型一步一步思考,生成一系列中间推理步骤。


之前一种方法也是依赖专家手动编写少量的带有提示思维链的示例。



在这里,研究人员发现,可以简单地要求GPT-4使用以下提示为训练示例生成思维链:



但研究人员也指出这种自动生成的思维链可能包含错误的推理步骤,于是设置了一个验证标签作为过滤器,可以有效减少错误。


与在Med-PaLM 2模型中专家手工制作的思维链示例相比,GPT-4生成的思维链基本原理更长,而且分步推理逻辑更细粒度。


选项洗牌集成


除此之外,GPT-4在做选择题时,可能会存在一种偏见,就是不管选项内容是什么,它会偏向总是选择A,或者总是选择B,这就是位置偏差。


为了减少这个问题,研究人员选择将原来的选项顺序打乱重排。比如原先选项是ABCD,可以变成BCDA、CDAB。


然后让GPT-4做多轮预测,每轮使用选项的一个不同排列顺序。如此一来“迫使”GPT-4考虑选项的内容。


最后对多轮预测结果做个投票,选择最一致、正确的选项。


将以上几种提示策略组合在一起就是Medprompt,下面来看测试结果。


多项测试最优


在测试中,研究人员采用了MultiMed QA评估基准。



使用Medprompt提示策略的GPT-4,在MultiMedQA的九个基准数据集中均取得最高分,优于Flan-PaLM 540B、Med-PaLM 2。


此外研究人员还讨论了Medprompt策略在“Eyes-Off”数据上的表现,也就是在训练或优化过程中模型未曾见过的数据中的表现,用于检验模型是否过拟合训练数据。



结果GPT-4结合Medprompt策略在多个医学基准数据集上表现出色,平均准确率达到了91.3%。


研究人员还在MedQA数据集上进行了消融实验,探索了三个组件对于整体性能的相对贡献。



其中自动生成思维链步骤对性能提升的贡献最大。



而且GPT-4自动生成的思维链比Med-PaLM 2中专家策划的得分更高:



最后,研究人员还探索了Medprompt的跨域泛化能力,取用了MMLU基准中的六个不同的数据集,涵盖了电气工程、机器学习、哲学、专业会计、专业法律和专业心理学的问题。


还添加了另外两个包含NCLEX(美国护士执照考试)问题的数据集。


结果显示,Medprompt在这些数据集上的效果与在MultiMedQA医学数据集上的提升幅度相近,平均准确率提高了7.3%。



论文链接:https://arxiv.org/pdf/2311.16452.pdf


参考链接:


[1]https://twitter.com/erichorvitz/status/1729854235443884385


[2]https://twitter.com/emollick/status/1729733749657473327


文章来自于微信公众号“量子位”(ID: QbitAI),作者 “西风”
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI数据分析

【开源免费】DeepBI是一款AI原生的数据分析平台。DeepBI充分利用大语言模型的能力来探索、查询、可视化和共享来自任何数据源的数据。用户可以使用DeepBI洞察数据并做出数据驱动的决策。

项目地址:https://github.com/DeepInsight-AI/DeepBI?tab=readme-ov-file

本地安装:https://www.deepbi.com/

【开源免费airda(Air Data Agent)是面向数据分析的AI智能体,能够理解数据开发和数据分析需求、根据用户需要让数据可视化。

项目地址:https://github.com/hitsz-ids/airda

2
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

3
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

4
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0