关于LLM-as-a-judge范式,终于有综述讲明白了

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
关于LLM-as-a-judge范式,终于有综述讲明白了
5941点击    2024-12-03 20:21

评估和评价长期以来一直是人工智能 (AI) 和自然语言处理 (NLP) 中的关键挑战。然而,传统方法,无论是基于匹配还是基于词嵌入,往往无法判断精妙的属性并提供令人满意的结果。大型语言模型 (LLM) 的最新进展启发了 “LLM-as-a-judge” 范式,其中 LLM 被用于在各种任务和应用程序中执行评分、排名或选择。本文对基于 LLM 的判断和评估进行了全面的调查,为推动这一新兴领域的发展提供了深入的概述。我们首先从输入和输出的角度给出详细的定义。然后,我们介绍一个全面的分类法,从三个维度探索 LLM-as-a-judge:评判什么(what to judge)、如何评判(how to judge)以及在哪里评判(where to judge)。最后,我们归纳了评估 LLM 作为评判者的基准数据集,并强调了关键挑战和有希望的方向,旨在提供有价值的见解并启发这一有希望的研究领域的未来研究。


关于LLM-as-a-judge范式,终于有综述讲明白了


  • 论文链接:https://arxiv.org/abs/2411.16594
  • 网站链接:https://llm-as-a-judge.github.io/
  • 论文列表:https://github.com/llm-as-a-judge/Awesome-LLM-as-a-judge


文章结构


关于LLM-as-a-judge范式,终于有综述讲明白了


图 1:论文结构


LLM-as-a-judge 的定义


关于LLM-as-a-judge范式,终于有综述讲明白了

图 2:LLM-as-a-judge 定义


在这篇工作中,我们提出根据输入和输出格式的区别对 LLM-as-a-judge 进行了定义。首先,根据输入候选样本个数的不同,在输入的层面 LLM-as-a-judge 可以分为逐点和成对 / 列表输入;另外,根据模型输出格式的不同,在输出的层面 LLM-as-a-judge 的目的可以分为评分,排序和选择。


Attribute:评判什么


关于LLM-as-a-judge范式,终于有综述讲明白了

图 3:LLM 能够评判各种属性。


LLM-as-a-judge 已经被证明可以在多种不同类型的属性上提供可靠的评判,在这个章节中,我们对他们进行了总结,它们包括:回复的帮助性,无害性,可靠性,生成 / 检索文档的相关性,推理过程中每一步的可行性,以及生成文本的综合质量。


Methodology:如何评判


关于LLM-as-a-judge范式,终于有综述讲明白了


表 1:LLM-as-a-judge 训练方法


(1)微调:最近许多工作开始探索如何使用微调技术来训练一个专门的评判大模型,我们在这一章节中对这些技术进行了总结归纳,包括它们的数据源,标注者,数据类型,数据规模,微调技术及技巧等(表 1)。其中我们根据数据来源(人工标注和模型反馈)和微调技术(有监督微调和偏好学习)对这些工作进行了详细讨论。


关于LLM-as-a-judge范式,终于有综述讲明白了

图 4:LLM-as-a-judge prompting 方法


(2)提示:提示(prompting)技术可以有效提升 LLM-as-a-judge 的性能和效率。在这一章节中,我们总结了目前工作中常用到几类提示策略,分别是:交换操作,规则增强,多智能体合作,演示增强,多轮动态交互和对比加速。


Application:何时评判


关于LLM-as-a-judge范式,终于有综述讲明白了

图 5:LLM-as-a-judge 应用和场景


(1)评估:传统 NLP 中的评估通常采用静态的指标作为依据,然而它们常常不能够很好的捕捉细粒度的语义信息。因此,LLM-as-a-judge 被广泛引入到模型评估的场景中,进行开放式生成,推理过程以及各种新兴 NLP 任务的评测。


(2)对齐:对齐技术通常需要大量人工标注的成对偏好数据来训练奖励或者策略模型,通过引入 LLM-as-a-judge 技术,采用更大的模型或者策略模型本身作为评估者,这一标注过程的时间和人力成本被大大优化。


(3)检索:检索场景同样得益于 LLM-as-a-judge 对于文本相关性和帮助性强大的判别能力。其中对于传统的检索应用,LLM-as-a-judge 通过判断文档和用户请求的相关性来选择最符合用户喜好的一组文档。另外,LLM-as-a-judge 还被应用于检索增强生成(RAG)的过程中,通过 LLM 自己来选择对后续生成最有帮助的辅助文档。


(4)推理:在推理过程中,LLM 在很多场景下会被赋予使用工具,API 或者搜索引擎的权限。在这些任务中,LLM-as-a-judge 可以依据当前的上下文和状态选择最合理可行的外部工具。另外,LLM-as-a-judge 还被广泛引用于推理路径的选择,通过过程奖励指导模型进行状态步骤转移。


基准:评判 LLM-as-a-judge


如表 2 所示,我们总结了不同针对 LLM-as-a-judge 的基准测试集,并从数据 / 任务类型,数据规模,参考文本来源,指标等多个方面对这些数据集做了总结归纳。其中,根据基准测试集目的的不同,大致可以分为:偏见量化基准,挑战性任务基准,领域特定基准,以及其他多语言,多模态,指令跟随基准等等。


关于LLM-as-a-judge范式,终于有综述讲明白了


表 2:LLM-as-a-judge 数据集和基线


展望:挑战和机遇


(1)偏见与脆弱性:大模型作为评判者,一直受困扰于各种各样影响评价公平性的偏见,例如顺序偏见,自我偏好偏见,长度偏见等。同时,基于大模型的评价系统在面对外部攻击时的鲁棒性也存在一定不足。因此,LLM-as-a-judge 未来工作的一个方向是研究如何揭露和改善这些偏见,并提升系统面对攻击的鲁棒性。


(2)更动态,复杂的评判:早期的 LLM-as-a-judge 通常只采用比较简单的指令来 prompt 大模型。随着技术的发展,越来越多复杂且动态的 LLM-as-a-judge 框架被开发出来,例如多智能体判断和 LLM-as-a-examiner。在未来,一个有前景的研究方向是开发具有人类评判思维的大模型智能体;另外,开发一个基于大模型自适应难度的评判系统也很重要。


(3)自我判断:LLM-as-a-judge 长期以来一直受困扰于 “先有鸡还是先有蛋” 的困境:强大的评估者对于训练强大的 LLM 至关重要,但通过偏好学习提升 LLM 则需要公正的评估者。理想状况下,我们希望最强大的大模型能够进行公正的自我判断,从而不断优化它自身。然而,大模型具有的各种判断偏见偏好使得它们往往不能够客观的评价自己输出的内容。在未来,开发能够进行自我评判的(一组)大模型对于模型自我进化至关重要。


(4)人类协同大模型共同判断:直觉上,人工的参与和校对可以缓解 LLM-as-a-judge 存在偏见和脆弱性。然而,只有少数几篇工作关注这个方向。未来的工作可以关注如何用 LLM 来进行数据选择,通过选择一个很小但很具有代表性的测试子集来进行人工评测;同时,LLM-as-a-judge 也可以从其他具有成熟的人机协同方案的领域受益。


总结


本文探讨了 LLM-as-a-judge 的惊喜微妙之处。我们首先根据输入格式(逐点、成对和列表)和输出格式(包括评分、排名和选择)对现有的基于 LLM-as-a-judge 进行定义。然后,我们提出了一个全面的 LLM-as-a-judge 的分类法,涵盖了判断属性、方法和应用。此后,我们介绍了 LLM-as-a-judge 的详细基准集合,并结合了对当前挑战和未来方向的深思熟虑的分析,旨在为这一新兴领域的未来工作提供更多资源和见解。


文章来自于“机器之心”,作者“机器之心”。


关于LLM-as-a-judge范式,终于有综述讲明白了

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

2
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

3
AI搜索

【开源免费】MindSearch是一个模仿人类思考方式的AI搜索引擎框架,其性能可与 Perplexity和ChatGPT-Web相媲美。

项目地址:https://github.com/InternLM/MindSearch

在线使用:https://mindsearch.openxlab.org.cn/


【开源免费】Morphic是一个由AI驱动的搜索引擎。该项目开源免费,搜索结果包含文本,图片,视频等各种AI搜索所需要的必备功能。相对于其他开源AI搜索项目,测试搜索结果最好。

项目地址:https://github.com/miurla/morphic/tree/main

在线使用:https://www.morphic.sh/

4
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

5
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0