如何解决模型生成幻觉一直是人工智能(AI)领域的一个悬而未解的问题。为了测量语言模型的事实正确性,近期 OpenAI 发布并开源了一个名为 SimpleQA 的评测集。而我们也同样一直在关注模型事实正确性这一领域,目前该领域存在数据过时、评测不准和覆盖不全等问题。例如现在大家广泛使用的知识评测集还是 CommonSenseQA、CMMLU 和 C-Eval 等选择题形式的评测集。
为了进一步同步推进中文社区对模型事实正确性的研究,淘天集团算法技术 - 未来生活实验室团队提出了 Chinese SimpleQA,这是第一个系统性地全面评估模型回答简短事实性问题能力的中文评测集,可以全面探测模型在各个领域的知识水平。具体来说,Chinese SimpleQA 主要有六个特点:
基于中文 SimpleQA,我们对现有 LLM 的事实性能力进行了全面的评估。并维护一个全面的 leaderboard 榜单。同时我们也在评测集上实验分析了推理 scaling law、模型校准、RAG、对齐税等研究问题,后续本评测集都可以作为这些方向的重要参考之一。
总之,我们希望 Chinese SimpleQA 能帮助开发者深入了解其模型在中文领域的事实正确性,同时也能为他们的算法研究提供重要基石,共同促进中文基础模型的成长。
在构建 Chinese SimpleQA 数据集的过程中,我们采用了严格且周密的流程,确保数据质量达到高标准。主要分为自动化构建和质量控制两个阶段:
(1)知识内容提取与过滤:我们从维基百科等多种知识领域中收集大量富含知识的文本内容,并利用规则和质量评估模型筛除低质量数据。
(2)自动生成问答对:制定问题标准,基于高质量的知识内容,利用大型语言模型(LLM)基于标准条例自动生成问题与答案对。其中大概制定了 9 条严格的细则,包括:答案必须唯一且确定、答案不应随时间变化等。
(3)自动质量验证:通过 LLM 根据预先设定的标准对生成的问答对进行初步筛选,剔除不符合要求的样本。
(4)结合工具验证:引入 RAG 和 Agent 的方式,结合外部检索工具收集验证信息,指导 LLM 进一步准确评估答案的事实正确性。
(5)难度级别过滤:过滤掉过于简单的样本,提升数据集的难度,以发现 LLM 的普遍存在的知识边界。具体来说,如果一个问题四个模型都能正确回答,则认为该问题过于简单并予以舍弃。
(1)每条数据在隐藏答案后交由两位独立的标注员进行标注,首先判断问题是否符合预定标准。不符合的问题将被淘汰。然后要求每位标注员结合权威来源(如维基百科、百度百科)的相关信息填写答案,同时需要提供至少两个参考链接,确保答案可溯源。
(2)若两位标注员的答案不一致,由第三位标注员进行复审,最终确定答案。
(3)安排多名算法工程师进行多轮抽检与反馈,同时不断细化标准
整个构建和标注过程中,初步生成了 10,000 对问答对,经过难度评估和多轮验证,最终只保留了约 3,000 对高质量的问答对,确保了数据集的高质量和严谨性,希望为评估 LLM 的事实正确性提供正确的引导。
评测方式和指标直接遵循 OpenAI 的方式,主要有以下四个指标:
我们评估了 17 个闭源模型和 24 个开源模型,排名榜如下:
不同模型在 Chinese SimpleQA 上的结果。关于指标,Correct(CO)、Not attempted(NA)、Incorrect(IN) 和 Correct given attempted(CGA) 分别表示 “回答正确率”、“未回答率”、“回答错误率” 和 “回答精确率”。关于主题,Chinese Culture(CC)、Humanities(HU)、Engineering, Technology、Applied Sciences(ETAS)、Life, Art, and Culture(LAC)、Society(SO) 和 Natural Science(NS) 分别表示 “中华文化”、“人文与社会科学”、“工程、技术与应用科学”、“生活、艺术与文化”、“社会” 以及 “自然科学”。
总的来看,o1-preview 表现最佳,同时有几个近期专注于中文的闭源大模型(如 Doubao-pro-32k 和 GLM-4-Plus)的表现与 o1-preview 相近。从榜单表现来看,首先,“mini” 系列模型(如 o1-mini, GPT-4o-mini)的表现明显不如其对应的大模型(如 o1-preview, GPT-4o),这表明 “mini” 系列在记忆事实知识方面有明显的下降。其次通常越大的模型表现更好,例如 GPT、Qwen2.5、InternLM2.5 等系列。而小模型通常在 “未尝试(NA)” 项上得分较高,比如 o1-mini 和 InternLM2.5-1.8B,其 NA 分数分别为 20.5 和 31.2,远高于对应大模型的得分(如 o1-preview 的 12.2 和 InternLM2.5-20B 的 7.7)。另外,各模型在不同主题上的表现差异显著,特别是中文社区的大模型(如 Doubao-pro-32k, GLM-4-Plus, Qwen-Max, Deepseek)在 “中国文化(CC)” 主题上明显优于 GPT 或 o1 模型,而在科学相关主题(如 ETAS 和 NS)上,o1 则具有显著优势。
我们还在 Chinese SimpleQA 上探索了 inference scaling law、模型校准、RAG、对齐税等热门研究课题(具体详见论文)。得出了以下几个有见地的发现:
我们要求模型在回答问题时提供 0 到 100 的信心指数,以衡量模型的校准程度,即模型对其答案的自信程度。理想的校准模型应该是信心指数与答案的实际准确率相匹配。实验结果显示,GPT-4o 的校准优于 GPT-4o-mini,而 o1-preview 优于 o1-mini。在 Qwen2.5 系列中,校准效果依次为 Qwen2.5-72B > Qwen2.5-32B > Qwen2.5-7B > Qwen2.5-3B,说明更大规模的模型具有更好的校准性能。此外,对于所有评估的模型,当信心指数大于 50 时,它们的信心水平都低于了完美校准线,表明它们普遍对自身回答的准确性过于自信。
我们研究了不同模型在增加推理计算资源和回答准确性之间的关系。具体方式是从 Chinese SimpleQA 中随机抽取 50 个样本,每个样本要求模型独立回答 100 次。通过 Best-of-N 方法随着推理次数的增加来计算模型的回答准确性。结果表明,随着推理次数的增加,所有模型的响应准确性都提高,并最终达到上限。这一现象与 OpenAI o1 发布时提出的结论表现一致。
我们同时在 Chinese SimpleQA 上探讨了检索增强生成(RAG)策略在提升 LLMs 事实正确性方面的效果。我们基于 LlamaIndex 和谷歌搜索 API 搭建了 RAG 系统。结果表明,所有模型在配置 RAG 后准确性都显著提高,例如,Qwen2.5-3B 的性能提升了三倍多。同时,在配置 RAG 后各模型之间的性能差异也显著减少,例如,带有 RAG 的 Qwen2.5-3B 与 Qwen2.5-72B 的 F-score 相差仅 6.9%。这表明 RAG 可显著缩小模型性能差距,使得较小模型在 RAG 支持下也能获得高性能。因此,RAG 仍是增强 LLMs 事实性的一条强有效的捷径。
我们对比分析了预训练模型与对齐后的模型在评测集上的表现。结果显示,尽管不同模型在后期训练后表现各异,但大多数模型的表现都显著下降。其中,Baichuan2 系列模型下降最为明显,Baichuan2-7B 和 Baichuan2-13B 的 F-score 分别下降了 47% 和 28%。这反映出当前大多数大语言模型的对齐训练在幻觉缓解方面仍有明显不足,也突显了评测集的价值。
评测集涵盖 99 个主题和领域,能够全面检测模型在各个领域的知识水平,可以帮助各个领域的研究者识别最适合其特定需求的模型。目前 o1-preview 模型表现最为全面,但是评测结果展示了许多其他模型在特定垂直领域的强有力的表现(具体详见论文和榜单)。
最后,欢迎广大研究者使用我们的评测集进行实验和研究。淘天集团算法技术 - 未来生活实验室团队将持续更新和维护数据集及评测榜单,为中文社区的发展贡献力量。
文章来自于“机器之心”,作者“贺彦程,李世龙,刘佳恒,苏文博”。
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。
项目地址:https://github.com/microsoft/graphrag
【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。
项目地址:https://github.com/langgenius/dify
【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。
项目地址:https://github.com/infiniflow/ragflow/tree/main
【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目
项目地址:https://github.com/phidatahq/phidata
【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。
项目地址:https://github.com/TaskingAI/TaskingAI
【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。
在线使用:https://ffa.chat/