ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
两位本科生一作,首次提出「持续学习」+「少样本」知识图谱补全 | CIKM 2024
2140点击    2024-11-11 14:57

知识图谱(Knowledge Graphs)是一种结构化的,用于展示和管理信息,组织现实世界知识的形式。其通常被表达为三元组形式(<头实体,关系,尾实体>)。KGs 为问答系统、推荐系统和搜索引擎等各种实际应用提供了极其重要支持。


然而现有知识图谱的显著不完整性严重限制了其在实际应用中的有效性。


同时,在现实实际应用中,知识图谱中的关系呈现长尾分布,即大多数关系只有少量相关的三元组。这种稀缺导致了模型对于长尾关系的泛化能力不足,从而使得知识图谱补全模型的整体效果较差 (Few-shot Learning) 。


进一步,随着时间的推演,越来越多的新关系被添加到关系集中,并在不同时间点集成到知识图谱中。这意味着模型不仅需要学习当前阶段的知识更需要记住在之前阶段学习过的知识 (Continual Learning) 。


最近,上海大学的本科生李卓风、张灏翔(第一作者以及共同第一作者)在信息检索和数据挖掘领域顶级学术会议CIKM 2024上发表了一篇文章,首次提出了在持续学习 (Continual Learning) 和少样本 (Few-shot) 的场景下对知识图谱进行补全,提供了一套全面且有效的框架来处理这一问题。


论文标题:Learning from Novel Knowledge: Continual Few-shot Knowledge Graph Completion

论文链接:https://dl.acm.org/doi/10.1145/3627673.3679734

代码链接:https://github.com/cfkgc-paper/CFKGC-paper/tree/main


该研究的发表将有助于提高知识图谱补全(KGC)模型在实际应用中的泛化能力,使其能够更好地适应动态环境和数据稀缺的场景,从而推动相关领域的应用发展。


通过提供有效的解决方案,本研究为后续研究奠定了基础,同时也为实际应用提供了重要的参考。


研究背景


目前在持续学习 (Continual Learning) 和少样本 (Few-shot) 的场景下对知识图谱进行补全面临两大挑战:


1. 灾难性遗忘问题,即模型在不断学习新关系时,对之前学到的关系的推理性能下降。这会导致模型退化和对稀有关系的推断能力大幅减弱。


2. 新关系的稀缺导致模型在稀有关系上的泛化能力不足。


为解决这些挑战,该研究提出了一个完整且有效的知识图谱补全框架,以适应不断出现的少量的关系。


1. 为了解决灾难性遗忘问题,研究人员从数据和模型两个维度入手。


在数据层面,通过特定的指标评估每个三元组在知识图谱中的重要性,包括拓扑感知和关系异质感知系数;利用这些重要性得分,可以识别出并存储来自最重要的三元组;这些缓存的三元组可以在优化过程中重放,以应对新关系的出现,确保模型回忆起最重要的知识。


在模型层面,研究人员实施了一种参数冻结的策略。在每个阶段,模型会识别与当前任务相关的一个模型子网络,并将其冻结,从而有效减轻遗忘问题。


2. 为了解决关系的稀缺导致模型在稀有关系上的泛化能力不足的问题,研究人员引入了一种多视角关系增强技术。该方法通过自监督学习提升模型的泛化能力。


技术方法



三元组的记忆回放


为了缓解灾难性遗忘问题,研究人员从数据和模型两个层面提出了解决方案。在数据层面,通过特别设计的指标来评估每个实体的重要性,并在内存中存储最重要的三元组。


这些缓存的三元组可以在新关系出现时进行重播,以确保模型能够回忆起最重要的知识。


具体来说,从两个角度评估实体的重要程度:


1. 拓扑感知重要度。在知识图谱中,一个实体的重要性应当由与其相连的其他实体的重要性共同决定。


其中du表示实体u的出边数量,N(v)表示实体v在Gr中的邻居集合。图片是实体v的最终拓扑感知重要性得分。


2. 除了拓扑结构外,还考虑了实体参与关系的多样性,即关系异质性感知重要度:



其中|Rv|表示实体v连接的不同关系数量。


最终,可以计算三元组的重要性分数:



元学习器的调制


文中进一步在模型层面实施了参数调制策略来保存最重要的参数。


具体来说,首先使用权重分数s来衡量网络参数的重要性:



然后,通过下面的优化公式来更新模型参数:



θ是元学习器参数,Qr代表关系集,图片是学习率,图片表示之前会话中识别的子网络掩码的并集。


通过这种参数调制机制,可以在学习新任务时保护已获得的重要知识,从而有效缓解灾难性遗忘问题。


增强少样本和自监督学习


通过引入基于自监督的多视图关系增强技术来增强模型的泛化能力,通过两种扰动方式生成关系的不同视图。


1. 元学习器参数扰动:



2. 输入实体嵌入扰动:



然后通过对比学习损失来优化:


其中τ是温度参数,图片一个 Batch 之内的关系集。图片图片分别代表经过1或者2扰动之后生成的关系。


实验结果


研究人员在 NELL-ONE 和 Wiki-ONE 两个数据集上对模型进行持续学习以及小样本学习的全面验证。


持续学习能力


该框架在持续学习方面的表现,与基线模型相比,能够显著减轻灾难性遗忘,且该模型不仅能有效保留先前会话的知识,还在后续会话中表现出更好的性能。该框架相对于基线模型,在减轻灾难性遗忘方面显示出显著优势。



例如,在NELL-One数据集中,方法在后续任务(Task1至Task7)中,平均比第二佳的基线方法改进了+13.3%,而在Wiki-One数据集中,平均改进为+27.0%。这表明该模型不仅有效地保留了之前学习会话的知识,还在随后的学习任务中展示了更优越的性能。



少样本学习能力


在快速适应新的学习进程中的未见关系时,模型能够维持稳定或增强的少样本学习性能。


相反,基线模型由于每个新会话中元任务数量有限,表现出明显的性能下降。这进一步证明了提出的多视角关系增强策略在解决与元任务稀缺相关的过拟合问题中的有效性。


模型在少样本学习方面显示了出色的性能,特别是在快速适应未见关系的新学习环境中。


以NELL-One数据集为例,MRR指标相较于第一个task(11.1%),模型在最后一个任务中表现出11.35%的性能,期间最高达到12.55%。


在Wiki-One数据集中,从基线的38.9%提高到了最后一个任务的40.05%,相对于其他的方法——随着更新的知识的学习,小样本性能也在下降,模型实现了对于更好的小样本学习性能的保持。


结果验证了所提出的多视角关系增强策略在缓解元任务稀缺导致的过拟合问题上的高效性。


结果表明模型不仅可以充分记住先前阶段的知识同时还可以有效学习新的知识。


消融实验



总结


本篇文章探讨了在持续学习以及少量样本的场景下对知识图谱补全的问题,提出了一种全面且有效的框架,旨在应对灾难性遗忘以及少样本带来的挑战。


该方案包括三元组重演策略,模型参数调制策略,多视角关系增强策略。该研究的发表将有助于提高知识图谱补全(KGC)模型在实际应用中的泛化能力,使其能够更好地适应动态环境和数据稀缺的场景,从而推动相关领域的应用发展。


通过提供有效的解决方案,本研究为后续研究奠定了基础,同时也为实际应用提供了重要的参考。


参考资料:

https://dl.acm.org/doi/10.1145/3627673.3679734


文章来自于微信公众号“新智元”


AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI数据分析

【开源免费】DeepBI是一款AI原生的数据分析平台。DeepBI充分利用大语言模型的能力来探索、查询、可视化和共享来自任何数据源的数据。用户可以使用DeepBI洞察数据并做出数据驱动的决策。

项目地址:https://github.com/DeepInsight-AI/DeepBI?tab=readme-ov-file

本地安装:https://www.deepbi.com/

【开源免费airda(Air Data Agent)是面向数据分析的AI智能体,能够理解数据开发和数据分析需求、根据用户需要让数据可视化。

项目地址:https://github.com/hitsz-ids/airda

2
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

3
AI搜索

【开源免费】MindSearch是一个模仿人类思考方式的AI搜索引擎框架,其性能可与 Perplexity和ChatGPT-Web相媲美。

项目地址:https://github.com/InternLM/MindSearch

在线使用:https://mindsearch.openxlab.org.cn/


【开源免费】Morphic是一个由AI驱动的搜索引擎。该项目开源免费,搜索结果包含文本,图片,视频等各种AI搜索所需要的必备功能。相对于其他开源AI搜索项目,测试搜索结果最好。

项目地址:https://github.com/miurla/morphic/tree/main

在线使用:https://www.morphic.sh/