- 基于路径的知识图谱补全解释
GNNs 在知识图谱完成领域取得了巨大成功,但预测结果的解释并没有得到足够的关注。本研究提出了 Power-Link 方法,基于路径的 KG 解释器,在 GNN-based 模型中探索路径解释,并引入新的度量方法进行定量和定性评估,实验证明 - FedMKGC:隐私保护的联邦多语言知识图谱补全
知识图谱补全的联合学习框架,通过基于文本的知识表示学习,隐式聚合多个知识图谱的语言模型权重,从而在多语言知识图谱上提升预测性能而无需共享原始数据。
- 使用预训练语言模型驱动知识图谱补全的提示式解耦嵌入
我们提出了一种名为 PDKGC 的新的知识图谱补全方法,该方法利用了提示信息和冻结的预训练语言模型,具有更全面的实体预测能力,与现有方法相比表现更好。
- 预训练语言模型是否真能推断知识图谱中未见节点的关联?
通过预训练模型的知识获取,我们提出了一种方法用于构建合成数据集,研究表明预训练模型在知识图谱补全中具备了推理能力,尽管性能的提高主要来自实体和关系的文本信息。
- 基于结构实体锚点的高效对比知识图谱补全的统一结构和语义
使用预训练语言模型方法,结合实体锚点和负采样的方式有效地统一了结构信息和语义信息,提高了知识图谱完成任务的性能,尤其在关联预测任务上表现最佳,超过了现有结构为基础的方法。
- 文本和基于结构的模型的集成用于知识图谱补全
我们研究了两种知识图谱补全方法:依赖文本实体描述的文本模型和利用知识图谱的连接结构的基于结构的模型。我们通过集成的方式结合了这两种方法,提出了一种新颖的方法来学习查询相关的集成权重,并在三个标准知识图谱补全数据集上取得了最先进的结果。
- 基于距离传播的高效知识图谱推理
通过仅在每个源 - 目标对的固定窗口中聚合路径,TAGNet 可以在保持竞争性表现的同时,将传播的消息数量减少多达 90%。
- EMNLP发挥联合作用:利用语言模型和邻域信息增强生成式知识图谱补全
我们提出了一种改进基于语言模型的知识图谱补全方法,通过包含节点邻域作为附加信息,提高了预测效果,并且在多种评估数据集上优于传统方法和基于语言模型的 KGC 方法。我们还对邻域对模型预测的影响进行了详细分析,并指出了通过更有效的邻域选择来显著 - CP-KGC: 基于大型语言模型的约束型提示知识图谱补全
本研究使用文本为基础的方法提升了知识图谱补全的效果,并通过引入约束型提示来改善大型语言模型生成的文本质量,该方法在低资源计算条件下展现了有效的推理能力,并在 WN18RR 和 FB15K237 数据集上超越了之前的结果,为将大型语言模型应用 - 提升大型语言模型在知识图谱补全中的性能
利用大型语言模型(LLM)的结构感知推理能力,将知识图谱(KG)中的结构信息嵌入到 LLMs 中,从而提高 LLMs 的知识推理能力。我们提出了一种结构感知推理框架,并通过实验证明了引入结构信息对 LLMs 的知识推理能力的改进效果。
- 利用预训练语言模型预测文本增强时序知识图中的时间间隔
我们提出了一种名为 TEMT 的新框架,利用预训练语言模型(PLMs)来增强文本的时间性知识图谱完成。TEMT 利用存储在 PLM 参数中的知识,能够产生丰富的事实语义表示,并且对以前未见过的实体进行推广。TEMT 将 KG 中的文本和时间 - KERMIT: 知识图谱增强关系建模与逆转换的完成
通过数据扩充和反向关系机制,本研究提出了一种知识图谱补全方法,利用文本描述和聊天式人工智能模型来增强可用数据的多样性和丰富性,从而实现更准确的结果。
- ICML关于知识图谱补全规则的聚合
这篇论文介绍了知识图谱补全中规则学习方法的高效、可解释且与纯神经模型竞争的特点,提出了规则聚合问题的概念,并探讨了其理论基础。研究证明了现有的聚合方法可以通过对预测规则进行边缘推断操作来表示,并提出了一种既有效又被忽视的基准方法,与计算复杂 - 探索用于知识图谱完成的大型语言模型
在本研究中,我们探索了利用大型语言模型(LLM)来完成知识图的关键问题。通过将知识图中的三元组视为文本序列,并引入名为 Knowledge Graph LLM(KG-LLM)的创新框架来对这些三元组进行建模。我们的技术利用三元组的实体和关系 - MoCoSA: 基于动量对比的结构增强预训练语言模型用于知识图谱补全
该研究提出了一种基于结构增强的预训练语言模型(MoCoSA)的动能对比方法,用于知识图谱完成,通过可适应的结构编码器使预训练语言模型能感知结构信息,并使用惯性难负采样和内部关系负采样提高学习效率。实验结果表明,该方法在平均倒数排名(MRR) - 基于规则学习的关系模式知识图嵌入的综合研究
知识图谱嵌入(KGE)是解决知识图谱完成(KGC)任务的有效方法。本文通过对 4 种常见关系模式的性能评估和理论分析,引入了一种无需额外训练的训练无关方法(SPA)来提高 KGE 模型的性能。
- 超级形式:增强实体和关系相互作用以完成超关系知识图谱
HyperFormer 是一种考虑到本地级别顺序信息的模型,它通过不同模块来编码实体、关系和限定符的内容。该模型使用 Mixture-of-Experts 策略以增强表示能力并减少模型参数和计算量,实验证明其有效性。
- 利用图形处理单元进行快速知识图谱补全
通过使用知识图谱嵌入向量,我们提出了一个高效的 GPU 支持的知识图谱完成框架来获取新的关系,并且我们通过将知识图铺完问题转化为 “可转化为度量空间” 的相似性连接问题,并使用度量空间特性导出公式来快速处理相似性连接问题的方法,来实验性地展 - CausE: 迈向因果知识图嵌入
知识图谱嵌入(Knowledge graph embedding,KGE)通过将知识图谱(knowledge graph,KG)中的实体和关系表示为连续向量空间,可以用于预测缺失的三元组,实现知识图谱补全。然而,KGE 模型通常只能简要地学 - 分离聚合:基于 Transformer 的补丁细化模型用于知识图谱补全
PatReFormer 是一种基于 Transformer 的补全知识图谱的模型,通过将嵌入分段并应用交叉注意力模块,在复杂关系类型上具有更好的性能表现,同时在四个流行的 KGC 基准测试中也取得了显着的性能提升。