通过对比预训练和节点聚类完成常识知识图补充
该研究提出了新的知识库补全模型,它可以通过利用节点的结构和语义上下文来解决本体库完整性问题。该模型不仅学习了本地图结构,而且还利用了预先训练的语言模型的转移学习来增强对知识的上下文表示,进而显著提高了链路预测能力,并对常识知识的类型进行了分析。
Oct, 2019
本文提出了一种基于节点的对比学习方法 NC-KGE,通过在知识图谱上构建适当的对比节点对来提升嵌入和加速训练收敛,并通过加入关系感知注意机制对生物医药关系预测任务进行了改进,实验证明 NC-KGE 在公共数据集和生物医药数据集上具有竞争力并且在预测药物组合关系方面优于其他模型。
Oct, 2023
本研究通过对少样本知识图谱自动补全任务的学习方法、任务应用、以及未来研究领域的调查和总结,提出了一种使用图形表示学习和少样本学习优势的 FKGC 方法,以期解决常规 KG 和 CKG 补全任务中长尾关系及新关系的问题,并在不同领域的预测任务中应用 FKGC 模型。
Jan, 2023
本论文提出了一种名为 InductivE 的学习框架,旨在解决 Commonsense Knowledge Graph(CKG)完成中可能出现的未见过实体的问题,该框架直接从原始实体属性 / 文本计算实体嵌入,并由一个自由文本编码器、一个图编码器和一个 KG 完成解码器组成。实验证明,InductivE 在 ATOMIC 和 ConceptNet 基准测试中都显著优于现有基线方法。
Sep, 2020
通过引入三种不同类型的负例并结合 InfoNCE Loss,提出了一种名为 SimKGC 的模型,实现了高效的自然语言文本推理知识图谱补全, 并在多个基准数据集上取得了比基于图嵌入的方法更好的效果。
Mar, 2022
本文提出了一种采用文本蕴含来找到共享常识知识图谱节点之间的隐式蕴含关系的方法,以有效地增加相同概念类中节点之间连接的子图密度,从而提高 CSKG 完成任务的性能。
Feb, 2024
本论文提出了一个自监督的图神经网络预训练框架 Graph Contrastive Coding(GCC),通过子图实例区分学习网络的建构,利用对比学习增强图神经网络的内在和可迁移的结构表现,并在十个图数据集上展开实验,结果表明,GCC 对于包括节点分类、相似性搜索和图分类等三个图学习任务,展现出与特定任务和从零开始训练的对应模型相竞争的性能,同时显示了预训练和微调范式在图表示学习中有很大的潜力。
Jun, 2020
本研究提出了一种简单而有效的基于网络预训练的知识图谱补全框架(NetPeace),旨在整合知识图谱中全局网络连接和本地三元组关系的信息,并在稠密的知识图谱上获得了一致且显著的提高。
Feb, 2023
本文提出了构建上下文常识知识图谱的新方法,使用语义相似性计算知识图谱三元组和文本论点之间的相似度,从而提取连接论点和前提的上下文化路径,并组合成去噪的上下文常识知识图谱来补充没有明确陈述的论证过程,所得结果在评估任务中显示出了很高的正确率。
May, 2023
本文研究如何将对比学习与图神经网络相结合,通过简单的列处理嵌入矩阵来提高节点嵌入的质量,从而在分类任务中取得高达 1.5%的改进和超越 8 项基准测试中的现有最先进方法。
May, 2023