构建支持 GML 的知识图谱平台
本文提出了 KGQAn,一个通用的 QA 系统,它不需要为每个目标 KG 进行定制,而是采用一种新颖的形式化方法将问题理解为一个文本生成问题,并通过神经序列到序列模型将问题转换为中间抽象表示。我们还开发了一个即时链接器,在查询时间使用 RDF 存储的公共可访问 API 和现有索引将抽象表示映射到特定 KG 的 SPARQL 查询,而无需任何预处理。我们在几个真实的 KG 上进行的实验表明,KGQAn 易于部署,对于任意的 KG 表现良好,优于现有的 QA 系统。
Mar, 2023
使用基于知识图谱的 CityGML KG 框架,将 CityGML 本体中的概念通过声明式映射到 3DCityDB 中进行填充,从而将其中的 CityGML 数据作为一个知识图谱公开。示范了该方法的可行性,并在慕尼黑市的 CityGML 数据中集成了 OpenStreetMap 数据。
Oct, 2023
图形语言模型(GLM)集成了线性文本模型(LM)和图神经网络(GNN)的优点,同时减轻它们的弱点,在有监督和零样本情况下,在概念网络的关系分类任务上超过了基于 LM 和 GNN 的基线。
Jan, 2024
提出了一种增强学习模型的方案,即通过知识图谱的事实三元组来为自然语言处理任务提供上下文知识,并采用基于卷积的模型来减少关注空间,从而大大提高了文本分类和自然语言推理任务的性能。
Feb, 2018
本篇研究通过探索评分函数和损失函数的设计,发现相比于复杂的图神经网络,简单的多层感知器 (MLP) 模型能够实现与之相似的性能表现,在知识图谱补全 (KGC) 方面不一定需要高度复杂的聚合方式。
May, 2022
我们的研究致力于通过自然语言处理工具和创意鼓励来解决大众用户查询知识图谱的问题,我们的方法是通过正确的实体链接和训练 GPT 模型从自然语言问题中创建 SPARQL 查询,我们获得了在测试中 3 次查询命中准确度为 62.703%,实体链接挑战的 F1 值为 0.809,问题回答挑战的 F1 值为 0.009。
Feb, 2024
本研究提出了一种基于自动提示的方法来处理低资源情况下的知识问答生成(KBQG),通过从 SPARQL 中直接生成问题并使用基于自然语言生成模型的自动提示器实现 SPARQL 和自然语言描述之间的转化,从而在 WebQuestionsSP、ComlexWebQuestions1.1 和 PathQuestions 等数据集上取得了最新的性能
Aug, 2022
本篇论文采用八种不同的神经机器翻译模型,探讨将自然语言问题翻译成结构化查询语言 SPARQL 的方法,结果表明基于 CNN 的架构效果最佳, BLEU 分数高达 98,准确率高达 94%。
Jun, 2019
本文研究如何从自然语言问题中生成 SPARQL 查询,并且使用预训练语言模型进行了实验,发现 T5 模型能够在此任务上取得卓越性能,并且还能够使用新的语义解析范例
Apr, 2022