SPARQL 作为外语
本篇论文采用八种不同的神经机器翻译模型,探讨将自然语言问题翻译成结构化查询语言 SPARQL 的方法,结果表明基于 CNN 的架构效果最佳, BLEU 分数高达 98,准确率高达 94%。
Jun, 2019
本论文研究了使用神经机器翻译范式进行问题解析的应用,采用序列到序列模型来学习 SPARQL 图查询语言及其组合中的图形模式。通过模板构建问题和查询之间的对齐情况,探讨半监督学习方法代替问题 - 答案对诱导程序,并且借助自然语言生成的新进展扩展语言表达的覆盖范围。
Jun, 2018
研究发现,多语言自然语言问答技术仍存在困难,我们提出了一种利用 DUDES 和 MCMC 方法建立模型的 QALD 管道,成功将自然语言问题转换为可执行的 SPARQL 查询,并且在英语、德语和西班牙语环境下进行了测试。
Feb, 2018
本研究展示了小于十亿参数的语言模型可以在微调后用于将自然语言翻译成 SPARQL 查询。通过使用从学术界到真实世界的三个不同数据集,我们确定了训练数据必须满足的先决条件以确保训练成功。目标是让语义网络技术的用户能够使用经济实惠的通用硬件进行 AI 辅助,增强其对外界因素的韧性。
May, 2024
本文提出了 KGQAn,一个通用的 QA 系统,它不需要为每个目标 KG 进行定制,而是采用一种新颖的形式化方法将问题理解为一个文本生成问题,并通过神经序列到序列模型将问题转换为中间抽象表示。我们还开发了一个即时链接器,在查询时间使用 RDF 存储的公共可访问 API 和现有索引将抽象表示映射到特定 KG 的 SPARQL 查询,而无需任何预处理。我们在几个真实的 KG 上进行的实验表明,KGQAn 易于部署,对于任意的 KG 表现良好,优于现有的 QA 系统。
Mar, 2023
本研究提出了在神经 SPARQL 查询生成中整合一个复制机制,以解决目前方案无法处理模型未见过的知识资源、类和属性的问题,并使用两种 Seq2Seq 体系结构(CNN 和 Transformers)进行说明。该层使模型直接从问题中复制 KB 元素,而不是生成它们,并在包括引用未知 KB 元素的数据集上评估我们的方法,显示所有数据集上性能都有了显著的提高。
Nov, 2022
我们的研究致力于通过自然语言处理工具和创意鼓励来解决大众用户查询知识图谱的问题,我们的方法是通过正确的实体链接和训练 GPT 模型从自然语言问题中创建 SPARQL 查询,我们获得了在测试中 3 次查询命中准确度为 62.703%,实体链接挑战的 F1 值为 0.809,问题回答挑战的 F1 值为 0.009。
Feb, 2024
利用大型语言模型 (LLM),本研究评估了几种策略用于在生命科学知识图谱上进行问题回答,并提出一种端到端的数据增强方法,使得即使在缺乏问题到 SPARQL 查询对的数据集的情况下,也能进行微调。此外,研究还探讨了查询中语义线索的作用,并在真实的基因表达知识图谱上进行了评估,结果表明语义线索可以提高模型性能,相比于随机变量名和没有注释的基准结果,性能提升最多达到 33%。
Feb, 2024
本文提出了一种基于 SPARQL 查询的多语言语义 Web 知识库问答(QA)方法,能够查询多个知识库,可轻松移植到其他知识库和语言。通过对五个不同的知识库和五种语言的评估,证明了该方法的影响。
Mar, 2018
介绍了一种新的 SPARQL 基准数据集 Spider4SPARQL,包含 9693 个人工生成的 NL 问题和 4721 个独特、新颖且复杂的 SPARQL 查询,以及对应的 166 个知识图和本体,用于评估现代 KGQA 系统的优势和不足之处。
Sep, 2023