本文提出了一种称之为 Neural SPARQL Machines 的神经网络模型,该模型通过 seq2seq 训练模式将自然语言翻译成 SPARQL 查询,从而提高 Linked Data Cloud 上的问题搜寻效率。
Aug, 2017
本论文研究了使用神经机器翻译范式进行问题解析的应用,采用序列到序列模型来学习 SPARQL 图查询语言及其组合中的图形模式。通过模板构建问题和查询之间的对齐情况,探讨半监督学习方法代替问题 - 答案对诱导程序,并且借助自然语言生成的新进展扩展语言表达的覆盖范围。
Jun, 2018
本研究提出了在神经 SPARQL 查询生成中整合一个复制机制,以解决目前方案无法处理模型未见过的知识资源、类和属性的问题,并使用两种 Seq2Seq 体系结构(CNN 和 Transformers)进行说明。该层使模型直接从问题中复制 KB 元素,而不是生成它们,并在包括引用未知 KB 元素的数据集上评估我们的方法,显示所有数据集上性能都有了显著的提高。
Nov, 2022
本研究展示了小于十亿参数的语言模型可以在微调后用于将自然语言翻译成 SPARQL 查询。通过使用从学术界到真实世界的三个不同数据集,我们确定了训练数据必须满足的先决条件以确保训练成功。目标是让语义网络技术的用户能够使用经济实惠的通用硬件进行 AI 辅助,增强其对外界因素的韧性。
May, 2024
本文介绍了关于 NMT 的 SPARQL 查询语句生成的最新研究,并比较了预训练和非预训练模型、问题注释格式以及无需预训练和预训练模型的复制机制的使用。实验结果表明,无论是添加复制机制还是使用问题注释都可以提高非预训练模型和预训练模型的性能,为三个流行数据集设定新的基准线。
Apr, 2023
我们的研究致力于通过自然语言处理工具和创意鼓励来解决大众用户查询知识图谱的问题,我们的方法是通过正确的实体链接和训练 GPT 模型从自然语言问题中创建 SPARQL 查询,我们获得了在测试中 3 次查询命中准确度为 62.703%,实体链接挑战的 F1 值为 0.809,问题回答挑战的 F1 值为 0.009。
Feb, 2024
本研究提出了一种新的方法,使用神经机器翻译系统来本地化语义解析器,通过在目标语言自动产生的数据中添加一次辅助的人类翻译,我们训练了一种新的模型,可以通过 QA 系统对多个新的领域和语言进行问答。结果表明,我们的方法比以前的最先进方法在几个测试语言的测试数据集上更为有效,QA 系统可以帮助任何软件开发人员在不到 24 小时内为新领域添加新的语言支持。
Oct, 2020
这篇研究论文介绍了一种名为 NLQxform 的问答系统,它基于变压器模型 BART,可以通过自然语言界面访问学术知识图谱,实现复杂查询意图的转换和信息检索。在 Scholarly QALD Challenge 中,NLQxform 在 QA 任务上获得 0.85 的 F1 分数,并在排行榜上名列第一,展示了系统的竞争力。
Nov, 2023
本研究考虑将自然语言转换成 SQL,用于关系数据库的数据检索。我们提出了一种新的编码 - 解码框架,包括新的语义特征和语法感知状态等新方法。实证评估结果表明,我们的方法在真实世界的数据库和查询上明显优于现有技术。
Nov, 2017
Google 发布的 GNMT 神经机器翻译系统采用 LSTM 深度学习网络,使用 attention 机制和残差连接,借助词元素 (wordpieces) 将单词划分为子单元,提高了稀有单词处理能力与整体系统精度。
Sep, 2016