AutoQGS:从 SPARQL 中自动生成基于知识的低资源问题生成的自动提示
我们的研究致力于通过自然语言处理工具和创意鼓励来解决大众用户查询知识图谱的问题,我们的方法是通过正确的实体链接和训练 GPT 模型从自然语言问题中创建 SPARQL 查询,我们获得了在测试中 3 次查询命中准确度为 62.703%,实体链接挑战的 F1 值为 0.809,问题回答挑战的 F1 值为 0.009。
Feb, 2024
本文提出了一种基于 AQG(一种统一的图形文法)的端到端模型,由高级解码生成用于约束搜索空间的 AQG 和底级解码构造查询图,旨在优化查询图构建过程,提高在复杂 KGQA 基准测试中的表现。
Nov, 2021
本文提出了 KGQAn,一个通用的 QA 系统,它不需要为每个目标 KG 进行定制,而是采用一种新颖的形式化方法将问题理解为一个文本生成问题,并通过神经序列到序列模型将问题转换为中间抽象表示。我们还开发了一个即时链接器,在查询时间使用 RDF 存储的公共可访问 API 和现有索引将抽象表示映射到特定 KG 的 SPARQL 查询,而无需任何预处理。我们在几个真实的 KG 上进行的实验表明,KGQAn 易于部署,对于任意的 KG 表现良好,优于现有的 QA 系统。
Mar, 2023
基于知识库的问答(KBQA)旨在根据知识库来回答事实性问题。本研究针对无人系统中的知识图推理问答的 CCKS2023 竞赛,在 ChatGPT 和 GPT-3 等大型语言模型在许多问答任务中取得的最近成功的启发下,提出了基于 ChatGPT 的 Cypher 查询语言(CQL)生成框架,从给定的自然语言问题中生成最适合的 CQL 查询。我们的生成框架包括六个部分:根据给定的自然语言问题预测 CQL 的语法相关信息的辅助模型,从给定的自然语言问题中提取专有名词的专有名词匹配器,检索输入样例的相似示例的演示示例选择器,设计 ChatGPT 的输入模板的提示构造器,生成 CQL 的 ChatGPT 模型,以及从多样化的输出中获取最终答案的集成模型。凭借我们的基于 ChatGPT 的 CQL 生成框架,我们在 CCKS 2023 无人系统知识图推理问答竞赛中获得第二名,F1-score 为 0.92676。
Nov, 2023
本文研究如何从自然语言问题中生成 SPARQL 查询,并且使用预训练语言模型进行了实验,发现 T5 模型能够在此任务上取得卓越性能,并且还能够使用新的语义解析范例
Apr, 2022
本研究提出一种针对知识图谱(如 DBpedia)自动生成知识问题的方法,通过使用端到端的方法,包括实体选择、三元组查询、答案选择和自然语言问句生成,并使用历史数据和训练分类器来估计问题难度。最后的实验证明了这种方法的可行性。
Oct, 2016
介绍了一种新的 SPARQL 基准数据集 Spider4SPARQL,包含 9693 个人工生成的 NL 问题和 4721 个独特、新颖且复杂的 SPARQL 查询,以及对应的 166 个知识图和本体,用于评估现代 KGQA 系统的优势和不足之处。
Sep, 2023
使用大型语言模型,该研究论文介绍了一种学术知识图谱问答(KGQA)系统,通过少量示例解决书目自然语言问题。模型使用基于 BERT 的句子编码器来识别与给定测试问题相关的前 n 个相似训练问题,并检索它们对应的 SPARQL 查询。利用前 n 个相似问题 - SPARQL 对作为示例以及测试问题创建提示,并将其传递给大型语言模型以生成 SPARQL 查询。最后,在底层知识图谱(Open Research KG)端点上运行 SPARQL 查询并返回答案。该系统在 Scholarly-QALD-23 挑战基准中的 SciQA 数据集上获得了 99.0% 的 F1 分数。
Nov, 2023
利用大型语言模型 (LLMs) 并结合图结构提示的方法来增强预训练图神经网络 (GNNs) 的图谱归纳推理能力,通过实验证明该方法在低资源场景下的推理任务中表现出强大的鲁棒性和性能提升.
Feb, 2024
通过与知识库进行直接交互生成逻辑形式,我们引入了 Interactive-KBQA 框架来解决知识库问答领域的问题,该框架包括三种通用 API 用于知识库交互,通过步骤推理过程注释数据集,展示了我们模型的适应性和潜力,并在低资源场景中以极少的示例达到了优秀的结果。
Feb, 2024