SGSH: 刺激大型语言模型生成基于知识库的问题的框架启发
本研究旨在解决在知识图谱子图上生成自然语言问题时,信息量不足和语义漂移的问题,提出了一种名为 KTG 的知识增强的、类型约束和语法引导的 KBQG 模型,并设计了一种奖励函数来提高生成的丰富性和句法正确性,实验证明该模型在两个广泛使用的基准数据集 SimpleQuestion 和 PathQuestion 上优于现有方法。
Oct, 2020
基于知识库的问答(KBQA)旨在根据知识库来回答事实性问题。本研究针对无人系统中的知识图推理问答的 CCKS2023 竞赛,在 ChatGPT 和 GPT-3 等大型语言模型在许多问答任务中取得的最近成功的启发下,提出了基于 ChatGPT 的 Cypher 查询语言(CQL)生成框架,从给定的自然语言问题中生成最适合的 CQL 查询。我们的生成框架包括六个部分:根据给定的自然语言问题预测 CQL 的语法相关信息的辅助模型,从给定的自然语言问题中提取专有名词的专有名词匹配器,检索输入样例的相似示例的演示示例选择器,设计 ChatGPT 的输入模板的提示构造器,生成 CQL 的 ChatGPT 模型,以及从多样化的输出中获取最终答案的集成模型。凭借我们的基于 ChatGPT 的 CQL 生成框架,我们在 CCKS 2023 无人系统知识图推理问答竞赛中获得第二名,F1-score 为 0.92676。
Nov, 2023
通过使用大规模语言模型(LLMs),我们提出了一种名为 EKRG 的新型检索 - 生成框架,以极低的注释成本实现了企业知识库的问答。通过独特的指令调优方法和针对连贯性思维的微调方法,我们的框架在真实世界数据集上进行了广泛实验,并取得了显著的有效性。
Apr, 2024
通过链式思考促进的 KBQG 方法在低资源情况下提供了有效的少样本问题生成方法,比现有基线方法在 KBQG 任务上取得了显著的性能提升。
Oct, 2023
利用大型语言模型构建生成 - 检索知识库问答 (ChatKBQA) 框架,在知识检索和语义解析两个研究组件方面面临三个核心挑战,即低效的知识检索、检索错误对语义解析的不利影响以及以往 KBQA 方法的复杂性。该框架通过首先使用已经微调的大型语言模型生成逻辑形式,然后通过无监督的检索方法检索并替换实体和关系,从而更直接地改善了生成和检索。实验结果表明,ChatKBQA 在标准 KBQA 数据集 WebQSP 和 ComplexWebQuestions (CWQ) 上取得了最新的最佳性能。这项工作还为将大型语言模型与知识图谱 (KG) 相结合提供了新的范例,以实现可解释性和知识需求的问答。
Oct, 2023
提出一种新颖的生成式时间知识图问答框架(GenTKGQA),通过两个阶段引导 LLMs 回答时间性问题:子图检索和答案生成。在第一个阶段,利用 LLM 的内在知识来挖掘问题中的时间约束和结构链接,从而缩小子图搜索空间。在第二个阶段,设计虚拟知识指示器将子图的图神经网络信号与 LLM 的文本表示非浅层次地融合,帮助开源 LLM 深入理解检索到的事实中的时间顺序和结构依赖关系。实验结果表明,该模型优于最先进的基准方法,甚至对于简单问题类型的指标达到 100%。
Feb, 2024
本论文提出了一种名为 “Prophet” 的框架,采用两个补充答案启发式条目对 GPT-3 进行提示,以提高其理解任务的能力,从而在基于知识的视觉问答方面显著优于所有现有的最先进方法,分别在 OK-VQA 和 A-OKVQA 的测试集上达到了 61.1%和 55.7%的准确率。
Mar, 2023
使用大型语言模型,该研究论文介绍了一种学术知识图谱问答(KGQA)系统,通过少量示例解决书目自然语言问题。模型使用基于 BERT 的句子编码器来识别与给定测试问题相关的前 n 个相似训练问题,并检索它们对应的 SPARQL 查询。利用前 n 个相似问题 - SPARQL 对作为示例以及测试问题创建提示,并将其传递给大型语言模型以生成 SPARQL 查询。最后,在底层知识图谱(Open Research KG)端点上运行 SPARQL 查询并返回答案。该系统在 Scholarly-QALD-23 挑战基准中的 SciQA 数据集上获得了 99.0% 的 F1 分数。
Nov, 2023
通过将大型语言模型与知识库相结合,KnowledGPT 能够更好地回答涉及世界知识的更广泛问题,利用广为人知的知识库和个性化知识库中的知识。
Aug, 2023
本文提出了一种骨架语法来表达复杂问题的高级结构,并结合基于 BERT 的解析算法,采用多策略方法,包括句子级和单词级语义,来提高细粒度语义解析的准确性。实验结果表明,该方法在多个数据集上有良好表现。
Mar, 2020