基于关键词的采样(KEYS)用于大型语言模型
我们提出了一种基于查询的生成模型,用于解决问题生成和问题回答两个任务, 在查询理解方面,该模型使用经典的编码器 - 解码器框架,通过与多个角度的文章进行匹配来执行查询理解。在进行培训时,我们利用政策梯度强化学习算法来克服暴露偏差,这是由于交叉熵损失的序列学习而引起的主要问题。
Sep, 2017
本论文提出了一种新型问题表示方式:模板,应用于十亿级别的知识库和百万级别的问答数据。通过学习用于特定目的的模板,系统 KBQA 可以有效地回答基础性问题和复杂问题,并在 QALD 基准测试中胜出其他工作。
Mar, 2019
通过与知识库进行直接交互生成逻辑形式,我们引入了 Interactive-KBQA 框架来解决知识库问答领域的问题,该框架包括三种通用 API 用于知识库交互,通过步骤推理过程注释数据集,展示了我们模型的适应性和潜力,并在低资源场景中以极少的示例达到了优秀的结果。
Feb, 2024
本文提出了一种基于无监督学习的关键词提取方法,针对自然情境 VQA 任务,旨在准确抽取包含新信息的答案关键词,并将其与已知问题信息分离开来,实验证明该方法对含全句答案的 VQA 数据集能准确抽取关键词。
Nov, 2019
本文提出了一个两阶段的神经模型来解决从文档中生成问题的问题,第一阶段使用神经关键短语提取器来预测关键短语并作为目标答案,第二阶段使用序列到序列的问题生成模型带有复制机制生成问题,该模型优于标签基线和规则化的方法,是提高机器阅读系统或教育工作者的良好选择
Jun, 2017
本研究提出了一种新的度量模型 KPQA-metric,通过关键词预测为不同的令牌分配不同的权重评估生成的回答,用于评估生成式问答系统的正确性,并通过人类评估数据集表明,KPQA-metric 与现有度量模型具有更高的相关性。
May, 2020
利用大型语言模型构建生成 - 检索知识库问答 (ChatKBQA) 框架,在知识检索和语义解析两个研究组件方面面临三个核心挑战,即低效的知识检索、检索错误对语义解析的不利影响以及以往 KBQA 方法的复杂性。该框架通过首先使用已经微调的大型语言模型生成逻辑形式,然后通过无监督的检索方法检索并替换实体和关系,从而更直接地改善了生成和检索。实验结果表明,ChatKBQA 在标准 KBQA 数据集 WebQSP 和 ComplexWebQuestions (CWQ) 上取得了最新的最佳性能。这项工作还为将大型语言模型与知识图谱 (KG) 相结合提供了新的范例,以实现可解释性和知识需求的问答。
Oct, 2023
本研究提出了一种基于神经编码器 - 解码器模型的自动问题生成方法,可以根据给定的段落生成多样化、有意义的问题并利用 SQuAD 数据集进行了初步实验研究,实验结果显示该方法可以产生流畅且多样化的问题。
Apr, 2017
本文调查了在深度学习时代发布的有影响力的问答数据集,并介绍了文本问答和视觉问答两个最常见的问答任务,涵盖了最具代表性的数据集,并提出了当前的一些 QA 研究挑战。
Jun, 2022