基于知识图谱的对话问答强化学习
我们提出了一个基于强化学习模型的 CornNet,该模型利用大型语言模型生成的问题重述来改进对知识图谱中的多轮自然语言问题的回答,实验证明 CornNet 优于现有的 ConvQA 模型。
Dec, 2023
本研究提出了一种基于强化学习的模型 CONQUER,能从包含噪声的问题改写中学习如何回答自然语言问题,并在新提出的基准测试集 ConvRef 上展示了显著的性能提升。
May, 2021
通过对话历史和领域信息进行对比表示学习,本文提出了一种基于对比表示学习的方法,用于无需黄金注释的弱监督下进行知识图谱路径排名。 实验结果表明,该方法在所有领域和整体上显着优于现有基线,排名指标相对于现有技术表现提高了 10 到 18 个百分点。
Oct, 2022
通过我们提出的 REIGN 框架,我们通过多种步骤来解决面对表面形式变化的局限性学习环境,其中包括系统生成训练问题的改写,通过深度强化学习改善问答模型的性能,以及在一个基准测试集上训练模型并应用于另一个。我们通过大量多样的改写生成评测数据的方式对训练模型的鲁棒性进行了严格评估,结果显示,通过改写生成的训练方法的对话问答模型明显优于只使用金标准问答对进行标准训练的模型。
Oct, 2023
本文提出了一个任务,即 Complex Sequential QA,它结合了回答简单事实性问题和通过一系列有逻辑的问答匹配进行会话来进行复杂推理,本文也介绍了关于这个任务所需数据集,以及目前现有的模型在处理实际场景中还存在的不足。
Jan, 2018
本文介绍了一种称为 Active Question Answering 的基于强化学习的问题回答方法,通过探究黑盒 QA 系统并最大化回答质量来重新构筑问题,该方法在 Jeopardy! 等复杂问题数据集上表现出比其他基准模型更好的性能,并发现了与信息检索技术类似的策略。
May, 2017
本文提出了一种利用经典逻辑编程语言来装备大型语言模型(LLMs)的方法,以在知识图谱(KG)上回答自然语言问题,从而提供可解释性解决方案。作者使用 MetaQA 数据集证明了该方法的有效性。
Mar, 2023
本文介绍了一种基于知识图谱的问答系统,采取了一种新型的深度学习架构和端到端变分学习算法,可以同时处理问题中的噪声和多跳推理,在最新的基准数据集中取得了最优表现。
Sep, 2017
我们开发了一个人工智能代理,通过与其他代理进行对话来积极增加其知识库,并通过识别新的集成信念周围的图模式来生成对话响应,我们展示了在交互中可以使用强化学习来学习选择有效的图形模式,而无需依赖明确的用户反馈,并在这一背景下,我们的研究证明了利用用户作为信息来源的可行性。
Jun, 2024
该文章分析了一个被训练使用强化学习的代理程序学到的语言,作为 ActiveQA 系统的组成部分。在这个系统中,问题回答被框架化为一项强化学习任务,代理学习重构用户问题以引出最佳答案。研究发现,代理程序并没有学习与语义相关的转换,而是通过学习传统的信息检索技术(如 tf-idf 重新加权和词干化)来适应回答系统的语言。
Jan, 2018