上下文生成改善开放域问答
本文提出了一种新的封闭式问答模型,旨在通过对比学习和答案重构模块更好地理解长形式摘要回答的语义并在其参数中存储更多信息,通过实验验证了该模型在公共数据集和新的 WikiCQA 数据集上的有效性,并展示了如何利用该模型改进现有的问答系统。
Oct, 2022
通过对外部知识进行动态阅读的方法,结合模型参数内已有知识的‘封闭阅读’和结合‘开放阅读’的方式,有效提升了开放域问答模型的推理效率和预测准确率。
Nov, 2022
本文提出了一种基于大型语言模型的自我点拨框架 (Self-Prompting framework),使得在开放域下的问答任务 (Open-Domain Question Answering) 可以在不需要训练数据和外部知识库的情况下实现,采用该方法在三个广泛使用的 ODQA 数据集上,实验结果优于之前的最先进方法,在 EM 指标上平均提高了 8.8 个百分点,并且能够实现与多种检索增强的微调模型相比较的性能。
Dec, 2022
本研究探索了使用预训练语言模型作为知识库回答开放性问题的方法,构建了一个新的 SQuAD 数据集对 BART 进行了评估,并发现对 BART 来说,在高精度记忆训练事实和回答封闭式问题方面存在挑战,需要将知识记忆过程与 QA 微调过程分开,强制模型在回答问题时记住相关知识。
Jun, 2021
Open-domain Question Answering research investigates the generalization performance of a retrieval-augmented QA model, proposing Corpus-Invariant Tuning as an effective training strategy to mitigate knowledge over-memorization and achieve better generalizability.
Apr, 2024
利用预训练语言模型(LMs)和知识图谱(KGs)解答问题存在识别相关知识和进行联合推理的挑战。通过与先前发表的 QAGNN 方法进行比较,我们发现将相关的知识事实纳入问题上下文有助于提高问题回答性能,而将知识图谱融入语言模型中则只能带来少量增长,这表明将上下文知识事实结合起来可能对增强问题回答性能更具影响力。
Dec, 2023
本文介绍了两种新颖的方法:Tree-Search 和 Self-contextualizing QA,旨在提高大型语言模型在问答任务中的性能。通过使用 Tree-Search 采样技术和自我上下文化 QA 方法,可使模型根据提示创建其自己的上下文并生成高质量、一致性强、信息量大、连贯度强的答案,优点是具有更高的鲁棒性,同时可以扩展到多种任务和应用。
May, 2023
本研究提出了一个名为 BeamSearchQA 的新型问题回答管道,它通过使用大型语言模型迭代地生成关于原始问题的新问题,从而启用一个迭代推理过程,以便更好地捕捉和利用隐藏知识。实验结果表明,BeamSearchQA 明显优于其他零 - shot 基线,在处理开放性领域问题回答方面具有很强的有效性。
May, 2023
基于知识兼容性匹配的 COMBO 框架能够有效地利用两种信息源,改善开放领域的问答性能,并在四项测试问答基准中有三个的竞争对手表现更好,特别在存在较高程度知识冲突的场景中表现出更大的功效。
Oct, 2023
本文旨在建立三种不同的 QAG 方法的基线,利用序列到序列语言模型进行微调。实验证明,一种端到端的 QAG 模型,它在训练和推理时计算量都很轻,通常是稳健的,并且胜过其他复杂的方法。然而,这取决于底层生成模型的不同。最后,我们的分析表明,仅基于生成的问答对微调的 QA 模型可以与人类标注数据上训练的监督 QA 模型具有竞争力。
May, 2023