无监督的问答模型自适应
通过使用未标记的测试数据,我们展示并研究了仅凭借未标记的测试数据的自适应语言模型的能力。我们首先随机生成多个答案,然后在过滤掉低质量样本的同时将它们集成在一起,以减轻不准确标签引入的噪声。我们提出的自适应策略在基准问答数据集上表现出了显著的性能改进,对于多样的提示更具鲁棒性,使语言模型保持稳定。
Oct, 2023
本研究提供了一个基于微软产品和技术问题的产业特定 QA 知识的检测基准 MSQA,旨在评估旨在提高 LLM 领域特定能力的方法。此外,我们提出了一种新的模型交互范式,可以使 LLM 在不熟练的领域特定任务上实现更好的性能。实验表明,遵循我们的模型融合框架的方法优于常用的检索方法的 LLM。
May, 2023
通过预训练大型语言模型解决普适领域问答中的常见知识和罕见长尾知识学习难题,我们提出了一种自动生成专门用于长尾知识的问答数据集的自动方法,并展示了相关的研究挑战。通过预训练语言模型,在我们新生成的长尾问答数据集上进行了详尽实验,比较了其使用维基百科和维基数据知识图等外部资源的性能。
Mar, 2024
本文提出了一种基于大型语言模型的自我点拨框架 (Self-Prompting framework),使得在开放域下的问答任务 (Open-Domain Question Answering) 可以在不需要训练数据和外部知识库的情况下实现,采用该方法在三个广泛使用的 ODQA 数据集上,实验结果优于之前的最先进方法,在 EM 指标上平均提高了 8.8 个百分点,并且能够实现与多种检索增强的微调模型相比较的性能。
Dec, 2022
介绍了 Dr. LLaMA,这是一种通过使用大型语言模型进行生成式数据增强来改善小型语言模型的方法,主要关注医学问答任务和 PubMedQA 数据集。研究表明,LLMs 可以有效地改善和多样化问题 - 答案对,从而在微调后使得规模更小的模型获得更好的领域特定 QA 数据集性能。该研究特别强调了在领域特定的问答任务中使用 LLMS 所面临的挑战,并建议了解决这些限制的潜在研究方向,旨在创建更高效、更有能力的专门应用模型。
May, 2023
通过使用大型语言模型 (LLMs) 生成大量合成的查询,可以在不使用大量标记的数据的情况下,有效地优化实现信息检索任务,同时消除因为领域的转变而导致真实世界应用效力降低的问题。
Mar, 2023
本文介绍了一种称为 Self-QA 的创新框架,利用大量无监督知识代替传统的人工撰写指导文件种子,从而生成更多正确和特定于领域的指导数据,以克服创建用于指导调整的监督配对问答数据所面临的挑战。
May, 2023
本文探究了迁移学习在问题回答方面的应用,使用两种问题回答模型,在 TOEFL 和 MCTest 数据集上通过简单的迁移学习技术从 MovieQA 数据集中学到的知识显著提高了性能,尤其是其中一种模型在所有目标数据集上取得了最佳效果,对于 TOEFL 听力理解测试,它的性能比以前的最佳模型提高了 7%。最后,我们证明了即使在目标 QA 数据集示例的正确答案不可用的无监督情况下,迁移学习也是有帮助的。
Nov, 2017
该研究探讨了半监督问答问题,在该问题中,利用无标签文本提高问答模型的性能,我们提出了一种新的训练框架,即生成领域自适应网络。该框架通过训练生成模型来生成基于无标签文本的问题,并将模型生成的问题与人类生成的问题相结合,用于训练问答模型。我们发展了基于强化学习的新领域适应算法,以减少模型生成数据分布与人生成数据分布之间的差异。实验结果表明,我们提出的框架可从无标签文本中获得显著的提高。
Feb, 2017
我们提出了一种无监督训练 QA 模型的方法,该方法使用生成的伪数据训练,为 QA 训练生成问题,通过对相关检索到的句子应用简单模板,而非原始上下文句子来实现,从而使模型能够学习更复杂的上下文问题关系。 使用这些数据训练 QA 模型可在 SQuAD 数据集上获得 14%的 F1 分数相对提高,并且在答案为命名实体时提高 20%,从而实现无监督 QA 的最新性能。
Apr, 2020