跨域问答泛化学习
研究提出了一个不依赖于特定领域的问答模型,并探讨了大型预训练语言模型、各种数据采样策略以及通过背景翻译生成的查询和上下文释义的相对优点。我们发现简单的负采样技术特别有效,即使它通常用于包括无法回答的问题(如 SQuAD 2.0)的数据集。当与域内采样结合应用时,基于 XLNet(Yang 等人,2019)的提交在 MRQA 领袖板竞赛中取得了第二名的准确匹配和 F1 得分。
Dec, 2019
本文介绍了如何使用合成领域特定数据集来改进问答的性能,通过实验表明使用该方法 fine-tune 下游模型的表现得到了显著的提升。
Nov, 2022
该研究探讨了半监督问答问题,在该问题中,利用无标签文本提高问答模型的性能,我们提出了一种新的训练框架,即生成领域自适应网络。该框架通过训练生成模型来生成基于无标签文本的问题,并将模型生成的问题与人类生成的问题相结合,用于训练问答模型。我们发展了基于强化学习的新领域适应算法,以减少模型生成数据分布与人生成数据分布之间的差异。实验结果表明,我们提出的框架可从无标签文本中获得显著的提高。
Feb, 2017
本文提出一种采用对抗训练框架来解决深度学习中新领域适应问题的方法,将传统 QA 模型和判别器组合,以对抗的方式进行训练,从而实现 QA 模型学习到领域不变特征,并在 MRQA Shared Task 2019 中取得了优于基线模型的性能。
Oct, 2019
本研究提出了一种名为对比领域自适应问答(CAQA)的新型领域适应框架,该框架结合了问题生成和域不变学习技术,用于在文本语料库受限的情况下回答域外问题,并且相较于现有技术取得了显著的效果改善。
Aug, 2021
Open-domain Question Answering research investigates the generalization performance of a retrieval-augmented QA model, proposing Corpus-Invariant Tuning as an effective training strategy to mitigate knowledge over-memorization and achieve better generalizability.
Apr, 2024
通过引入多领域多语言问题回答基准 M2QA,并利用其探索经过微调的模型、最新最先进的 LLM 的跨语言跨领域性能,以及研究模块化方法对领域和语言进行适应,我们发现模型类别内在领域 - 语言组合上具有相当大的性能差异,并且在所有模型规模上源语言 - 目标语言 / 领域组合之间存在显著的性能下降。我们证明了 M2QA 并未得到完全解决,需要新的方法来有效地传递语言和领域特定信息。
Jul, 2024
为 Adobe 产品建立内部问答系统,提出了一种新的框架来编译大型问答数据库并发展了基于检索感知的大型语言模型微调方法,展示了微调检索器在最终生成中带来的重大改进,降低了生成过程中的幻觉并在上下文中保留了最新的检索信息以实现情境基础。
Apr, 2024
研究机器学习模型普遍出现的过拟合问题,探讨多源域泛化主要的问题是减轻源域欠拟合,使用知识蒸馏等方法提高源域学习表现可改善模型在跨域任务中的表现。
May, 2022