领域无关的对抗训练问答
探索对抗训练方法以学习领域不变特征,从而使语言模型可以对域外数据集进行良好的推广。我们还审查了各种其他方法来提高我们的模型性能,包括通过改写句子实现数据增强、将回答跨度预测的结尾词映射到开始词上以及精心设计的退火函数。我们的初步结果表明,在结合这些方法的情况下,与基线相比,在域外验证数据集上我们能够实现 EM 分数 15.2% 的提高和 F1 分数 5.6% 的提高。
Jun, 2022
该研究探讨了半监督问答问题,在该问题中,利用无标签文本提高问答模型的性能,我们提出了一种新的训练框架,即生成领域自适应网络。该框架通过训练生成模型来生成基于无标签文本的问题,并将模型生成的问题与人类生成的问题相结合,用于训练问答模型。我们发展了基于强化学习的新领域适应算法,以减少模型生成数据分布与人生成数据分布之间的差异。实验结果表明,我们提出的框架可从无标签文本中获得显著的提高。
Feb, 2017
本研究提出了一种名为对比领域自适应问答(CAQA)的新型领域适应框架,该框架结合了问题生成和域不变学习技术,用于在文本语料库受限的情况下回答域外问题,并且相较于现有技术取得了显著的效果改善。
Aug, 2021
本文提出了一个可针对任何问答模型直接应用的模型无关方法来解决识别对抗性例子的问题,该方法采用明确的答案候选人重新排名机制,通过内容重叠度评分候选答案,并配合强基础 QA 模型使用,其性能优于现有防御技术。
Feb, 2021
我们提出了一个新的框架 QC4QA,利用自我监督的方法通过伪标签实现问题分类,最大化平均差异来减少源域和目标域之间的交叉差异,以及在同一问题类别的 QA 样本中最小化内部类别差异,该方法在多个数据集上比基准方法有了明显的改进。
Sep, 2022
研究开放领域问答(ODQA)中,当应用于广泛不同的领域时,此类模型的稳健性和应用性能。该研究提出了一个更现实和具有挑战性的领域转移评估环境,并研究了端到端的模型性能。他们发现,不仅模型在推广方面表现出失败,且高检索分数通常也不能提供准确的答案预测。最后,研究提出并评估了多种干预方法,其提高了端到端答案 F1 得分,最多可达 24 个点。
Dec, 2022
本文提出了一种基于结构化神经模型与领域特定和领域通用组件的联合学习以及领域对抗训练的方法,以优化域内和域外准确性,本方法在多领域语言识别和情感分析领域中的表现都优于标准领域适应技术和领域对抗培训。
May, 2018
通过结合提示方法和线性探针 fine-tuning 策略,我们提出了一种新颖的方法,可以有效提高生成模型和判别模型的泛化能力,特别在跨领域问题回答 (QA) 任务上表现优异。
May, 2023
本文介绍了对抗学习的方法能够通过一般化的视角更好地理解前面的方法,并提出了一个新的对抗判别域自适应框架,称为 ADDA,它将判别建模、解除权重共享和 GAN 损失结合在一起,优于竞争的域对抗方法,且在标准的跨域数字分类任务和一种新的更难的跨模态物体分类任务中超越了最新的无监督适应结果。
Feb, 2017