学习扰动:逆对抗训练下多样且信息丰富的对话生成
本文提出对自然语言处理任务进行通用训练的技术,包括关注力对抗训练(Attention AT)和更易于解释的关注力对抗训练(Attention iAT)。该方法通过引入对抗扰动,增强了句子注意力的差异,提高了模型的预测性能和可解释性,并且尤其适用于关注力机制。实验表明,Attention iAT 在十项任务中表现最佳,并且其结果的注意力与基于梯度的单词重要性的相关性更强。此外,该方法不太依赖于对抗扰动的大小。
Sep, 2020
本文提出了一种基于对抗训练的方法用于生成开放领域对话,该系统的对话和人类对话几乎无法区分。作者将问题转化为一个强化学习问题,同时训练一个生成模型和一个鉴别器,用于评估生成的对话是否和人类对话相似,并将鉴别器的输出作为奖励信号,并进一步提出了一种评估模型 - 对抗性评估模型,该模型可避免一系列潜在的问题。实验结果表明,基于对抗训练的系统生成的响应比先前的基线模型更具参考价值。
Jan, 2017
使用对抗性例子的神经排序模型(NRMs)在信息检索(IR)中取得了巨大的成功,但是可以通过添加不可察觉的扰动来操纵它们的预测结果。本研究通过将对抗性例子融入训练数据,建立了关于 NRMs 中效果和鲁棒性的权衡的理论保证,并设计了一种新的具有扰动不变性的对抗训练(PIAT)方法,以实现更好的效果和鲁棒性的权衡。实验结果表明,PITA 在多个排序模型上相对于现有的对抗防御方法具有优越性。
Dec, 2023
本文提出了一个基于生成对抗网络的两步框架,通过自编码学习语句的有意义表征,并学习将输入映射到响应表征上,最终将其解码为响应句子,经定量和定性评估证明相对于现有的最先进方法,该模型生成的响应更具流畅性、相关性和多样性。
Nov, 2019
本文提出了基于对抗学习的、旨在降低对话系统中性别歧视的新框架 Debiased-Chat,并在两个真实的对话数据集上进行了广泛的实验,结果表明该框架明显降低了对话模型的性别偏见,同时保持了响应质量。
Sep, 2020
提出了一种动态扰动自适应对抗训练(DPAAT)方法,通过将对抗训练放置在动态学习环境中,生成自适应的数据级扰动,并通过损失信息收集提供动态更新的准则,从而在提高鲁棒性的同时保留高泛化能力。在皮肤科 HAM10000 数据集上进行全面测试,表明 DPAAT 不仅实现了更好的鲁棒性改善和泛化性能保留,还显著提高了各种 CNNs 的平均精度和解释能力,表现出作为通用医学影像分类中的一种潜在的强大的对抗训练方法。
Mar, 2024
本文提出了 RETE 方式,使用检索方法来增强神经响应生成的对抗训练, 与当前方法不同的是,该方法采用编码器 - 解码器框架,在对抗训练范式中利用从检索系统获取的 N 个最佳响应候选构建鉴别器。一个基于大规模公共可用基准数据集的实证研究表明,REAT 方法明显优于普通 Seq2Seq 模型和传统的对抗性训练方法。
Sep, 2018