通过对抗训练实现稳健的多语言词性标注
本文介绍了一种名为对抗训练的正则化方法,利用该方法可以通过在训练数据中添加微小扰动,提高神经网络方法的稳健性,并演示如何将其应用于实体识别和关系提取等任务,以提高不同上下文(如新闻、生物医学和房地产数据)和不同语言(如英语和荷兰语)的数据集的效果。
Aug, 2018
本文提出对自然语言处理任务进行通用训练的技术,包括关注力对抗训练(Attention AT)和更易于解释的关注力对抗训练(Attention iAT)。该方法通过引入对抗扰动,增强了句子注意力的差异,提高了模型的预测性能和可解释性,并且尤其适用于关注力机制。实验表明,Attention iAT 在十项任务中表现最佳,并且其结果的注意力与基于梯度的单词重要性的相关性更强。此外,该方法不太依赖于对抗扰动的大小。
Sep, 2020
本文提出了三种防御方法来增强对多种攻击类型的鲁棒性,包括自适应防御技术 Adaptive AT,课程式防御技术 Curriculum AT 和将 AT 与去噪生成对抗网络相结合的生成式防御技术 Generative AT,并在 UCF101 数据集上进行了实验。
Jun, 2022
本文提出了一种新的模型训练框架 - 对抗分布式训练(ADT),通过最小值最大化优化问题,训练模型来学习处理各种威胁。ADT 的有效性也在几个基准测试中得到了验证。
Feb, 2020
本研究针对机器阅读理解任务应用对抗训练(AT)作为一种正则化方法,提出一种基于嵌入矩阵扰动而非单词向量的新型对抗训练方法 PQAT,测试结果显示对抗训练对跨领域具有普适性,PQAT 方法进一步提高了性能。
Jun, 2021
本研究介绍了一种称为 A2T 的简单和改进的馅饼对抗训练过程,用于 NLP 模型的训练,可以使用更便宜的对手训练出具有鲁棒性的 NLP 模型,提高 NLP 模型的标准准确性、跨领域泛化性和可解释性。
Sep, 2021
本文提出了一种利用批判性语言模型的对抗性训练方法,用于端到端语音识别,该方法可以显著提高性能并且可以利用海量文本数据进行训练,同时适用于任何深度学习语言建模框架和现有端到端解码方法。实验结果表明,该方法在不同场景下可以高效获得持续改进。
Nov, 2018
本研究探讨了对于机器阅读理解任务的敌对训练(AT)方法应用的影响,以及使用半监督学习通过虚拟对抗训练(VAT)提高其性能的可能性,并发现 AT 能够帮助模型在包含低频词汇的实例中学习更好。
Nov, 2019