- 神经 NLP 模型外分布评估的调查
本综述论文比较了对神经自然语言处理模型的三种研究途径:对抗鲁棒性、领域泛化和数据集偏差,并总结了每条研究路径的数据生成过程和评估协议,并强调未来工作的挑战和机遇。
- 易于决定、难于协定:减少显著性方法之间的分歧
本研究探讨了神经 NLP 模型的黑匣子问题,发现排名相关性不适合于评估解释方法的一致性,提出了一个更加适合的选项 Pearson-r;通过研究 Easy-to-learn instances 的特点,我们发现增加信赖度可以提高解释方法之间的 - 深度 NLP 模型的系统性、组合性和传递性:基于形态测试的视角
采用新的形变关系的变异测试方法检测了神经 NLP 模型的稳健性,测试了系统性、组合性和传递性等多个语言属性,并证明了这些模型并不总是按照预期行为。
- ACL理性化是否能提高稳健性?
本研究探讨了神经 NLP 模型的可解释性和鲁棒性之间的相互作用,试图通过有理化的过程来提高模型的鲁棒性,并针对五个不同的任务进行了实证评估。实验结果表明,理性模型有可能提高其鲁棒性,但它们在某些情况下会面临一定的挑战,并不总是表现得比无人为 - EMNLP寻找有效的防御者:针对对抗性词语替换的防御基准测试
本文主要对深度神经网络在对抗攻击下的鲁棒性进行了研究,比较并提出了各种防御方法,最终提出了一种有效的方法提高神经文本分类器的鲁棒性,并在 AGNEWS 和 IMDB 数据集上取得了显著的最高准确率。
- 基于梯度的 NLP 模型分析易受操控
本文研究了神经网络自然语言处理模型的可解释性,特别是基于梯度的分析方法。我们发现,这些分析方法的梯度很容易被劫持,具有误导性。结合多项自然语言处理任务的实验结果,本文提出一种基于覆盖层的方法来干扰和欺骗这些梯度。
- ACL使用可遗忘例子提高对伪相关性的鲁棒性
本文提出使用遗忘例子的方法来筛选掉数据集中存在的虚假相关性并找出少数反例,然后通过将模型分别在全部数据和少数数据上微调来提高模型的越域泛化能力。
- EMNLPAllenNLP Interpret: 解释自然语言处理模型预测的框架
该研究提出了 AllenNLP Interpret,一种灵活的框架,用于解释 NLP 模型,并提供了各种内置的解释方法和前端可视化组件,以展示其灵活性和实用性。
- LSTMs 在分析助动词结构时应该 / 可以学习什么?
通过在不同语言中使用诊断分类器探究过渡型神经解析器中学习到的协议和传递性信息,研究发现,基于递归层的神经解析器在捕捉和表示动词成分时比双向 LSTM 模型更加高效和准确,但目前还未找到将其最佳融合方式。
- ACL注意力不等于解释
通过多个 NLP 任务的广泛实验,发现学习的注意力权重往往与基于梯度的特征重要性测量之间存在不相关性,表明标准的注意力模块并不能提供有意义的解释并且不应该被视为能够提供这种解释。