Nov, 2023

利用反事实情况测量和改善对部分输入的专注力

TL;DR数据集中的伪相关性对于 NLP 模型在未见数据上的泛化性造成了影响。我们提出了一种新的评估方法,Counterfactual Attentiveness Test (CAT),通过使用反事实推理来检测模型的注视变化。 CAT 的结果显示,对这种相关性的依赖主要受数据影响,并且通过引入反事实推理可以改善模型的注视能力。