ACLMay, 2020
注重权衡:在不损害内部分布性能的情况下去偏向自然语言理解模型
Mind the Trade-off: Debiasing NLU Models without Degrading the In-distribution Performance
Prasetya Ajie Utama, Nafise Sadat Moosavi, Iryna Gurevych
TL;DR本文介绍了一种名为置信度正则化的新型去偏方法,旨在提高自然语言理解任务模型对于越界数据的表现,同时保持对内界数据的准确度。实验表明,与之前的方法相比,该方法在提高模型对越界数据的表现方面具有更好的效果。