ACLMay, 2020

注重权衡:在不损害内部分布性能的情况下去偏向自然语言理解模型

TL;DR本文介绍了一种名为置信度正则化的新型去偏方法,旨在提高自然语言理解任务模型对于越界数据的表现,同时保持对内界数据的准确度。实验表明,与之前的方法相比,该方法在提高模型对越界数据的表现方面具有更好的效果。