EMNLPSep, 2020

消除自然语言理解模型中的未知偏见

TL;DR本文提出了一种自我去偏方法,以减少 NLU 模型在不事先知道偏差情况下利用偏差的趋势,并表明此方法不仅具有一般性和互补性,而且还能提高模型的整体鲁棒性。