ACLJun, 2021

拥抱不确定性:转变 NLI 模型的训练目标

TL;DR本文研究了在自然语言推理任务中训练模型时,直接使用标注者标签分布的方法而非正确标签的方法,并准备了 AmbiNLI 数据集,经过模型微调可以降低混沌度得分,并可提高模型性能和下游任务的表现。