Apr, 2021

并非所有的关注点都是您所需要的

TL;DR本文提出一种名为 AttendOut 的新的 dropout 方法,旨在让基于自注意力的 PrLMs 具备更加鲁棒的任务特定调整能力,从而实现更强的性能表现。通过在多项自然语言处理任务中的验证,证明了该方法的普适性。