ACLApr, 2021

UniDrop:一种简单而有效的技术,可以在不增加额外成本的情况下提高 Transformer 的性能

TL;DR该论文介绍如何将不同的 dropout 技术整合到 Transformer 模型的训练中,从而提高其性能。实验结果表明,使用 UniDrop 可以在 IWSLT14 翻译任务中取得约 1.5 BLEU 的改进,并且即使在强大的预训练 RoBERTa 下,文本分类的准确性也有所提高。