Dec, 2020

LRC-BERT:用于自然语言理解的潜在表示对比知识蒸馏

TL;DR本文提出了一种基于对比学习的知识蒸馏方法 LRC-BERT,并引入渐变扰动训练架构以提高其鲁棒性。通过验证 GLUE 基准测试上的 8 个数据集,表明该方法的性能优于现有最先进的方法,证明了该方法的有效性。