May, 2021

回归错误藏于模型中!在NLP模型更新中测量、减少和分析回归问题

TL;DR本研究旨在量化、减少和分析NLP模型更新中的回归误差,并通过负翻转率作为度量标准,在GLUE基准测试中展示了回归错误的普遍存在。最终,我们使用知识蒸馏训练方法,通过模型集成来降低回归错误。同时,我们根据CheckList行为测试结果分析了回归在语言现象中的分布和模型集成、蒸馏方法的有效性。