Jan, 2023

能否利用探测来更好地理解 BERT NLU 的微调和知识蒸馏?

TL;DR本论文通过 probing 调查 fine-tuning 和 knowledge distillation 过程中,BERT 基础的自然语言理解(NLU)模型出现的现象。实验结果表明,当前形式的 probing 范式不适合回答这些问题,因此,信息可解码的量化是探测范式在许多实际应用中至关重要的。