Jan, 2023
能否利用探测来更好地理解BERT NLU的微调和知识蒸馏?
Can We Use Probing to Better Understand Fine-tuning and Knowledge
Distillation of the BERT NLU?
TL;DR本论文通过probing调查fine-tuning和knowledge distillation过程中,BERT基础的自然语言理解(NLU)模型出现的现象。实验结果表明,当前形式的probing范式不适合回答这些问题,因此,信息可解码的量化是探测范式在许多实际应用中至关重要的。