Nov, 2021

自省蒸馏用于稳健问答

TL;DR本文提出了一种名为 Introspective Distillation(IntroD)的新型去偏差方法,通过内省训练样本是否适合现实 ID 世界或对立 OOO 世界来融合 OOD 和 ID 的归纳偏差,用于解决语言和阅读理解等领域中 QA 模型的数据偏差问题,并在 VQA v2、VQA-CP 和 SQuAD 数据集上进行了实验验证。