BriefGPT.xyz
Ask
alpha
关键词
introspective distillation
搜索结果 - 1
自省蒸馏用于稳健问答
本文提出了一种名为 Introspective Distillation(IntroD)的新型去偏差方法,通过内省训练样本是否适合现实 ID 世界或对立 OOO 世界来融合 OOD 和 ID 的归纳偏差,用于解决语言和阅读理解等领域中 QA
→
PDF
3 years ago
Prev
Next