ACLSep, 2021

可差分教师的自训练

TL;DR提出了 DRIFT(Differentiable Self-Training)方法,将 self-training 视为 Stackelberg 博弈,以可微分的方式处理伪标签和样本权重,使用不同可微分性的 leader-follower 常规交互,获得更高的预测性能,适用于半监督和弱监督学习。