BriefGPT.xyz
Ask
alpha
关键词
debiasing regularization loss
搜索结果 - 1
ICLR
无偏监督对比学习
本文提出了一种基于边界的理论框架,并推导出了一种新的有监督对比损失(epsilon-SupInfoNCE)和一种有效的去偏差正则化损失(FairKL),这些方法可以用于从偏差数据中学习无偏模型,并在多个偏差数据集上实现了最先进的性能。
PDF
2 years ago
Prev
Next