针对无偏鉴定的加性对抗学习
该论文提出了一种名为 ALDA 的新颖领域自适应方法,利用伪标签方法和混淆矩阵相结合,实现特征分布的对齐和目标特征的强分类,并将学习到的混淆矩阵构建为新的损失函数。在四个标准领域适应数据集上较其他已知方法表现更优。
Jan, 2020
该研究提出了一种领域对抗主动学习算法(DAAL),用于领域泛化任务中的分类任务,在减少数据资源的情况下实现强大的泛化能力,从而降低领域泛化任务中的数据标注成本。
Mar, 2024
提出了一种积极学习的方法,通过敌对领域自适应(AADA)进行表示转移,其探索了两个相关问题之间的双重性:敌对领域对齐和重要性采样来适应跨域模型, 以及将两种方法结合在一个框架中进行领域自适应和转移学习,当源域有许多标记示例而目标域没有时,它提供了重要的改进。
Apr, 2019
本文介绍了对抗学习的方法能够通过一般化的视角更好地理解前面的方法,并提出了一个新的对抗判别域自适应框架,称为 ADDA,它将判别建模、解除权重共享和 GAN 损失结合在一起,优于竞争的域对抗方法,且在标准的跨域数字分类任务和一种新的更难的跨模态物体分类任务中超越了最新的无监督适应结果。
Feb, 2017
本文提出了一种新的通用领域敌对框架,利用变分 f - 分歧的特征进行领域自适应。基于此框架,推导出了具有重要修正的新算法框架,并证明了其在自然语言和计算机视觉数据集上优于现有的基线结果。
Jun, 2021
提出了一种基于判别式对抗领域适应 (DADA) 的新型对抗学习方法,其鼓励在输入实例的任何情况下,类别和域预测之间存在相互抑制关系,以解决现有方法中任务和域分类器相互独立导致的收敛问题,该方法能够在实际条件下定义一个最小极值博弈,促进联合分布对齐。除传统的闭集领域适应以外,还将 DADA 扩展到部分和开放集领域适应的极具挑战性的问题设置中,在基准数据集上实验表明了该方法的有效性并达到了三个场景下的最新成果。
Nov, 2019
通过对抗性领域适应性解决训练数据偏差问题,adversarial optimism(AdOpt)显著超过了现有性能,并初步证明对抗性领域适应性的引入改善了这个情景中的公平性。
Aug, 2023
本文提出了通过引入变量以及同时训练预测器和对手的方式来缓解训练数据中存在的偏见问题,在不同定义的公平性与多种基于梯度的学习模型,包括回归和分类任务中均具有广泛适用性的公平性缓解方法。
Jan, 2018
本文提出了一种基于多个不同鉴别器的新型对抗学习方法,通过鼓励鉴别器相互学习正交隐藏表征,从而显著改善了标准对抗去偏差方法对于降低偏见和提升训练稳定性的效果。
Jan, 2021
本研究提出了 Decoupled Adversarial Contrastive Learning (DeACL) 框架,将 Adversarial Training 和 Self-supervised Learning 分为两个子问题分别处理,使学习无标签鲁棒表示更加简化和高效,并在实验中取得了业界领先的表现。
Jul, 2022