通过对抗特征学习实现可控的不变性
本文介绍了一个最小二乘对抗框架,其中一个发生器生成学习个体的潜在表示,一个评论家保证了不同保护组的分布相似,从而在保留足够信息的同时解决了受保护属性引起的潜在偏差问题,为公平分类提供了理论保证。经验结果表明,这种方法可以有效地用于分类任务,特别是在删除受保护属性不足以实现公平分类的情况下。
Apr, 2019
本文提出了一种统一的不变性框架,可用于训练神经网络,从而使其在不使用任何附带标注的同时将数据的无关因素与数据相互独立,但也可以使用关于有偏因素的标记信息,强制将其从潜在嵌入中去除以实现公平预测。该模型在不使用标记信息的情况下优于先前的工作,并在公平性设置中实现了学习自由因素的最新性能。
May, 2019
本文提出了一种新颖的分离方法来解决不变表示的问题,通过正交约束作为独立的代理来将有意义和敏感表示分离,并通过熵最大化来明确地强制有意义的表示对敏感信息不可知。该方法在公开的数据集上进行了评估,并将其与最先进的方法进行了比较,证明其在处理公平性和不变性方面具有最先进的性能。
Mar, 2020
该论文提出了一种新的无监督不变感知诱导框架,该框架通过竞争式训练和分解重构任务学习数据的分离表示,以抵抗干扰因素,并且无需任何标签的信息或领域知识。该无监督模型可以有效地使用合成数据增强来学习不变性和领域适应,并在诸如二元 / 多类别分类或回归等任何预测任务中应用。
Sep, 2018
本文提出了一种对抗性重构学习框架,旨在学习一种以任务为导向的隐私保护表示,以防止模型反演攻击,采用负像素重构损失或负感知距离损失最小化来实现,展示了在面部属性预测任务中我们的方法可以在小幅度降低实用性的情况下保护视觉隐私,并提供了不同特征、任务和数据的广泛研究,以进一步分析它们对隐私保护的影响和效用 - 隐私权衡的关系。
Nov, 2019
本论文通过信息论的方法,对机器学习中不变表示的准确性和不变性之间的最优权衡进行了分析,并提出了一种几何特征,可以限定或精确刻画分类和回归任务的准确性和不变性之间的 Pareto 最优边界。
Dec, 2020
本文旨在探讨用表示学习降低预测结果中的不公平因素。针对第三方使用这些学习到的表示却又不明确目标的情境,我们提出了对抗性表示学习方法来确保使用方的公平性。我们将群体公平(人口平等、平等赔率和平等机会)与不同的对抗目标联系起来,通过最坏情况的理论保证和实验验证,我们证明了对该目标的选择对于公平预测是至关重要的。此外,我们还展示了公平迁移学习的首个深入实验演示,并经验证明了我们学习到的表示在保持实用性的同时对新任务具有公平预测的能力,这是公平表示学习的重要目标。
Feb, 2018