隐私和公正的变分方法
本文提出了一种信息理论动机的目标函数,用于学习在公平约束条件下最具表达力的数据表示,旨在通过控制不公平性极限的方式帮助用户控制数据表示的公平性,证明了现有方法无法完全实现此目标,通过引入一种优化模型参数和表达力 - 公平性权衡的方法来平衡多种公平概念的权衡,并在更低的计算成本下实现更高的表达能力。
Dec, 2018
本文提出了一种公平聚类的一般变分框架,该框架将原始的 Kullback-Leibler(KL)公平术语与包括原型或基于图的大类聚类目标相整合。我们的变分多项式方法与现有的组合和谱解决方案基本不同,能够控制公平和聚类目标之间的折衷水平。我们的紧密上界可以与各种聚类目标一起进行联合优化,同时产生可扩展的解决方案,并具有收敛保证。
Jun, 2019
通过引入信息瓶颈进行本地差分隐私的信息混淆方法,该研究旨在开发和分析一种理论框架,实现公平表示学习,并展示 LDP 随机化器在编码过程中提高公平性的能力。基于所提出的方法,我们进一步发展了一种同时实现 LDP 和公平性的变分表示编码方法,并通过广泛的实验验证了我们的理论结果,并展示了我们的方法在保持足够效用的同时能够实现 LDP 和公平性的能力。
Feb, 2024
本文研究了使用公平性度量来指导模型的设计和训练的机制,提出了一种简单但可靠的方法,即在训练模型时同时实现公平,并通过详细的技术分析和实验验证了在计算机视觉训练任务中可靠地实现各种公平性度量。
Apr, 2020
这篇论文研究了如何使用差分隐私和拉格朗日对偶的方法来设计神经网络,以确保在预测中不出现性别、种族或年龄等偏见,同时保护个人敏感信息,对于保证准确性、隐私与公平之间的平衡关系问题进行了分析,并在多个预测任务上进行了实验验证。
Sep, 2020
本文研究了公平表示学习的问题,通过使用结构表示,可以实现反事实公平性,提出了 Counterfactual Fairness Variational AutoEncoder(CF-VAE)方法,得到了优于基准公平方法的公平性和精度表现。
Aug, 2022
该论文提出了一种基于潜在表示的证书方法,帮助数据消费者获得现有和新数据点的个体公平性证书,实现了公平性约束和效用之间的平衡,并通过实验评估了该方法在五个真实数据集和多个公平性约束方面的可扩展性和表现力。
Feb, 2020
本文提出 LASSI 方法,应用生成建模来解决在高维数据环境下学习个体公平表示的问题,并通过随机平滑来确保端到端公平。实验证明该方法提高了最多 90%的认证个体公平性,而对任务效用的影响不显著。
Nov, 2021
利用信息论隐私漏斗(PF)模型,开发出一种使用端到端训练框架的隐私保存表示学习方法,通过对抹消和实用性之间的权衡进行量化来实现。我们将其应用于最先进的人脸识别系统,该模型展示了在不同输入(从原始面部图像到派生或改进的嵌入)上的适应性,并且在分类、重建和生成等任务中表现出了竞争力。
Jan, 2024