领域自适应遇到个体公平,他们相处融洽
监督的公平感知机器学习在面临数据分布从源领域到目标领域的变化时,是一个新兴的领域,解决了在实现公正和无偏预测方面的挑战。本综述提供各种类型的分布变化的总结,并全面调查了现有方法,重点介绍了文献中常用的六种方法。此外,本综述列出了可用于经验研究的公开数据集和评估指标。我们进一步探讨了与相关研究领域的相互连接,讨论了重大挑战,并确定了未来研究的潜在方向。
Feb, 2024
本文提出了一个关于面部和医学图像的基准测试,并介绍了一个新的谐波公平(HF) 得分来综合地评估每个模型在准确性和公正性方面与参考基线相比的情况。实验结果发现,CD 方法比最先进的公平算法更能有效地解决模型公理问题。综上所述,我们的工作为计算机视觉中的公平性问题提供了更系统的分析方法。
Mar, 2023
本文提出了一种基于概率映射用户记录的方法,用于实现算法决策应用的个体公平性和真实应用环境下的分类器和排名等工具的效用性,并通过应用于现实世界数据集的分类和学习排序任务的实验表明了其比之前最佳方法有显著改善。
Jun, 2018
本文提出了一种非对称松弛分布对齐的方法来解决领域适应中标签分布偏移问题,并找到了合理的理论假设条件来支撑该方法,证明了该方法在合成和真实数据集上的实际效果。
Mar, 2019
基于领域偏移的普适分类器归纳问题几乎困难且复杂,本文通过引入三种不同的分布偏移(概念偏移、协变量偏移和依赖性偏移),提出了一种新颖的领域泛化方法,能够在不同领域中保持模型的准确性和公平性。实验结果表明,该方法在四个基准数据集上超越了现有的方法。
Nov, 2023
通过不变原则,我们提出了一个具有公平性和域泛化特性的基于训练环境的 FAIRM 方法,并在弱分布假设下提供了具有有限样本理论保证的实证 FAIRM。我们开发了高效的算法来实现线性模型中的 FAIRM,并展示了最小化最优性的非渐近性能。我们通过合成数据和 MNIST 数据的数值实验来评估我们的方法,并证明其优于其他方法。
Apr, 2024
本文探讨了在缺少敏感属性的情况下,利用类似领域中的辅助信息来提高目标领域中的公正分类的可行性, 并提出了一种既能学习到目标领域中的公正分类器,又能估计敏感属性的新框架,实验结果表明其有效性。
Jun, 2022