针对连续特征的公正感知神经Réyni最小化
本文提出了一种处理包含连续敏感属性的回归算法中避免敏感信息不公平影响的公平经验风险最小化方法,并将其泛化到标准有监督学习的整个情境中,该方法在进行知名的平等概念的实证风险最小化情境时可以减少公平度量;同时该文构建了一种可以针对内核方法进行共性公平估计的方法,并通过对公共数据集和来自五千名学生的新数据集的实验结果显示其实现了精度和公平要求之间的有效平衡。
Jan, 2019
通过提出两种算法:公平警示和公平元学习算法,针对分享和传递公平的机器学习工具引发的关注,提出了一个在不同领域中训练一个公平的模型的可解释边界条件和同时平衡公平性和准确性在少量实例中快速微调的公平元学习方法。我们展示了每个模型的实用性,并证明了这两个算法的组合方法在训练新任务的模型时具有解释性的边界条件问题。
Aug, 2019
介绍一种新的针对敏感特征的机器学习公平性框架,通过去除敏感信息和最小化敏感特征的边际贡献来改善模型的公平性。实验结果表明,该模型在公平性指标和预测性能方面均优于相关最先进方法。
Sep, 2019
该论文提出了一种新的公正定义方式,使用度量为给定模型提供公正的一个衡量标准,并且通过将随机平滑机制应用于更复杂的模型来实现个体公正。实验表明将线性模型的最小度量适应于更复杂的神经网络可以在很小的代价下提供有意义和可解释的公正保证。
Feb, 2020
本文提出了一种通过Hirschfeld-Gebelein-Renyi (HGR) 最大相关系数生成不带偏见表示的对抗性算法,从而实现了在机器学习算法的训练目标中包含公平性约束。
Sep, 2020
在现代数据科学中,机器学习已被广泛应用,算法公正性已成为一个重大关注点。研究者提出了各种公正性标准,可以通过训练时的公平性约束来实现公平性,新方法则利用预训练和微调来训练公平的神经网络。在两个流行的图像数据集上进行的实验表明,公平性微调足以提高深度神经网络的公平性。
Apr, 2023
利用神经网络以简单的随机采样器对敏感属性进行学习的公平惩罚措施,旨在实现非歧视性监督学习。与现有的许多方法相比,该惩罚能够处理多种格式的敏感属性,因此在实践中更具广泛适用性。实证证据表明,我们的框架在流行的基准数据集上的效用和公平性度量优于竞争方法。我们还在理论上表征了所提出的神经网络惩罚风险最小化问题的估计误差和效用损失。
Nov, 2023
通过不变原则,我们提出了一个具有公平性和域泛化特性的基于训练环境的FAIRM方法,并在弱分布假设下提供了具有有限样本理论保证的实证FAIRM。我们开发了高效的算法来实现线性模型中的FAIRM,并展示了最小化最优性的非渐近性能。我们通过合成数据和MNIST数据的数值实验来评估我们的方法,并证明其优于其他方法。
Apr, 2024
本研究针对现有方法在公平意识领域泛化中仅关注协变量或相关性偏移的问题进行了深度探讨,提出了一种新的方法,同时处理这两种偏移。研究显示,通过在潜在空间中对数据进行内容和风格因素的解耦,我们的方法能有效提升模型准确度及群体和个体公平性,显著优于现有的最先进方法。
Aug, 2024
本文针对机器学习操作中的公平性问题,提出了一种去偏框架,旨在实现输入数据的最优公平变换,同时最大限度地保留数据的可预测性。该框架灵活高效,可与任何下游黑箱分类器集成,能够在频繁的数据漂移和变化的公平性要求下,提供持续的公平性保障。
Sep, 2024