公平异常检测
本文提出了一种公平度量方法,通过迭代式基于网格的启发式算法来校准敏感属性值的结果,实现对保护属性值的公平。在多个受保护属性值的情况下,通过对欺诈检测进行研究,证明所提出的启发式算法能够实现公平。与现有的公平技术相比,该算法在多个公开数据集上的性能表现相当。
Jul, 2022
本文提出了一种基于深度聚类和对抗训练的公平异常检测算法,通过对数据中的统计偏差进行建模,并采用一种实例级加权表示学习策略来增强聚类和异常检测,从而提供了一个更公平的潜在异常集合。
Jun, 2021
本文提出了一种公平的聚类方法 FairKM,它基于流行的 K-Means 聚类公式,通过计算公平性与集群一致性目标,得到了公平的聚类。实证评估表明,FairKM 产生的集群在聚类质量和对敏感属性组的公平呈现方面都有显著提高。
Oct, 2019
我们提出了分布鲁棒的公平优化(DRFO)方法,通过最小化所有潜在概率分布中最坏情况下的不公平性,而不是重建后的敏感属性的概率分布,来确保在只有有限敏感属性可获取的情况下,推荐系统中的公平性。
May, 2024
本文研究了含有噪声敏感特征的公平机器学习算法,表明当使用均值差异分数作为公平性量度标准时,只需通过调整所需的公平容错率即可仍然学习出公平分类器,该容错率可以通过现有噪声率估计器进行估计,并在两个敏感特征审查案例研究中得到实证有效性。
Jan, 2019
通过多次敏感特征逐步实现公平性,利用多元 Wasserstein 几何中心将 Strong Demographic Parity 的标准推广到具有多个敏感特征的情况,并提供一种闭式解决方案,使得对不同敏感特征之间的相关性有明确的解释,进而实现了风险和不公平性之间的权衡。该方法适用于近似公平性,提供了对特定敏感特征的公平性改进的有针对性优先级,从而实现了针对案例的适应性,通过数据驱动的解决方案估计程序,并在合成和真实数据集上进行了全面的数值实验证明了我们的后处理方法在促进公平决策方面的实际有效性。
Sep, 2023
本文提出了一种新的公平异常检测方法 Deep Fair SVDD,采用对抗网络训练来解决深度学习可能存在的社会偏见问题,并提出了两种有效公平性指标。在实验中,我们发现现有的深度异常检测方法存在不公平性,而我们的方法能够在最小损失性能的情况下消除不公平性,并进行了深入分析以证明方法的优点和局限性。
Dec, 2020
在实现算法公平性方面存在多个实际挑战,包括数据集中受保护属性的可用性或可靠性。本研究首次对公平分类算法进行了头对头的研究,以比较基于属性、容忍噪声和盲目属性的算法在预测性和公平性两个方面的表现。我们通过对四个真实数据集和合成扰动的案例研究来评估这些算法,发现盲目属性和容忍噪声的公平分类器在受保护属性存在噪声的情况下,可能实现与基于属性的算法类似的性能水平。然而,在实践中实现这些算法需要谨慎处理。本研究为在受保护属性存在噪声或部分可用的场景中使用公平分类算法提供了实践的启示。
Jul, 2023
研究了公平排名系统中,异常值对排名的影响,并提出了一种新的方法 OMIT,利用异常值检测方法来改进公平分配,并展示了更公平地展示出现异常值的前 k 项的策略,兼顾公平和实用性。
Dec, 2021
本篇论文提出了一种通用的重构校正方法,可以在满足用户定义的约束条件(如公平性信息)的同时最小化敌手的猜测的更改,并解决了黑盒访问目标模型的情况下反应了培训数据敏感属性的问题。
Sep, 2022