本文介绍了一种公平的异常检测方法 FairLoF,该方法能在多个敏感属性情况下实现异常检测不偏向特定群体,借鉴 LOF 算法并开发了三个启发式原则以提高公平性,在真实数据集上的实证评估表明,FairLOF 能在一定程度上实现公平的同时,几乎不影响异常检测结果的质量。
May, 2020
本研究基于深度聚类方法,提出了一种结合公平性目标的自适应学习算法,以解决群体层面的公平性问题,其实现步骤包括将整数线性规划嵌入到判别式深度聚类主干中,多状态受保护状态变量(PSVs)的分类等。实验数据表明,本算法优于现有公平聚类算法,并且适用于具有灵活公平性约束的任务。
May, 2021
本文提出了一种新的公平异常检测方法 Deep Fair SVDD,采用对抗网络训练来解决深度学习可能存在的社会偏见问题,并提出了两种有效公平性指标。在实验中,我们发现现有的深度异常检测方法存在不公平性,而我们的方法能够在最小损失性能的情况下消除不公平性,并进行了深入分析以证明方法的优点和局限性。
Dec, 2020
通过提出一种针对公平聚类的黑盒公平攻击来分析公平聚类算法的鲁棒性;该攻击可以显著降低公平性性能。最后,提出一种新的公平聚类方法 Consensus Fair Clustering (CFC),将一致性聚类转化为公平图分割问题,并迭代地学习生成公平聚类输出。实验表明,CFC 高度鲁棒,是一个真正的公平聚类替代方案。
Oct, 2022
本文提出了一种新的损失函数和注意力机制,以促进聚类模型的公平性和减少人口统计学偏差,实验结果表明该方法在多个敏感属性上提高了聚类准确性和公平性。
Apr, 2023
我们提出了一种灵活的深度公平聚类方法,可以同时处理离散和连续的敏感属性,通过设计一个信息瓶颈风格的目标函数来学习公平和友好的聚类表示,并首次探索了从聚类任务中提取的表示的可转移性到其他下游任务,实验证明我们的方法相比现有方法具有优势。
Mar, 2024
本论文研究了不同群体下公平聚类问题。作者提出了一种基于深度学习的算法 Deep Fair Clustering 来实现公平聚类,实验结果表明,该方法在保证聚类质量的基础上,大幅提高了公平性水平。
Jan, 2019
本文提出了一种基于模型的公平聚类方法,补充了现有大多数基于适当目标函数优化的文献,致力于解决机器学习带来的算法公平性问题。
May, 2023
通过对抗高水平的对抗攻击在半先验条件下训练生成对抗网络来提高生成数据的多样性和质量。
Aug, 2021
为了解决聚类算法输出不公平的问题,我们提出了一种使用少量辅助数据来实现中心聚类的群体公平性的方法,将其建模为一个通用的双层优化问题,并分类并解决了两种不同问题设置的优化方法。我们的实验表明,与其他最先进的公平聚类算法相比,我们的算法可以在添加极少的辅助数据的情况下实现所需的公平水平,并且具有更低的公平成本和可比较的聚类性能。
Jun, 2021