代理公正性
本研究旨在解决群体成员身份不可用或不被允许使用时,非披露性地收集与敏感群体平衡的数据样本的问题,并通过采用公平性流程视角和使用少量标记数据训练代理函数来实现。
Jun, 2023
在有限的受保护属性标签访问情况下,本文开发了测量和减少公平违规的方法,提出了估计现有模型的常见公平度量和解决约束非凸优化问题以限制公平违规的模型训练技术,并且相比其他受限受保护属性的公平优化方法,在减小公平度的同时减少了公平性和准确性的权衡。
Oct, 2023
我们设计了一种单一的群体盲扫描映射,它使源数据中两个群体的特征分布对齐,从而实现了(人口)群体平等,而不需要在映射的计算和使用过程中提供个体样本的受保护属性的值,也不依赖受保护属性的可访问性或估计。
Oct, 2023
通过提出的无监督代理敏感属性标签生成技术来解决在机器学习系统中的偏见问题,该方法包括无监督嵌入生成和聚类两个阶段,其有效性依赖于偏见通过与敏感属性相关的非敏感属性传播,并在高维潜在空间中映射为不同人口群体的聚类。实验结果表明,使用现有算法进行偏见缓解可以得到与真实敏感属性相比可比较的结果。
Dec, 2023
为应对个人受保护属性标签稀缺的大规模系统,本研究提出了采样策略和评估技术以对四种公平排名度量进行测量,并形成一个强大而无偏的估算器。实验结果证明了该方法的可行性和可靠性。
Aug, 2021
我们提出了一种通用诊断方法,可以系统性地表征组公平性中的权衡,并通过在混淆矩阵中考虑受保护属性的值来实现多个权衡的优化。这种方法有助于重新设计公平的分类器。在合成和真实数据集上,我们演示了我们的诊断工具的应用情况,尤其是在理解准确性和公平性之间的权衡方面。
Apr, 2020
研究了在训练标签被随机噪声污染和误差率依赖于保护子组的成员函数的情况下如何训练公平分类器,发现简单地强制使用人口统计差异措施达到平等,会降低分类器的准确性和公平性。通过使用指定的替代损失函数和替代约束条件对经验风险最小化进行优化可以减少标签噪声引起的问题。
Oct, 2020