通过将与预测相关的分布属性纳入考虑,我们扩展了人口平等的概念,允许专家知识在公平解决方案中得到应用,并通过一个工资的实际案例说明了此新度量的使用,同时开发了解决实际挑战的参数方法,提供了一个适用于现实生活中应用场景的强大解决方案。
Oct, 2023
本研究提出了一套度量算法公平性关注的新型指标,基于随机实验的成对比较来衡量公平性,建立了新的规则化器,促进了模型训练和推荐系统的公平性。
Mar, 2019
本文研究了一类称为公平回归的问题,在保证对于某些受保护属性(如性别或种族)的公平性的情况下,预测一个实数目标(如风险评分或再犯率)。提出了通用的公平回归方案,包括统计平等和有界组损失两种公平性。与其他任务相比,该方案只需要使用标准的风险最小化算法(如标准分类或最小二乘回归),而提供得到的解的最优性和公平性的理论保证。除了分析方案的理论性质外,还在几个标准数据集上经验性地展示其揭示公正 - 准确性前沿的能力。
May, 2019
本文针对算法公平性和回归模型中的组公平标准,提出了快速近似的独立性、分离性和充分性,用于执行正则化风险最小化,从而实现公平性和准确性的折衷。
Feb, 2020
本文提出了一种基于 Mann Whitney U 统计量的公平性学习方法,用于多任务回归模型的训练,通过非凸的优化和个体排名函数的分组排名功能的定义来提高性能。实验结果验证了本方法的出色表现。
Sep, 2020
本文提出不需要人工规范距离度量的个体公平性的实现方法。我们提出新的方法获取和利用关于同样值得的个人的附加信息来打破社会群体之间的剥夺,将这些知识建模为公平图,并学习数据的统一成对公平表示,捕捉个体间数据驱动的相似性和公平性图中成对附加信息。我们从各种来源获取公平判断,包括关于再犯率预测(COMPAS)和暴力社区预测(Crime&Communities)的两个真实数据集的人类判断。实验显示,对于实现个体公平,PFR 模型是实际可行的。
Jul, 2019
本文提出了一种新的学习排序算法 Pareto Pairwise Ranking,该算法不仅在技术准确度方面表现出色,而且在公平性方面是目前 9 种现行算法中最公平的算法。
Dec, 2022
提出了一种具有不公平惩罚的分布鲁棒逻辑回归模型,可以使用 Wasserstein ball 来对分布不确定性进行建模以实现公平机会并提高公平性。
Jul, 2020
本文提出了一种处理包含连续敏感属性的回归算法中避免敏感信息不公平影响的公平经验风险最小化方法,并将其泛化到标准有监督学习的整个情境中,该方法在进行知名的平等概念的实证风险最小化情境时可以减少公平度量;同时该文构建了一种可以针对内核方法进行共性公平估计的方法,并通过对公共数据集和来自五千名学生的新数据集的实验结果显示其实现了精度和公平要求之间的有效平衡。
Jan, 2019
我们提出了一种用于后处理排名的随机方法,不需要受保护属性的可用性,通过广泛的数值研究,我们展示了我们的方法在 P-Fairness 和与基线排名的标准化折现累积增益 (NDCG) 方面的稳健性和有效性,并改进了之前提出的方法。
Mar, 2024