关于群体公平和个体公平之间的 (不) 兼容性
本文研究公平聚类问题并提出了采用 f - 散度测量统计相似度,以确保相似的个体得到类似的对待,该方案保证了群体公平性与个人公平性。在 $p$- 范目标的约束下,我们提供了可证明的近似保证聚类算法。同时,我们还考虑了群体公正和个人公正在受保护群体内的实现条件,并证明了个人公平性是群体公平性的必要条件。实验证明了这种方法的有效性。
Jun, 2020
这篇论文介绍了一种新颖的信息论视角,探讨了机器学习中著名的群体公平性概念之间的关系,即统计平衡、平等几率和预测平衡。通过利用信息论中称为部分信息分解(PID)的工作,我们准确阐明了这三个 (不) 公平性度量之间的精确关系,并确定了它们重叠和相互矛盾的细节区域,从而引发了潜在的权衡。我们还包括了数值模拟来补充我们的结果。
Jun, 2024
通过将与预测相关的分布属性纳入考虑,我们扩展了人口平等的概念,允许专家知识在公平解决方案中得到应用,并通过一个工资的实际案例说明了此新度量的使用,同时开发了解决实际挑战的参数方法,提供了一个适用于现实生活中应用场景的强大解决方案。
Oct, 2023
通过构建受其 Lipschitz 约束的群体阈值之间的连续概率函数,来实现组公平和个体公平,同时保留了模型的预测能力和鲁棒性,解决了使用不连续的概率函数进行校准时组和个体公平冲突的问题,同时避免了个人的赔率失衡问题。
Apr, 2023
该论文通过优化社会福利功能(SWF)来评估各种公平性定义,探讨了广义社会公正观念是否对实现 AI 中的公平性有用,结果表明最优解可以在特定条件下证明人口平等或平等几率,但通常需要偏离这些平等类型。此外,预测率平衡的实用性有限,这些结果表明优化理论可以为如何在 AI 中实现群体公平性的讨论问题提供启示。
May, 2024
本文提出不需要人工规范距离度量的个体公平性的实现方法。我们提出新的方法获取和利用关于同样值得的个人的附加信息来打破社会群体之间的剥夺,将这些知识建模为公平图,并学习数据的统一成对公平表示,捕捉个体间数据驱动的相似性和公平性图中成对附加信息。我们从各种来源获取公平判断,包括关于再犯率预测(COMPAS)和暴力社区预测(Crime&Communities)的两个真实数据集的人类判断。实验显示,对于实现个体公平,PFR 模型是实际可行的。
Jul, 2019
该论文研究了机器学习中的公平性问题,提出了在保持公平的前提下如何提高预测模型性能的方法,并且证明了最小误差率可以通过 Wasserstein 平均问题的最优值来计算,从而提出了一种简单的后处理方法来保证模型的公平性。
Nov, 2022
我们提出了针对排名模型和回归模型的成对公平度量标准,这些标准类似于统计公平概念,如平等机会、平等准确性和统计平等,通过现有的约束优化和鲁棒优化技术可以有效地解决结果训练问题,实验表明这些方法具有广泛的适用性和权衡性。
Jun, 2019
针对将物品分配至平台的匹配过程中的团体和个体公平约束,我们提出了一种概率个体公平的算法,通过计算一组公平匹配的分布,使每个物品有合理的匹配概率。该方法在确保团体公平的同时,可以提高个体公平度。
Aug, 2022