- 有界种族差异的极小极大公平分类
控制统计机器学习方法的不公平影响是确保公平性的关键。本文探讨了具有两个受保护群体的公平二分类的统计基础,重点是控制人口统计差异,并提出了一种量化公平性约束影响的新方法。
- 平衡行动:在稀疏模型中约束不平等影响
通过直接解决剪枝带来的不一致影响,我们的研究提出了一种约束优化方法,通过在每个子组中限制密集模型和稀疏模型之间的准确度变化来确定剪枝模型是否达到可接受的不一致水平。实验证实了我们的技术在解决涉及大型模型和数百个受保护子组的问题上具有可靠的可 - 不充分的公正差异影响:一种新的子群公平标准
该论文提出了一种新的标准,“不充分证明的不同影响”(IJDI),用于评估算法决策支持工具所提供的建议(二元化预测)是否公平,并通过 IJDI-Scan 方法高效地确定数据的多个观察属性的交会子人口中的最显著 IJDI。
- 公平性不确定性量化:您有多确定该模型是公平的?
本文提出了一种在线 multiplier bootstrap 方法,用于构建置信区间,以评估通过在线 SGD 类型算法训练具有 Disparate Impact 和 Disparate Mistreatment 意识的线性二元分类器的公平性 - 差分隐私数据的后处理:公平性视角
本研究探讨了不同隐私保护机制中,后处理免疫性质的影响,并分析了在美国人口普查数据分配基金等重大社会决策中,后处理机制引起的不公平影响,提出了一种新的后处理机制,旨在减少公平问题和隐私保护成本。
- ICLR博弈论角度下半监督学习不公平问题研究
本文研究了在利用半监督学习算法时,不同子集人群的性能变化问题,发现使用半监督学习算法时,更强的基准组比更弱的基准组更容易受益,而对于性能原本就比较低的基准组,可能还会观察到性能下降,进而提出了两个新的评估指标。
- 消除差异隐私随机梯度下降对模型准确性的不利影响
本文针对机器学习中的差分隐私引入了『utility-privacy trade-off』,并提出了一种名为 DPSGD-F 的修改版随机梯度下降算法来消除差分隐私对受保护群体的不平等影响,具有『adaptive clipping』的特点。我 - AAAI学习非歧视性决策树的最优和公平决策
本文提出了一个多功能的混合整数优化框架,用于学习最优和公平的决策树和其变体,避免不公平对待和 / 或不公平影响。计算结果表明,这个框架提高了领域内的技术水平,能以更低的成本提高准确性,从而产生非歧视性的决策。
- 超越分类的风险评分公正性:二分排名和 xAUC 指标
本文从一个双分值排序任务的角度解释了预测风险值的公平性,并提出了以 xAB 偏差作为评价指标,通过对再犯罪率预测、收入预测和心脏骤停预测的 xAUC 分析,发现彼此预测性能的对比并不一定代表公平性。
- 针对个体和群体公平性的偏差缓解后处理
该研究提出了一种新的框架,能够在现实数据集中同时增加个体公平性和群体公平性,并展示了在信用、就业和刑事司法等应用中,在分类准确性、个体和群体公平性方面相比之前的工作表现更为优异。
- 运用最优输运理论获得公平性
本文首先介绍了统计算法在决策中的应用,提出了公平性的概念,进而研究了不同的公平性定义。特别地,文中重点研究了不平等影响和平衡误差率这两个概念,并探讨了它们之间的关系。其目的在于检测二分类规则是否缺乏公平性,同时修改输入数据以应对潜在的歧视问 - KDD排名公平性
该研究提出了一种概念和计算框架,允许确定排名的公平性限制,并发展出高效的算法,以最大化用户效用且确保满足特定的公平概念。
- 公平分簇
本文研究了如何在保护隐私的前提下实现公平聚类,提出了公平小集(fairlets)的概念,并基于最小代价流设计出高效的近似算法,在实际数据集中验证了公平聚类的价值。
- 公平感知机器学习的两阶段算法
论文提出了一种基于两阶段最小二乘法的公平机器学习算法,能够有效处理数据中敏感属性与非敏感属性相关的不公平问题, 其独特之处在于该算法针对回归模型的不公平问题也能做出有效处理,并且能够解决数字敏感属性的问题,经实验验证表现卓越。
- 具有不同影响的公平预测:再犯罪预测工具中偏见研究
本文讨论了最近被应用于评估惯犯再犯预测工具公平性的几个公正标准,证明了当不同群体的惯犯再犯率不同时,这些标准无法同时满足。然后说明了当再犯预测工具未能满足错误率平衡标准时如何产生不同影响。
- KDD证明和消除不同影响
通过研究受保护类别和过程的定义,提出基于导出数据的方法来评估算法偏差,并描述了消除偏差和保留数据相关信息的方法。