- 关于在公平分类和表示中的随机化的力量
在监督和无监督公平机器学习中,公平分类和公平表示学习是两个重要问题。本文研究了在这两个问题中,随机化方法可以最小化由于公平约束引起的准确性损失,并提出了公平分类和公平表示的随机化解决方案,可以获得最优准确性且不引起准确性损失。
- 线性后处理的最佳组公平分类器
我们提出了一个后处理算法来进行公平分类,通过统一的族群公平度量准则,包括统计平衡、平等机会和平衡赔率,来减轻模型偏差,适用于多类问题和具有属性感知和属性盲的设置。通过使用 “公平代价” 来重新校准给定基准模型的输出分数,它通过线性组合(预测 - 通过预处理、中处理和后处理实现具有线性差异约束的贝叶斯最优公平分类
机器学习算法在受保护群体上可能存在不公平影响。为解决此问题,我们开发了贝叶斯最优公平分类的方法,旨在在给定的群体公平约束条件下最小化分类错误。我们介绍了线性差异度量的概念,这些度量是概率分类器的线性函数;以及双线性差异度量,这些度量也是群体 - 公平约束对偏见数据恢复的辅助程度有多大?
通过阈值为基础的最优公平分类器的特征,本文给出了 Blum & Stangl (2019) 结果的另一证明,并证明了其对于偏倚参数的条件既是必要的又是充分的。此外,我们还证明了对于任意数据分布,只要优化准确分类器在假设类别中是公平和稳健的, - ACL用一种新颖的信息论目标分解表示以实现公平分类
从多种上下文环境的观察中提取现实的抽象表示是深度学习的一个追求目标之一。本文采用信息论的视角来研究这个问题,提出了一种新颖的正则化方法,称为 CLINIC 损失,通过大量的数值实验证明了这种方法在解缠表征与准确性之间取得更好的平衡,并且在不 - 通过最小 - 最大 F - 散度正则化学习公平分类器
本文提出了一种新颖的 min-max F-divergence 规则框架,通过两个可训练网络(分类器网络和偏差 / 公平估计器网络),使用统计概念中的 F-divergence 度量公平性,学习公平的分类模型,同时保持高准确率,可适用于多个 - 适应缺失值的公平干预
该论文研究了缺失数据对算法公平性的影响,并提出了一种可扩展和自适应的公平分类算法来处理所有可能的缺失模式,以保留缺失模式中编码的信息,并在多个数据集上实验证明该算法相比于传统的 impute-then-classify 方法在公平性和准确性 - 公平分类中的方差、自一致性和任意性
本文介绍了一种关于在公平分类中使用集成算法,解决分类结果不稳定导致任意性和观点关于公平性的不可靠等问题。实验结果表明,我们的方法可以显著降低子组误差率差异,无需使用常见的公平性干预措施。
- 跨域公平分类的联合对抗学习
本文探讨了在缺少敏感属性的情况下,利用类似领域中的辅助信息来提高目标领域中的公正分类的可行性, 并提出了一种既能学习到目标领域中的公正分类器,又能估计敏感属性的新框架,实验结果表明其有效性。
- 基于原型的分类:从层级到公平
本文提出了一种新的神经网络结构 —— 概念子空间网络 (CSN),能够将现有专门的分类器推广到产生一个统一模型,能够学习一系列的多概念关系。在实现概念独立性的情况下,我们证明了 CSN 在公平分类方面能够复现最先进的结果,可以被转变为分层分 - ACL通过统计相似性度量学习解缠纠缠纷的文本表征
本文研究使用统计相似度度量为基础,构建了一种新的数据表述方法,不需要深度神经网络训练,快速且精度更高地进行敏感属性的鉴别,从而避免社会偏见。
- 关于解缠和局部公平的表示
通过分离表示的方式,研究了如何在敏感属性方面实现本地公平来实现公平分类,并在预测收入和再监禁率等真实场景下验证了该方法的优点。
- 学习最优公平分类树:可解释性、公平性和准确性之间的权衡
本研究设计了一个 MIO(mixed integer optimization)框架,用于学习最优的分类树算法,以及与任意公平性约束进行扩展;提出了一个新的模型可解释性度量标准,称为决策复杂度;在流行数据集上,我们对公平性、可解释性及预测准 - 带有对抗扰动的公平分类
本文研究在具有全知对手的情况下的公平分类问题,在此情况下对于一个给定的参数 η,对手可以随意选择任意 η 分数的训练样本并随意扰动它们的保护属性。我们提出了一种优化框架来学习这种对抗情况下的公平分类器,并具有可证明的准确性和公平性保证。
- 一种信息理论方法应对分布转换
从信息理论的角度,本文探讨了机器学习模型在实际应用中遭遇的数据偏移问题,比较了近期领域泛化与公正分类研究中一些最有前途的目标。根据我们的理论分析和实证评估,我们得出结论,模型选择过程需要根据观察到的数据、纠正因素和数据生成过程的结构进行认真 - 公平分类的无偏子数据选择:一致框架和可扩展算法
该论文提出了一个新的统一框架,利用深度分类模型对证明的公平性指标进行联合优化,适用于许多分类器,解决了现有方法无法建模精确公平性的问题。
- 基于解缠的因果效应变分自编码器的反事实公平性
本文提出了一种名为 Disentangled Causal Effect Variational Autoencoder(DCEVAE)的方法,该方法利用因果推断和去除嵌入式敏感信息的方法对公平分类问题进行了改进,在生成对照组示例的同时成功 - 拒絕歧視:在有限敏感屬性信息下學習公正的圖神經網絡
本文提出了一种名为 FairGNN 的算法,通过利用图结构和有限的敏感信息来消除 GNN 中的偏见,从而实现公平分类。在真实世界数据集上的实验结果表明,FairGNN 在去偏差和保持高准确率方面具有有效性。
- 具有重叠分组的公平性
通过概率人群分析,我们重新审视标准的公平分类问题,并揭示出贝叶斯最优分类器。我们的方法统一了各种现有的组公平分类方法,并扩展到各种不可分解的多类性能度量和公平性度量。在各种真实数据集上,我们提出的方法在公平性与性能的权衡方面优于基线。
- 公正的对抗梯度提升树
本研究提出了一种新的对抗性梯度树提升方法用于公平分类,并在多个数据集上进行实证评估,通过使用一组不同的公平定义来衡量公平性,证明了该方法在精度相同的情况下取得了更高的公平性。