- 公平法规对机构政策和人口资格的影响
算法系统的社会影响及其规范与控制。研究选择最合格个体以最大化效用的系统。通过惩治社会群体间歧视实现选择算法的人口统计平衡。研究了歧视惩罚在减少选择中差异的条件下的效果,并考虑了个人资质会随时间演变以适应惩罚政策时的影响。发现在某些情况下,歧 - 基于人口平衡的公平学习算法的归纳偏差
研究通过敏感属性的少量依赖分配标签的公平监督学习算法在机器学习界引起了极大关注。本文分析了标准的基于 DP 的正则化方法对给定敏感属性的预测标签的条件分布的影响,并提出了一种基于敏感属性的分布鲁棒优化方法以改善对敏感属性边际分布的鲁棒性,数 - 反事实公平并非人口均衡,以及其他观察
对因果概念和纯概率概念之间的等价性陈述应谨慎对待。本文研究最近关于反事实公平与人口平衡之间等价的主张,并发现该主张经不起深入研究的验证。我也将借此机会澄清一些关于反事实公平的更广泛的误解。
- 公平抽样:高效训练公平准确的图卷积神经网络
本文主要研究了图卷积神经网络(GCNs)中的公平性问题,以及如何训练公平且准确的 GCNs。研究着重分析了图结构偏差、节点属性偏差和模型参数对 GCNs 中的人口平等性的影响,提出了一个名为 FairSample 的框架来共同解决这些偏差, - AAAI从观测数据中学习多阶段选择问题的公平策略
通过解决难以计算的无限机会约束程序,提出了一种多阶段框架,用于从观测数据中学习公平策略,该问题与公司招聘、贷款批准或保释决策等高风险领域中的选择相关,我们专注于可解释的线性选择规则,并通过解决混合二次锥优化问题获得了组合评价的解决方案,与现 - AAAI算法公平性的信息流视角
本文研究算法公平性与安全信息流之间的关系,提出了一个基于量化信息流和基于质化信息流的新的公平性概念 —— 公平传播。研究结果表明,信息流属性的现有工具可以用来形式化分析程序的算法公平性属性,包括公平传播和人口平衡等已建立的概念。
- 关于联邦学习中隐私、公平性和效用之间的权衡
为了提高联邦学习系统的公平性,本研究使用了公平度量指标构建本地公平模型,并提出了一种隐私保护的公平联邦学习方法。实验结果表明,隐私保护提高了公平模型的准确性,但在隐私、公平和实用性之间存在权衡。
- 具有统计保证的参数公平性
通过将与预测相关的分布属性纳入考虑,我们扩展了人口平等的概念,允许专家知识在公平解决方案中得到应用,并通过一个工资的实际案例说明了此新度量的使用,同时开发了解决实际挑战的参数方法,提供了一个适用于现实生活中应用场景的强大解决方案。
- 后期偏倚评分在公平分类中的最优选择
在群体公平约束下考虑了二元分类问题,通过引入一种新的偏见量度,称为偏见分数,提出了贝叶斯最优分类器的显式特征,并基于该特征开发了一种满足公平约束且保持高准确率的事后方法。该方法在 Adult、COMPAS 和 CelebA 数据集上与内处理 - 人口平等:缓解现实世界数据中的偏见
计算机决策系统在许多日常生活的方面得到广泛应用,但其中可能存在性别、种族或其他偏见问题。本研究提出一种鲁棒的方法,通过真实世界数据提取出表征人口平衡和真实性的数据集,用于训练分类器,并测试其泛化能力,证实计算机辅助决策中不存在明示或隐含偏见 - 关于公平约束学习对恶意噪声的脆弱性
对受到恶意干扰数据的公平约束学习的脆弱性进行研究,发现使用随机化分类器可以降低损失。
- 通过 Wasserstein Barycenters 实现多任务学习的公平性
本文提出一种用于多任务学习的算法公平性方法,该方法通过使用多项 Wasserstein barycenter 扩展 “Strong Demographic Parity” 的定义,为具有回归和二分类任务的多任务学习器提供了封闭形式解决方案, - 公平和偏见的逻辑理论
本文主要论述机器学习中公平性问题,提出三种公平模型:无意识公平、人口统计学公平和反事实公平,并在认识情境演算中进行了形式化的定义。
- AAAISimFair: 公平感知多标签分类的统一框架
本研究探索了在多标签分类任务中公平意识的构建,并提出了一种新的框架,名为相似性诱导公平。该框架利用具有相似标签的数据来实现更好的稳定性,在多标签数据上表现出比现有方法更好的性能。
- 退休 $Δ$DP:用于人口统计学平等的新分布级别指标
该研究提出两种新的公平度量标准,ABPC 和 ABCC,用于精确量化分布级别的人口平等破坏。新的公平性指标直接衡量不同人口群体的预测概率分布之间的差异,并且在分类阈值调整时保证人口平等。
- 通过后处理预测器实现公平且最优分类
该论文研究了机器学习中的公平性问题,提出了在保持公平的前提下如何提高预测模型性能的方法,并且证明了最小误差率可以通过 Wasserstein 平均问题的最优值来计算,从而提出了一种简单的后处理方法来保证模型的公平性。
- ICML主动公平性审计
研究 ML 模型的审计算法,通过提出确定性算法和实用的随机化算法来评估 ML 模型的人口统计平等,以帮助监管机构应对机器学习的监管挑战,并为 AI 治理奠定更坚实的理论基础。
- 多类别分类中的公平性保证
本文提出了一种用于多类分类的算法公平性方法,同时给出了最佳公平分类器的相关表达式,该方法基于数据驱动的程序并且有理论保证。该方法在合成和真实数据集上都很有效,在决策制定中具有预设不公平性水平的公平性保证(无需考虑分布),并竞争(即使更好)地 - 学习平滑和公平的表示
为了防止受保护人口受到歧视,减轻数据拥有者法律责任,本文尝试通过映射特征到公平表征空间,预防性地消除特征与敏感属性之间的相关性。实验结果表明,平滑表征分布可提供公平证书的泛化保证,同时不降低下游任务的准确性。
- Wasserstein 双凸权重平均的公平回归
通过公平回归和最优输运理论的联系,得到一种最优公平的预测器,并建议了一个简单的后处理算法来实现公平。这个结果提出了最优公平预测的直观解释,并为这个过程建立了风险和无分布的公平保证。