- 使用图对抗公平性学习公平节点表示
本文提出了一种新的公平性概念 —— 图形对照公平性,并基于对照数据增强提出了一种学习节点表示的框架,以减少模型在涉及敏感属性的图形数据中的偏见,该框架在合成和真实世界的图形上的实验表明,优于现有的基线图形对照公平性,并且在预测性能方面有可比 - 退役成年人:公平机器学习新数据集
通过重构 UCI Adult 数据集并衍生新的预测任务,本篇论文扩展现有的数据生态系统,为公平机器学习研究拓宽了数据来源,通过对新数据集的分析,研究者可以深入探讨公平性准则、算法干预的表现和分布变化的影响。
- 一个公理化的理论:可证明公平的以福利为中心的机器学习
本研究提出一种公平机器学习的替代方案,通过最小化每个群体的风险值来测量整体社会伤害(而不是福利)的互补度量 malfare,并将公平机器学习建模为 malfare 最小化问题,这可转化为 FPAC 学习,为众多公平机器学习模型提供了统计和计 - 信用评分中的公平性:评估、实施和利润影响
本研究探讨公平机器学习在征信评分中的应用,介绍了统计公平性准则、机器学习模型中公平性目标的算法选择,使用实际数据实证比较了不同的公平性处理器,发现多种公平性准则可以同时得到满足,提出分离度作为评估公平性的准则,证明了公平性处理器能在利润与公 - 在预测儿童虐待系统中获取利益相关方的公正概念
提出了一种利用用户界面和采访协议结合的框架,以考虑利益相关者的主观公平观念,并应用于儿童虐待预测系统的用户研究中,结果表明该框架可以全面传达利益相关者的公平观点,对于预测系统的设计具有启示意义。
- 机器学习中的公正性测量
本篇论文研究如何建立更公正的机器学习系统,探讨了分配正义和能力正义两种不同的正义观念,并分析它们在公正机器学习领域的应用及局限性。同时,研究者提出了对于公正机器学习,应该如何确立合适的正义观念。
- Justicia:一种基于随机 SAT 的公平性形式验证方法
本文介绍了一种名为 Justicia 的随机可满足性 (SSAT) 框架,用于正式验证不同监督学习算法的公平度量指标,针对不同数据分布的多个分类和偏差缓解算法进行验证,并理论上限制了公平度量的有限样本误差。
- ICLRSenSeI: 强制实现个体公平性的敏感集合不变性
该论文将公平机器学习视为不变机器学习,并提出了一种基于输运的正则化方法,在保证训练出公平机器学习模型的同时,改善了算法偏见。
- 个人与团体公平之间的表观冲突
本文认为,机器学习中个体公平和群体公平之间的冲突是一种误解,根据来自公平机器学习研究,政治和法律哲学的理论讨论,论证了个体公平和群体公平并不根本上存在冲突。因此,在特定部署情境中,通过对不公平的来源进行细致合理的应用,可以解决此冲突。
- 针对连续特征的公正感知神经 Réyni 最小化
本文旨在针对连续变量,保证回归模型输出与任何给定的连续敏感变量之间的一定独立性,通过减少 HGR 上限及使用对抗神经网络结构直接最小化 HGR 系数两种途径以最小化 HGR 系数。经过实证评估和比较,我们证明了这两种方法相对于该领域以前提出 - 公正通过努力平等
本文提出了一种新的基于因果关系的公平判定方法:努力平等。与现有的公平概念不同的是,努力平等不仅关注于两个群体之间的决策差异,而且还帮助回答了当特定个体实现特定结果水平时应合理变化的合法性变量的程度,以及保护组和无保护组个体实现相同结果水平所 - EMNLP通过反事实评估减少语言模型中的情感偏见
本文旨在量化并减少语言模型中表现出的情感偏见,该文分析了在给定的条件下(例如写作提示)和语言模型中,引起生成的文本情感发生变化的敏感属性(例如国家名称,职业,性别)的值变化的影响。我们采用公平机器学习文献中的个体和团体公正度量来量化情感偏见 - PC-Fairness: 基于因果关系公平的统一框架
本研究提出了一种计算因果公平性的框架,其中定义了一个旨在涵盖前期因果公平概念的统一定义,并使用约束优化问题对路径特定反事实公平性进行了界定,以解决可辨识性的问题,实验表明了本方法的正确性和有效性。
- ICML比例公平聚类
本论文在度量空间中探讨了公平机器学习领域中比例质心聚类问题,定义了公平性并提出了计算、优化和审计聚类方案的算法,分析了比例方案与 K-Means 指标之间的权衡关系。
- 公平性的测度和误测:公平机器学习的关键综述
公平机器学习的早期专注是确保由算法指导的决策是公平的,三个公平定义引起了人们的关注,即反分类,分类平衡和校准,但这三个公平定义都有重大的统计局限性。相比之下,我们认为更倾向于根据最准确的风险估计对类似风险的人进行相似的处理,而不是一定要满足