- 针对监督学习模型的个体不公平性识别、测量和缓解以及其在信用风险模型中的应用
本文旨在通过实现一个两步训练过程来识别和减轻个人不公平,并利用最近在此领域发表的一些技术,特别是在信贷审批用例中适用的技术。我们还调查了实现个人公平性的技术在实现团体公平性方面的有效程度以及提出了第二度量标准来确定模型如何公平地处理类似的个 - 比较苹果和橙子:学习来自不同分布产生的数据的相似度函数
该论文提出了一个采样框架,使用有限数量的专家反馈,学习跨群组相似性函数,以解决不同分布的元素之间相似度难以精确计算的问题,并通过大量实验进行了验证。
- 具备群体公平性和个体公平性约束的二分匹配
针对将物品分配至平台的匹配过程中的团体和个体公平约束,我们提出了一种概率个体公平的算法,通过计算一组公平匹配的分布,使每个物品有合理的匹配概率。该方法在确保团体公平的同时,可以提高个体公平度。
- 领域自适应遇到个体公平,他们相处融洽
本文论述了算法公正与数据分布的关系,即算法公正干预可以帮助机器学习模型克服数据分布的偏差,并且领域自适应方法可以减轻算法偏差。
- ECCV个体公平表示的潜空间平滑
本文提出 LASSI 方法,应用生成建模来解决在高维数据环境下学习个体公平表示的问题,并通过随机平滑来确保端到端公平。实验证明该方法提高了最多 90%的认证个体公平性,而对任务效用的影响不显著。
- ICML战略工具变量回归:从策略性反应中恢复因果关系
研究发现,当机器学习算法自动或参考作用于关于人的重大决策时,个体决策受到激励可通过策略性地修改自己的可观察属性以获得更有利的预测,导致预测所依赖的训练数据分布与实际使用的数据分布不同。但是,该文提出了一个新方法,通过观察部署模型的顺序可以将 - 更好的面向个体公平的 $k$- 聚类算法
运用线性规划和局部搜索算法解决在数据聚类问题中,$\ell_p$-range 目标下的个体公平问题。通过修改 LP 理论和结合局部搜索算法实践,实现更优算法,并在实验中展现了出众的表现。
- 评估预训练多模态表示中的多语言公平性
本文通过引入多语言个体公平和多语言群体公平这两个公平性概念,分析了预训练的多模态模型是否公平地对待多种语言,结果表明预训练模型在各种语言上的表现差异很大,缺乏多语言群体公平特性,并且对于涉及种族、性别和年龄等方面的人物群体,模型存在一定的偏 - ICLR个体公平梯度提升
该研究采用函数梯度下降法实现在梯度提升中的个体公平性问题,并证明了该算法在决策树等非平滑模型上的泛化性和有效性。
- ICLR个体公正排序
提出基于最优传输正则化的算法,确保少数群体的项目与多数群体的相似项目一同出现,实现个体公平的排序,进行排名任务时有助于降低人口统计偏差,证明该方法可以生成被公认为个体公平的 LTR 模型。
- 评价反事实解释的鲁棒性
本研究旨在正式和实证研究了解反事实解释的鲁棒性,以及在不同模型和不同类型扰动下的鲁棒性,并提出合理的反事实解释来改进鲁棒性和个体平等。
- AAAI公平性、半监督学习以及更多:一般的随机成对约束聚类框架
提出了一种新颖的随机成对约束方法,用于多个关键聚类目标函数,可用于建模应用程序的收缩和分析,如聚类中的公平性和半监督学习中的 Must-link 约束,并提供了近似算法的具有可证明保证的通用框架。
- ICLRSenSeI: 强制实现个体公平性的敏感集合不变性
该论文将公平机器学习视为不变机器学习,并提出了一种基于输运的正则化方法,在保证训练出公平机器学习模型的同时,改善了算法偏见。
- 聚类中的分布式个体公平性
本文研究公平聚类问题并提出了采用 f - 散度测量统计相似度,以确保相似的个体得到类似的对待,该方案保证了群体公平性与个人公平性。在 $p$- 范目标的约束下,我们提供了可证明的近似保证聚类算法。同时,我们还考虑了群体公正和个人公正在受保护 - 机器学习模型中的个体公平性验证
本文旨在通过构建验证器来证明一个模型是否符合个体公平。我们针对决策模型与结构化数据的情况进行研究,特别考虑了线性分类器和核多项式 / 径向基函数分类器。实验结果表明,我们提出的算法对公开数据集的评估是可行的。
- ICML从数据学习个体公平度量的两种简单方法
本研究提出了两种简单的方法,从多种数据类型中学习公平指标,经实验证明使用学习到的指标进行公平训练可以在三种机器学习任务中有效减少性别和种族偏见,同时也提供了关于统计性能的理论保证。
- 学习确证个体公平表示
该论文提出了一种基于潜在表示的证书方法,帮助数据消费者获得现有和新数据点的个体公平性证书,实现了公平性约束和效用之间的平衡,并通过实验评估了该方法在五个真实数据集和多个公平性约束方面的可扩展性和表现力。
- IJCAI个体公正性的再思考:从对抗鲁棒性中借鉴技术
该论文提出了一种新的公正定义方式,使用度量为给定模型提供公正的一个衡量标准,并且通过将随机平滑机制应用于更复杂的模型来实现个体公正。实验表明将线性模型的最小度量适应于更复杂的神经网络可以在很小的代价下提供有意义和可解释的公正保证。
- ICMLK - 聚类的个体公平性
本文提出了一种基于局部搜索的算法,用于实现 $k$-median 和 $k$-means(以及任何使用 $\ell_p$ 范数的 $k$- 聚类),并从个体公平性的角度来考虑。我们的算法提供了一个逼近可行的 $k$- 聚类,其 $k$-me - 个人与团体公平之间的表观冲突
本文认为,机器学习中个体公平和群体公平之间的冲突是一种误解,根据来自公平机器学习研究,政治和法律哲学的理论讨论,论证了个体公平和群体公平并不根本上存在冲突。因此,在特定部署情境中,通过对不公平的来源进行细致合理的应用,可以解决此冲突。