- 实现组内与组间公平性的规范数据转换
通过引入在组公平性的形式定义,提出了一种预处理框架,以实现组间和组内公平性,并在维持准确性的同时,保证了来自同一族群的个体之间的公平性。将此框架应用于 COMPAS 风险评估和法学院数据集,并将其在实现组间和组内公平性方面的性能与两种基于正 - 使用斜决策森林在在线环境中增强团体公平性
在机器学习系统的背景中,尤其是在公平性方面,尤其是群体公平性,是需要考虑的一个重要因素。我们提出了一种名为 Aranyani 的在线设置下的公平决策方法,它采用了倾斜决策树的集合,通过利用先前决策的聚合统计量来有效计算公平梯度,从而克服了优 - 后期偏倚评分在公平分类中的最优选择
在群体公平约束下考虑了二元分类问题,通过引入一种新的偏见量度,称为偏见分数,提出了贝叶斯最优分类器的显式特征,并基于该特征开发了一种满足公平约束且保持高准确率的事后方法。该方法在 Adult、COMPAS 和 CelebA 数据集上与内处理 - FairTune: 优化参数高效微调用于医疗图像分析中的公平性
在医学诊断等伦理敏感应用领域,以鲁棒的群体公平性训练模型至关重要。尽管有越来越多的研究旨在减少人工智能中的人口偏差,但这个问题仍然具有挑战性。公平性的泛化差距是这个挑战的原因之一:高容量的深度学习模型几乎可以完美地拟合所有训练数据,从而在训 - 通过子群混合增强数据以提高公平性
通过对小组之间进行配对混合的数据增广方法,改善组间公平性并提高分类性能,特别是针对少数群体的社会偏见问题。
- 联邦学习中的偏差传播
参与联邦学习可能对群体公平性产生不利影响,而且这种偏见通过网络传播给所有参与方;我们分析并解释了联邦学习中的偏见传播问题,并发现在训练过程中,有偏见的参与方会不知不觉地在一小部分模型参数中编码其偏见,增加全局模型对敏感属性的依赖性;与集中式 - LUCID-GAN:有条件生成模型定位不公平性
通过生成规范输入来定位非公平(unfair)行为,LUCID-GAN 是一种新的检测黑盒模型非道德偏见的方法,无需访问训练数据。
- 使用增广拉格朗日方法处理联邦学习中的群体公平性
该研究提出了一种新的联邦学习算法,专门解决群体公平性问题,该算法在统计异质性和不同数量的客户端存在的情况下,既可以定量又可以定性地改善公平性,并几乎不影响准确度,并且与本地差分隐私兼容,通信成本微不足道。这一算法对于提高敏感应用领域(如医疗 - 关于机器学习随机性对群体公平性的影响
探究机器学习中算法跨不同组别表现差异的群体公平性的统计度量,发现这些度量在不同训练实例之间存在高方差,从而使得它们无法提供可靠的公平性实证评估。研究表明,群体公平性度量的方差来源于在少数群体上的学习过程的高波动性,而数据顺序的随机性被认为是 - 均等混淆公平性:在自动决策系统中测量基于群体的不公平差异
随着人工智能在影响人类和社会的决策中扮演越来越重要的角色,自动化决策系统的问责制越来越受到研究人员和从业者的关注。然而,在评估公平性方面,文献中存在着大量采用不同视角和假设的公平度量标准,这通常是不兼容的。本文提出了一个新的等混乱公平测试来 - 通过最小 - 最大 F - 散度正则化学习公平分类器
本文提出了一种新颖的 min-max F-divergence 规则框架,通过两个可训练网络(分类器网络和偏差 / 公平估计器网络),使用统计概念中的 F-divergence 度量公平性,学习公平的分类模型,同时保持高准确率,可适用于多个 - 审计交叉偏见的预测模型
提出了一种灵活的审计框架 Conditional Bias Scan (CBS),以检测分类模型中的交叉偏见,该方法可以检测到先前未发现的交叉和上下文相关偏见,并且相对于仅审计子组公平性的类似方法具有更高的偏见检测能力。
- ICML存在偏差的多个排序基础下的子集选择:公平约束对多赢家投票评分函数的效果
本文通过研究 subset selection 问题中的系统性和无意识偏见,探讨了在加入公平性约束条件下如何提高选择结果的质量,发现这与使用 multiwinner 得分函数的方式有很大关系,有些函数只需要少量排名即可达到近似最佳解,而对于 - FFB: 一种公平公正性基准,用于处理组公平性方法
本篇论文介绍了公平公正基准( extsf {FFB}), 一个用户处理群体公平性方法的评估框架,并提供了最新方法的全面分析,以确保不同标准的群体公平性。
- 基于软提示调节的大型语言模型偏置评估
本文探讨在情感分类任务上使用软提示调整识别大型语言模型(LLMs)如 OPT 和 Galactica 语言模型中的偏见,使用群体公平性(偏见)来检查模型偏见,并发现有趣的偏见模式,以便在实践中部署这些模型之前,识别这些偏见。
- KDD面向变化环境的公正可分离在线学习
本文提出了一种基于稀疏机制变化假设的在线学习算法,以实现模型的公平性,并引入长期公平约束的惩罚来评估生成的模型参数序列。在真实世界数据集上的实证评估证明了该方法在模型准确性和公平性方面的先进性。
- 双重约束公平聚类
本文探讨了公平聚类中两种最广泛的人口统计学表示公平概念,并表明了通过近似算法可实现同时满足两个约束条件的恒定近似解。此外,GF 和 DS 与其他基于距离的公平概念不兼容,并进行实验以验证理论发现。
- 适应缺失值的公平干预
该论文研究了缺失数据对算法公平性的影响,并提出了一种可扩展和自适应的公平分类算法来处理所有可能的缺失模式,以保留缺失模式中编码的信息,并在多个数据集上实验证明该算法相比于传统的 impute-then-classify 方法在公平性和准确性 - 缓解联邦学习中的群体偏差:超越本地公平性
本研究旨在探讨有关机器学习模型中特定人群或群体受到偏待的问题以及解决方法,其中我们特别研究了本地模型与全局模型之间公平性的关系,并提出了一种基于惩罚性经验损失最小化的全局公平训练算法,实验证明我们的方法在保持高准确率的同时,相比本地公平训练 - 基于分布感知的公平性测试生成
该研究提出了一种称为 DistroFair 的分布感知公平性测试方法,通过组合分布感知图像变异、无分布测试和语义保留图像变异等方法,系统地揭示了图像分类器中的类级公平性违规,并通过评估结果表明,DistroFair 比传统方法更加有效。