- 一种基于公平性集成框架的毒性语言检测中缓解种族偏见的方法
该论文探讨了在流行的有毒语言数据集中存在针对非裔美国英语用户的种族偏见如何存在,并针对这种偏见提出了使用描述公平度量来更好理解其来源的建议。作者提出了一个基于集成框架的方法来减少这些数据集中的意识形态偏见,并提供了实证证据证明其能够取消针对 - ACL提高反事实生成以实现公正仇恨言论检测
该研究探讨用于减少偏见的方法对具有社交群体令牌(SGT)的敏感特征的依赖,提高仪器在令牌之间的公平。在仇恨言论检测中,作者使用反事实公平并在反事实情况下等价预测,通过改变 SGTs 生成。这种方法通过对每个实例的限制反事实集上进行对数配对来 - ICML生成模型中的公平性测量
本文回顾了以往提出的公正度量标准,并讨论了绩效基准框架以及替代度量标准的评估。
- ACL量化自然语言处理中的社会偏见:对外在公平度量的一般化及实证比较
本文提出了三个广义公平度量标准,系统分析了不同的参数选择如何导致公平度量方法之间的差异,以更好地了解和处理 NLP/ML 模型中的不公平性。
- Twitter 上的图像裁剪:公平度量、其限制以及代表性、设计和代理的重要性
Twitter 采用机器学习裁剪图像,利用公平指标分析系统倾向于轻皮肤而非暗皮肤、裁剪女性身体而非头部等偏见,提出需移除基于显著点的裁剪,发扬人的主观能动性。
- AAAI使用最坏情况比较来特征化交叉群体公平性
本文旨在探讨机器学习或人工智能算法因本身的偏见与成见会影响其输出结果的问题,分析现有关于交叉区域公平性的定义和衡量指标,并提出了一个简单的最坏情况比较方法来扩展现有群体公平指标的定义以涵盖交叉区域,最后讨论了处理关于交叉区域公平的社会、法律 - 利用有噪保护属性减少集合选择中的偏差
在数据集保护属性存在噪声的情况下,通过采用噪声模型和基于线性规划的近似算法,本文提出了一种可以提高公平性指标的分类子集选择方法,并在真实数据集和合成数据集上进行了测试。
- Justicia:一种基于随机 SAT 的公平性形式验证方法
本文介绍了一种名为 Justicia 的随机可满足性 (SSAT) 框架,用于正式验证不同监督学习算法的公平度量指标,针对不同数据分布的多个分类和偏差缓解算法进行验证,并理论上限制了公平度量的有限样本误差。
- 通过个性化重新排序实现机会主义多方面公平
研究人员提出了一种重新排名的方法,通过学习多个公平维度的个人偏好,增强了建议结果的公平性。这种方法可以更好地平衡准确性和公平性。
- TREC 2019 公平排名任务综述
该研究介绍了 TREC Fair Ranking 跟踪项目,实现了服务于不同内容提供商公平性和相关度的基准评估,发布了一个数据集,目标是要公正地呈现来自多个未知组的相关作者的重要性,重点关注能够在各种组别定义下表现出强大性能的系统的开发。
- 基于核匹配的分布匹配,实现更好的绩效与公平性平衡
介绍了一种用于确保机器学习模型中的公平性的 MinDiff 框架,并分析了一种基于核的统计依赖性测试技术,在学术数据集上运行了一项彻底的研究以比较不同规范化方法实现的帕累托前沿,并将基于内核的方法应用于两个大规模工业系统,证明了现实世界的改 - 机器学习模型的交互式探查工具
本论文介绍了一种名为 What-If Tool 的开源应用程序,它可以帮助从业人员在具有最小编码要求的情况下对机器学习系统进行探索、可视化和分析,并支持在虚拟情境下测试性能,在数据的不同子集和多个模型之间可视化模型行为,并通过多个机器学习公 - AI Fairness 360: 检测、理解和缓解不良算法偏差的可扩展工具包
介绍了一种新的开源 Python 工具包 - AI Fairness 360 (AIF360),用于支持决策性应用程序的算法公平性,该工具包包括公平度量标准、算法对数据集和模型执行偏差检测和修复以及参考指南和教程。
- 具有不可微约束条件的优化及其在公平性、召回率、流失率和其他目标上的应用
本文提出了一种代理 - 拉格朗日新公式,以及用于解决非凸或不可区分约束下的非凸模型训练问题的随机分类器算法,并在精度、覆盖率、准确性、回调和客户流失率等多个方面的实验结果证明了其效果。
- 代理公正性
本文研究在没有标记受保护组的数据集的情况下,通过改善代理组的公平度量来提高真实敏感组的公平度,并在基准和实际数据集上进行了实验。 然而,该策略的有效性可能取决于公平度量的选择以及代理组在约束模型参数方面与真实受保护组的对齐程度。