- WWW不完整判断情况下公平排名度量方法估算
为应对个人受保护属性标签稀缺的大规模系统,本研究提出了采样策略和评估技术以对四种公平排名度量进行测量,并形成一个强大而无偏的估算器。实验结果证明了该方法的可行性和可靠性。
- 带有对抗扰动的公平分类
本文研究在具有全知对手的情况下的公平分类问题,在此情况下对于一个给定的参数 η,对手可以随意选择任意 η 分数的训练样本并随意扰动它们的保护属性。我们提出了一种优化框架来学习这种对抗情况下的公平分类器,并具有可证明的准确性和公平性保证。
- 大学辍学预测模型是否应包含受保护属性?
本文探讨了在大型美国研究型大学的简历中是否包含受保护属性是否会在预测学生退学方面造成歧视性,研究表明在预测表现和算法公平性方面,包含受保护属性不会影响总体表现,局部情况需要针对性评估和分析。
- ICML方向偏差放大
该篇研究关注机器学习系统中偏见放大的问题,提出了一种新的偏差放大度量方法,并分析了其技术假设和规范意义,对其测量提出了建议。
- AAAI特征例外下的公平性:反事实和观测测度
本研究提出了一种信息论量化方法,将总体失调度量(受反事实公平性启发)分解为两个组成部分:不免除组成部分和免除组成部分,使人们可以检查失调是否纯粹由于关键特征引起,并在需要时选择性地去除非免除组成部分。
- ICMLFACT:群体公平权衡的诊断方法
我们提出了一种通用诊断方法,可以系统性地表征组公平性中的权衡,并通过在混淆矩阵中考虑受保护属性的值来实现多个权衡的优化。这种方法有助于重新设计公平的分类器。在合成和真实数据集上,我们演示了我们的诊断工具的应用情况,尤其是在理解准确性和公平性 - KDD面向搜索和推荐系统的公正排序技术及其在领英人才搜索中的应用
该研究提出了一种评估和降低个人排名算法偏差的框架,旨在实现公平性标准,通过 LinkedIn Talent Search 在线 A/B 测试并部署在全球 LinkedIn Recruiter 用户中,实现公平和商业指标的协调提高,有助于招聘 - 通过对抗性框架学习公平表示
本文介绍了一个最小二乘对抗框架,其中一个发生器生成学习个体的潜在表示,一个评论家保证了不同保护组的分布相似,从而在保留足够信息的同时解决了受保护属性引起的潜在偏差问题,为公平分类提供了理论保证。经验结果表明,这种方法可以有效地用于分类任务, - ACL名字有什么作用?在无法访问受保护属性的情况下减少生物学的偏见
通过减少个人名称的词嵌入与真实职业预测概率的相关性,以消除词嵌入中所编码的社会偏见,提出了一种方法,无需访问受保护属性,仅在训练期间需要访问个人名称,从而在职业分类中减少种族和性别偏见。
- 用户注意力对排名列表中公平群组表现的影响量化
本文提出了一种用于审计排名列表中群体公平性的新度量,通过我们的度量方法,能够更好地解决人为因素对公平性评估的影响,同时考虑了用户的注意力模式以及对保护属性的支持,我们还利用度量方法对三个模拟案例进行了公平性审计。
- 公平的交集定义
本研究提出了机器学习和人工智能系统中的公平性定义,并受到交叉性别、种族、性取向、阶级和残疾等影响因素的启发,通过保护属性子集合理分配资源,提供合理保护算法,同时在人口普查数据和 COMPAS 犯罪再犯数据集上进行案例研究。