关注公平:在排名中摊销个体公平
本文提出了一种用于审计排名列表中群体公平性的新度量,通过我们的度量方法,能够更好地解决人为因素对公平性评估的影响,同时考虑了用户的注意力模式以及对保护属性的支持,我们还利用度量方法对三个模拟案例进行了公平性审计。
Jan, 2019
本文针对在线市场中排名的公平问题,提出了一种令所有商品都不会嫉妒和劣于其他商品的轮廓分配方式,并通过实证研究说明了这种分配方式控制了单个商品公平性与用户效用之间的权衡。
Jun, 2022
该研究提出了一种评估和降低个人排名算法偏差的框架,旨在实现公平性标准,通过 LinkedIn Talent Search 在线 A/B 测试并部署在全球 LinkedIn Recruiter 用户中,实现公平和商业指标的协调提高,有助于招聘行业和 630M 以上 LinkedIn 会员的公平和受益。
Apr, 2019
提出了一种公正和无偏的排序方法 Maximal Marginal Fairness (MMF),它包含了为关联度和公平性提供无偏估计的算法以及一个明确的控制器,以在前 k 个结果中最大化边际关联度和公平性,理论和实证分析表明,在长列表公平性方面做出了一些小妥协,我们的方法在前 k 个排名中的相关性和公平性方面,都优于现有的、最先进的算法。
Feb, 2021
本研究提出了一种有效的算法,在保持个体公平的情况下,从一组项目中随机抽样出排名,以确保输出排名满足群体公平性限制,同时保证输出排名的期望效用至少是最优公平解的效用的 α 倍,进而实现在线平台的算法公平。
Jun, 2023
本文提出了一种能够同时解决学习算法固有的和训练数据中的算法和应用中置入偏见的公平性问题的排序方法,采用一类延迟策略梯度方法,即采用公平度量的代价函数,并针对所需的应用程序选择一类的 “平均公平度量” 选择公平度量,有效地使学习算法能够处理包含偏差和噪声的数据,并通过对算法进行实证研究证明其能够获得准确而公平的排序策略。
Nov, 2019