控制动态学习排序中的公平和偏见
本文提出了一种能够同时解决学习算法固有的和训练数据中的算法和应用中置入偏见的公平性问题的排序方法,采用一类延迟策略梯度方法,即采用公平度量的代价函数,并针对所需的应用程序选择一类的 “平均公平度量” 选择公平度量,有效地使学习算法能够处理包含偏差和噪声的数据,并通过对算法进行实证研究证明其能够获得准确而公平的排序策略。
Nov, 2019
本文提出了一种利用随机排序策略来进行公平学习及考虑排序项影响的通用 LTR 框架,并通过基于政策梯度方法的 Fair-PG-Rank 算法进行优化,可在保持曝光公平性的情况下优化各种效用指标。通过实验结果验证了此方法在个人和集体公平性方面的有效性。
Feb, 2019
提出基于最优传输正则化的算法,确保少数群体的项目与多数群体的相似项目一同出现,实现个体公平的排序,进行排名任务时有助于降低人口统计偏差,证明该方法可以生成被公认为个体公平的 LTR 模型。
Mar, 2021
本研究提出了一种有效的算法,在保持个体公平的情况下,从一组项目中随机抽样出排名,以确保输出排名满足群体公平性限制,同时保证输出排名的期望效用至少是最优公平解的效用的 α 倍,进而实现在线平台的算法公平。
Jun, 2023
提出了一种公正和无偏的排序方法 Maximal Marginal Fairness (MMF),它包含了为关联度和公平性提供无偏估计的算法以及一个明确的控制器,以在前 k 个结果中最大化边际关联度和公平性,理论和实证分析表明,在长列表公平性方面做出了一些小妥协,我们的方法在前 k 个排名中的相关性和公平性方面,都优于现有的、最先进的算法。
Feb, 2021
对在线平台中对个人、提供方或内容进行公正排序的 “公正排名” 研究文献进行了批判性概述,提出了更全面和以影响为导向的公正排名研究议程的前景,包括其他领域的方法论教训以及更广泛利益相关者社区在克服数据瓶颈和设计有效监管环境方面的作用。
Jan, 2022
在该研究中,我们开发了一种基于战略代理人的公平曝光优化动态排序方法,旨在解决推荐系统中的数据偏差和长尾物品可见性的问题。通过使用可微分的排序算子同时优化准确性和公平性,我们确保了推荐性能的同时增强了长尾物品的可见性,实验证明了该方法的有效性和优越性。
Jun, 2024