概率置换图搜索:黑盒优化公平排名
本文提出了一种名为 PL-Rank 的新算法,用于估计 PL 排名模型关于相关性和公平度量的梯度,相比现有的策略梯度方法,PL-Rank 的采样效率更高且计算成本更低,可以用于更真实、更公平的实际排名系统。
May, 2021
我们提出了针对排名模型和回归模型的成对公平度量标准,这些标准类似于统计公平概念,如平等机会、平等准确性和统计平等,通过现有的约束优化和鲁棒优化技术可以有效地解决结果训练问题,实验表明这些方法具有广泛的适用性和权衡性。
Jun, 2019
本文提出了一种新的学习排序算法 Pareto Pairwise Ranking,该算法不仅在技术准确度方面表现出色,而且在公平性方面是目前 9 种现行算法中最公平的算法。
Dec, 2022
本文提出了一种利用随机排序策略来进行公平学习及考虑排序项影响的通用 LTR 框架,并通过基于政策梯度方法的 Fair-PG-Rank 算法进行优化,可在保持曝光公平性的情况下优化各种效用指标。通过实验结果验证了此方法在个人和集体公平性方面的有效性。
Feb, 2019
我们介绍了一种使用 Expohedron 解决多目标优化问题的方法,该方法能够在用户效用的最大化和生产者之间的不公平性的最小化之间提供 Pareto 最优平衡,并通过识别有限数量的 Pareto 最优解来捕获组公平性和用户效用之间的权衡。我们还提出了在 Expohedron 的外接 $n$-sphere 上放松优化问题的高效方法,从而显著提高了运行时间。
Feb, 2024
在学习排序(LTR)中,为了确保排名结果的后验公平性,提出了一种新的目标函数,通过性能约束来最大化预期相关性。该方法在 LTR 框架中构建了一个组内公平的 Plackett-Luce 模型,并展示了在三个真实数据集上的实验证明了其相比 LTR 基线模型在相关性方面具有更好的公平性和性能。
Aug, 2023
本文提出了一种基于多目标强化学习的公平感知的推荐框架(MoFIR),能够以单参数表示形式学习所有可能偏好的最优推荐策略,并在多个真实推荐数据集上的实验中验证了其在公平指标和推荐度量方面的优越性。
Jan, 2022
本文研究了采用 “点损失 + 对损失” 混合误差度量的点对学习 (PPL) 的泛化性质,通过将算法稳定性的概念扩展到 PPL 设置,建立了均匀稳定 PPL 算法的高概率泛化界,并通过发展对学习的稳定性分析技术,说明了 PPL 的随机梯度下降 (SGD) 和正则化风险最小化 (RRM) 的明确收敛速率。此外,也得到了换成平均稳定性的 PPL 的精细的泛化界限。
Feb, 2023
本研究提出了一种有效的算法,在保持个体公平的情况下,从一组项目中随机抽样出排名,以确保输出排名满足群体公平性限制,同时保证输出排名的期望效用至少是最优公平解的效用的 α 倍,进而实现在线平台的算法公平。
Jun, 2023
我们提出了一种用于后处理排名的随机方法,不需要受保护属性的可用性,通过广泛的数值研究,我们展示了我们的方法在 P-Fairness 和与基线排名的标准化折现累积增益 (NDCG) 方面的稳健性和有效性,并改进了之前提出的方法。
Mar, 2024