本研究提出了一套度量算法公平性关注的新型指标,基于随机实验的成对比较来衡量公平性,建立了新的规则化器,促进了模型训练和推荐系统的公平性。
Mar, 2019
研究人员提出了一种重新排名的方法,通过学习多个公平维度的个人偏好,增强了建议结果的公平性。这种方法可以更好地平衡准确性和公平性。
May, 2020
本文提出了一种基于优化的重新排序方法,该方法在联合目标框架中无缝集成了来自消费者和生产者方面的公平性约束,并经过 8 个数据集的大规模实验证明,我们的方法能够提高消费者和生产者的公平性,同时不会降低总体的推荐质量。
Apr, 2022
本文针对 Bayesian Personalized Ranking 模型的黑箱模型、暴露偏差等两个局限进行改进,提出一种新的可解释且公平的推荐模型 Explainable Bayesian Personalized Ranking,并在三个真实世界数据集上进行了实证研究。
Jul, 2021
我们提出了针对排名模型和回归模型的成对公平度量标准,这些标准类似于统计公平概念,如平等机会、平等准确性和统计平等,通过现有的约束优化和鲁棒优化技术可以有效地解决结果训练问题,实验表明这些方法具有广泛的适用性和权衡性。
Jun, 2019
本篇研究提出了一种考虑到用户、排名质量和供应商公平性的新型推荐算法 FRA,在实验中,该算法在牺牲一定精度的情况下,有效提升了推荐系统的公平性,并考虑到了个体用户的偏好。
Sep, 2018
本文旨在介绍确保排名和推荐中的公平性所使用的定义、模型和方法的工具包,提供有关这一新颖、迅速发展和有影响力的领域的坚实框架,将相关方法并置并强调未来工作的开放挑战和研究路径。
Apr, 2021
本文提出了一种利用随机排序策略来进行公平学习及考虑排序项影响的通用 LTR 框架,并通过基于政策梯度方法的 Fair-PG-Rank 算法进行优化,可在保持曝光公平性的情况下优化各种效用指标。通过实验结果验证了此方法在个人和集体公平性方面的有效性。
Feb, 2019
本文提出了一个名为交叉成对排序(CPR)的新学习范式,它在不了解暴露机制的情况下实现了无偏推荐,相比现有的去偏方法具有更好的模型泛化和训练效率。
近年来,人们越来越认识到,当机器学习算法用于自动化决策时,它们可能会对个人或群体造成不公平待遇,涉及法律、道德或经济方面的问题。本文提出了一个名为 CP-FairRank 的基于优化的重新排序算法,它在综合目标框架中无缝地集成了消费者和生产者双方的公平性约束,具有普适性,并且能够根据群体细分、推荐模型选择和领域的不同情况考虑不同的公平设置,改善消费者和生产者的公平性而不会明显影响整体推荐质量,从而展示算法在避免数据偏见方面的作用。
Feb, 2024