推荐系统中的长期公平性
近年来,人们越来越认识到,当机器学习算法用于自动化决策时,它们可能会对个人或群体造成不公平待遇,涉及法律、道德或经济方面的问题。本文提出了一个名为 CP-FairRank 的基于优化的重新排序算法,它在综合目标框架中无缝地集成了消费者和生产者双方的公平性约束,具有普适性,并且能够根据群体细分、推荐模型选择和领域的不同情况考虑不同的公平设置,改善消费者和生产者的公平性而不会明显影响整体推荐质量,从而展示算法在避免数据偏见方面的作用。
Feb, 2024
本文提出了一种基于优化的重新排序方法,该方法在联合目标框架中无缝集成了来自消费者和生产者方面的公平性约束,并经过 8 个数据集的大规模实验证明,我们的方法能够提高消费者和生产者的公平性,同时不会降低总体的推荐质量。
Apr, 2022
在个性化推荐背景下的算法公平性面临着与分类任务中不同的挑战。本文提出了一种多人利益相关社会选择问题的形式化模型,将推荐公平性表述为一个分配和聚合问题的结合,并提出了一些新的推荐技术。
Mar, 2023
针对用户组公平性和减少性能差异等问题,本文提出了一种动态的 FAir Dynamic rEcommender(FADE)框架,通过精调模型参数以确保用户组公平性和高质量推荐,实验证明 FADE 在减少性能差异和改善推荐质量方面表现出色。
Aug, 2023
通过引入一个名为 LoTFair 的在线算法,本研究提出了一个框架,用于在具有时间变化公平性约束的动态决策系统中确保长期公平性。研究证明,LoTFair 可以在保持长期性能的同时,使整体公平性违规变得微不足道。
Jan, 2024
本研究提出使用基于概率编程语言的混合公平意识推荐系统,以多个用户 - 用户和物品 - 物品相似性度量、内容和人口统计信息实现高效准确的推荐,同时解决了推荐偏见问题。与最先进的公平推荐系统相比,实验结果表明,我们的模型可以提供更准确、更公平的推荐。
Sep, 2018
本文为乘用侧公平在推荐系统中的研究提供了系统的概览和讨论,并提出了一种基于高级公平解释的新型分类方法,用于对研究及其提出的公平评价指标进行分类,最后提出了该领域未来的一些方向建议。
May, 2023
本文提出了一个通过对抗学习生成独立于特征的用户嵌入来实现反事实公平的框架,从而使推荐系统能够为用户实现个性化的公平性。实验表明,该方法可以为用户生成更加公正且具有良好推荐效果的推荐结果。
May, 2021
本文提出了一种基于多目标强化学习的公平感知的推荐框架(MoFIR),能够以单参数表示形式学习所有可能偏好的最优推荐策略,并在多个真实推荐数据集上的实验中验证了其在公平指标和推荐度量方面的优越性。
Jan, 2022