研究人员提出了一种重新排名的方法,通过学习多个公平维度的个人偏好,增强了建议结果的公平性。这种方法可以更好地平衡准确性和公平性。
May, 2020
本文提出了一种基于优化的重新排序方法,该方法在联合目标框架中无缝集成了来自消费者和生产者方面的公平性约束,并经过 8 个数据集的大规模实验证明,我们的方法能够提高消费者和生产者的公平性,同时不会降低总体的推荐质量。
Apr, 2022
本文提出了一个通过对抗学习生成独立于特征的用户嵌入来实现反事实公平的框架,从而使推荐系统能够为用户实现个性化的公平性。实验表明,该方法可以为用户生成更加公正且具有良好推荐效果的推荐结果。
May, 2021
近年来,人们越来越认识到,当机器学习算法用于自动化决策时,它们可能会对个人或群体造成不公平待遇,涉及法律、道德或经济方面的问题。本文提出了一个名为 CP-FairRank 的基于优化的重新排序算法,它在综合目标框架中无缝地集成了消费者和生产者双方的公平性约束,具有普适性,并且能够根据群体细分、推荐模型选择和领域的不同情况考虑不同的公平设置,改善消费者和生产者的公平性而不会明显影响整体推荐质量,从而展示算法在避免数据偏见方面的作用。
Feb, 2024
本文旨在介绍确保排名和推荐中的公平性所使用的定义、模型和方法的工具包,提供有关这一新颖、迅速发展和有影响力的领域的坚实框架,将相关方法并置并强调未来工作的开放挑战和研究路径。
Apr, 2021
本文针对在线个性化设置中排名的公平性问题,从公平的机器学习模型开始,探讨了在线个性化如何导致模型不公平,并提出了一种基于正则化的方法来缓解机器学习中的偏差。
Jul, 2020
研究在推荐系统中的公平性问题,提出一种基于用户为导向的公平性重排框架来缓解基于排名的不公平行为,发现不同用户组的定义在算法的有效性和特定排名模型的性能改进方面起到至关重要的作用。
May, 2022
本研究提出使用基于概率编程语言的混合公平意识推荐系统,以多个用户 - 用户和物品 - 物品相似性度量、内容和人口统计信息实现高效准确的推荐,同时解决了推荐偏见问题。与最先进的公平推荐系统相比,实验结果表明,我们的模型可以提供更准确、更公平的推荐。
Sep, 2018
调查了公平推荐系统的现有方法和实践,包括概念,分类,评估和影响,旨在提高推荐系统的可信度、减少偏见和提高公平性,继而促进公平感知型推荐系统的发展。
Jun, 2023
针对用户组公平性和减少性能差异等问题,本文提出了一种动态的 FAir Dynamic rEcommender(FADE)框架,通过精调模型参数以确保用户组公平性和高质量推荐,实验证明 FADE 在减少性能差异和改善推荐质量方面表现出色。
Aug, 2023