该研究提供了一种使用因果推论来处理选择偏差的方法,可实现对推荐系统的评估和训练,并获得实际数据上显着改善的预测效果。
Feb, 2016
本文提供了一个正式的因果分析框架,主要用于调查和统一现有的基于因果思想的推荐方法,并从违反因果分析中采用的假设的角度,提供了推荐系统中各种偏差的正式因果定义以及在 RS 中的很多去偏见和预测任务的正式化分析,希望为因果 RS 社区提供新的研究机会。
Jan, 2022
推荐系统中普遍存在的流行度偏差问题,导致推荐结果集中在热门物品,本文回顾了流行度偏差的潜在原因和现有方法,并批判性地讨论了当前文献的局限性。
Aug, 2023
本研究在合成数据上进行了初步的实验研究,在不同条件下研究推荐系统如何表现出偏见失衡现象以及推荐的长期效果。我们考虑了一种简单的重新排名算法来减少偏见失衡,并对实际数据的数据失衡进行了一些观察。
Nov, 2018
本文研究学术推荐系统中存在的偏见问题,对这些偏见进行分析并提出了缓解偏见及公正评估的方法和框架。同时,讨论相关研究的挑战和方向。
Jan, 2023
基于 risk-discrepancy 的架构能很好的概括现有去偏见策略,并提出一个 meta-learning 算法 AutoDebias 用于训练,通过对两个真实数据集和一个模拟数据集的验证,AutoDebias 证明了其在去偏见方面的有效性。
May, 2021
量化推荐系统中的偏见和偏差是重要的,本文提出了四个度量指标来衡量受时间和敏感用户组影响的推荐系统中的流行度偏差,并展示了这些度量指标综合使用时能够全面了解敏感群体之间的不公平对待逐渐增加的情况。
Oct, 2023
本文为乘用侧公平在推荐系统中的研究提供了系统的概览和讨论,并提出了一种基于高级公平解释的新型分类方法,用于对研究及其提出的公平评价指标进行分类,最后提出了该领域未来的一些方向建议。
May, 2023
本研究提出使用基于概率编程语言的混合公平意识推荐系统,以多个用户 - 用户和物品 - 物品相似性度量、内容和人口统计信息实现高效准确的推荐,同时解决了推荐偏见问题。与最先进的公平推荐系统相比,实验结果表明,我们的模型可以提供更准确、更公平的推荐。
Sep, 2018
本研究通过文献综述和行为分析,对比了基于 GNN 的不同算法和现有方法的偏见影响,并旨在探索最小化模型性能影响的适当解决方案。