本文提出了一种理论上保证的模型无关均衡方法,该方法可以针对现有的去偏差方法进行应用,以抵抗未观测到的混淆和模型错误,并通过交替校正学习偏差数据的模型参数,以自适应学习平衡系数,充分利用无偏数据。在实际应用中,该方法证明了其有效性。
Apr, 2023
基于 risk-discrepancy 的架构能很好的概括现有去偏见策略,并提出一个 meta-learning 算法 AutoDebias 用于训练,通过对两个真实数据集和一个模拟数据集的验证,AutoDebias 证明了其在去偏见方面的有效性。
May, 2021
本文系统概要总结研究论文中七种推荐偏差类型及其特点、定义,提供分类学和组织现有关于推荐去偏差的工作,并确定一些开放式挑战和未来方向。
Oct, 2020
本论文提出了一种基于逆倾向评分技术的无偏学习框架,以解决推荐系统中的因果效应问题。通过构建无偏估计器和进行经验风险最小化,该框架可以有效地提高有限训练样本下的方差,从而开发出一种基于无偏学习方法的因果效应扩展排序度量方法。该方法在各种设置下的性能均优于其他有偏学习方法。
Aug, 2020
通过训练泛域用户 - 物品交互数据,我们提出了一个适应性泛型推荐系统,该系统能够捕捉通用交互模式,并能在不同领域中快速适应以提高零样本和少样本学习性能。然而,不同领域的推荐数据存在域内和跨域偏差,我们通过引入因果去偏视角和预测模型 PreRec 有效克服了这一挑战,实证结果表明在跨市场和跨平台场景下,该模型能显著提升推荐性能。
Oct, 2023
研究偏见数据训练中的偏差的缓解方法,分析多种方法在不同数据条件下的性能表现,发现仅基于标准数据集进行评估的公平性研究实践存在局限性。
Oct, 2022
本研究在合成数据上进行了初步的实验研究,在不同条件下研究推荐系统如何表现出偏见失衡现象以及推荐的长期效果。我们考虑了一种简单的重新排名算法来减少偏见失衡,并对实际数据的数据失衡进行了一些观察。
Nov, 2018
该研究考虑推荐系统中的不同偏差对算法性能的影响,提出新的反事实方法以解决位置和选择偏差,实验证明这些方法对噪声更具鲁棒性并具有更高精确度。
Jan, 2020
本研究提出使用基于概率编程语言的混合公平意识推荐系统,以多个用户 - 用户和物品 - 物品相似性度量、内容和人口统计信息实现高效准确的推荐,同时解决了推荐偏见问题。与最先进的公平推荐系统相比,实验结果表明,我们的模型可以提供更准确、更公平的推荐。
Sep, 2018
本文提供了一个正式的因果分析框架,主要用于调查和统一现有的基于因果思想的推荐方法,并从违反因果分析中采用的假设的角度,提供了推荐系统中各种偏差的正式因果定义以及在 RS 中的很多去偏见和预测任务的正式化分析,希望为因果 RS 社区提供新的研究机会。
Jan, 2022