这篇论文讨论了无偏学习排名(LTR)中的两种方法论:对联合 LTR 和在线 LTR,介绍了它们的差异和对用户体验和学习的影响,并提供了选择适当方法的实践指南。
Jul, 2019
通过对因果推断框架的提出,使用倾向权重排序支持向量机从隐式反馈学习,消除了数据偏差问题,取得了更好的结果。
Aug, 2016
本研究对 LTR 领域的两种方法进行了第一次直接比较。研究结果表明,这两种方法在不同实验条件下性能存在显著差异,对于选择哪一种方法,需要考虑选择偏差、位置偏差和交互噪声的程度。
通过介入感知估计器建议一种优化基于用户交互的排名系统的新方法,以消除位置偏差、信任偏差和项目选择偏差。实验结果表明,相比现有方法,该新方法可以更有效地受益于在线干预。
Dec, 2020
本文介绍了一种在不涉及人工参照或限制相关性建模假设的前提下,从历史反馈日志中收集一种特定类型的干预数据并使用极值估计器以获得一致倾向性估计的方法,该方法在 Arxiv 全文搜索和谷歌 Drive 搜索等两个实际系统中提供了更好的倾向性估计。
Dec, 2018
本文介绍的计数事实学习 (LTR) 方法,使用包含交互偏差的已记录的用户交互来优化排名系统,通过引入一种新的策略感知的计数事实估计器,该方法可以适应随机记录策略的影响。同时,本文中还提出了一些传统 LTR 方法的新扩展方法,用于执行计数事实 LTR 并优化 top-k 评估指标,这些贡献介绍了首个可以应用于搜索和推荐中的非偏置 LTR 方法。
May, 2020
该研究提供了一种使用因果推论来处理选择偏差的方法,可实现对推荐系统的评估和训练,并获得实际数据上显着改善的预测效果。
Feb, 2016
通过处理搜索结果展示方式,消除展示偏见获取更客观的用户隐式反馈,取得更佳的排序效果。
May, 2006
研究了点击偏见与信任偏见的存在,提出了一种基于仿射修正的估算器,该估算器是目前唯一被证明能够去除二者影响的,并利用半合成实验证明在消除这些偏见的情况下,CLTR 可以更接近最佳排名系统。
Aug, 2020
在线学习排序的领域,Bayesian ranking bandit algorithms 已被证明可以使用先前的知识来提高效能。本文提出并分析了自适应的算法,解决了现有工作需要匹配真实先验的主要局限性,并将这些结果扩展到线性和广义线性模型。此外,我们还考虑点击反馈措施,并通过合成和现实世界实验证明了我们算法的有效性。
Jan, 2023