推荐系统中的过滤气泡:事实还是谬见 —— 系统性综述
在这项研究中,我们通过在中国一家顶级短视频平台的一年交互数据,对 “深度” 筛选气泡进行了调查,该平台包括每个视频的三级类别的层次数据,我们对这种情况下的 “深度” 筛选气泡进行了形式化定义,然后在数据中探索了各种相关性,首先了解了深度筛选气泡随时间的演变,然后揭示了导致该现象的一些因素,如特定类别、用户人口统计数据和反馈类型。我们观察到,尽管筛选气泡中用户的整体比例随时间基本保持不变,但其筛选气泡的深度构成会发生变化。此外,我们发现一些具有更大可能性看到较狭窄内容和隐性反馈信号的人口群体会导致较少的筛选气泡形成。最后,我们提出了一些减少用户陷入气泡风险的推荐系统设计方法。
Mar, 2024
该研究旨在研究信息过滤泡沫如何产生及如何消除,通过观察预先编程的代理在 YouTube 上观看不实信息宣传内容,然后通过观看辟谣信息以达到平衡推荐结果,结果表明推翻过滤泡沫在不同话题上表现不一,有时也不会表现出真正的过滤泡沫;然而,尽管 YouTube 作出了最近的承诺,但仍未发现太多消除不实信息的改进。
Mar, 2022
本研究探讨了机器学习在推荐系统中的应用,分析了用户动态和推荐系统行为对 “回声室” 和 “筛选气泡” 现象的影响及其解决方案。该研究有助于理解和解决该领域仍然存在的复杂时间情景及其常见问题。
Feb, 2019
本文介绍了一种基于 sock puppet 审计方法的调查研究,旨在研究用户观看不实信息内容时进入误导过滤 “气泡” 的速度以及如何破解这一 “气泡” 封闭。通过人工和机器学习模型对 17,405 个不同视频进行筛选和分类,发现观看反驳错误信息的视频可以破解 “气泡” 效应,但这一效应在不同主题下表现不一致,并且视频推荐十分依赖上下文。
Oct, 2022
本研究从用户可控性的角度,通过可达性理论,提出了一种用于检测顶部线性推荐模型的计算有效的审核方法,并描述了模型复杂度与用户控制推荐工作的关系,同时探讨了使用领先的电影评级数据集训练的现有模型的实证调查。
Dec, 2019
评估推荐系统的系统性误差、刻板印象和校准问题,并提出了一种统一框架来衡量系统引起的效应,研究发现简单算法生成的推荐结果更符合刻板印象但偏差较小,而较复杂算法产生的推荐则存在更大的偏差,进而影响到非典型用户和少数群体,通过过采样来减少刻板印象和提高推荐质量具有改善系统引起效应的潜力。
Dec, 2023