自监督强化学习用于推荐系统
本研究提出了一种负采样策略,称为 Supervised Negative Q-learning,用于强化学习组件的训练,并将其与监督式的序列学习相结合,从而解决了强化学习在推荐系统中应用时遇到的问题。实验表明,此方法在两个真实数据集上的表现优于现有的监督式方法和自我监督式的强化学习方法。
Nov, 2021
通过提出一种名为模型增强对比强化学习(MCRL)的新型强化学习推荐器,我们解决了离线数据集的稀疏性以及负反馈无法获取的问题,并通过对比学习来优化奖励函数和状态转移函数,实验结果表明该方法在两个现实世界数据集上显著优于现有的离线强化学习和自监督强化学习方法。
Oct, 2023
本研究探讨了基于关注度的序列推荐方法,将强化学习算法与序列建模相结合,并通过对比度目标和负采样策略来训练强化学习组件,以增加推荐系统的个性化反馈。同时,我们提出了一种增强方法,以应对真实数据集中可能出现的潜在不稳定性问题,进一步提高模型效率。
May, 2023
本文对基于强化学习的推荐系统进行了综述,提出了一个 RLRS 框架,包括状态表示,策略优化,奖励制定和环境构建,并针对 RLRS 算法进行了调查,强调出现的主题并展示了各种图表。
Jan, 2021
本文提出一种通过模型驱动的增强学习方法来不断优化推荐策略的推荐系统,将用户与推荐系统之间的交互建模为马尔可夫决策过程,并通过在线用户 - 代理交互环境模拟器来预训练和评估模型参数,进一步提出了一种将列表式推荐纳入推荐系统的实验方法,并在真实世界的电子商务数据集上验证了该方法的有效性。
Dec, 2017
本研究提出了一个基于深度增强学习的新型推荐框架,称为 DRR,它将推荐视为一种顺序决策过程,并采用 “Actor-Critic” 增强学习方案来模拟用户与推荐系统之间的交互,同时考虑动态适应和长期回报,经过四个真实数据集的广泛实验,证明了 DRR 方法确实优于现有的竞争对手。
Oct, 2018
通过利用大型语言模型(LLMs)模拟人类行为,本研究提出了一个综合框架,用于训练基于强化学习(RL)的推荐系统,并提供了深入的消融研究,通过电影和书籍推荐实验证明了其有效性。
Jun, 2024
本文提出一种基于监督强化学习和循环神经网络的动态治疗建议系统,用于处理医疗记录中的复杂关系和部分观测问题,实验结果表明该系统能够有效减少患者死亡率和提高医疗建议的准确性。
Jul, 2018
该论文提出了一种新颖的基于生成对抗网络的强化学习框架,以解决在推荐系统中无法明确定义环境奖励函数和动态环境的应用挑战,使用该框架开发了一个用户模型作为仿真环境,开发了一种新颖的 Cascading DQN 算法来获得一个组合推荐策略,实验证明这个生成对抗用户模型可以更好地解释用户行为,并且基于该模型的 RL 策略能够为用户带来更好的长期回报和系统的点击率。
Dec, 2018
该论文研究了在在线环境中无需探索的情况下,从已记录的反馈中学习互动推荐系统的问题,并提出了一种通用的离线强化学习框架用于推荐,可以通过最大化累积用户奖励来解决问题。为了更有效地进行离线学习,我们提出了五种方法来最小化记录策略和推荐策略之间的分布不匹配:支持约束、监督正则化、策略约束、双重约束和奖励外推。我们在两个公开的现实世界数据集上进行了广泛的实验,证明了所提出的方法在推荐方面相对于现有的监督学习和强化学习方法具有优越的性能。
Oct, 2023