我们提出了一种基于循环神经网络 (RNN) 的会话推荐方法,考虑到实际问题和数据缺乏的情况,并引入了一些修改,如排序损失函数。实验结果表明,与广泛使用的方法相比,我们的方法在两个数据集上都有明显的改进。
Nov, 2015
本文提出了一种扩展 RNN 推荐系统的方法,通过使用第二个 RNN 学习用户最近的会话并预测当前会话中的用户兴趣,以改善在 Seesion 开始时提供的推荐,实验证明该方法可以显著提高推荐性能。
Jun, 2017
本研究探讨使用循环神经网络 (RNNs) 进行基于会话的推荐任务,并提出了数据增强和考虑输入数据分布变化的方法,同时通过实验证明使用通用蒸馏和直接预测项目嵌入的新模型相对于传统模型在 RecSys Challenge 2015 数据集上分别在 Recall@20 和 Mean Reciprocal Rank@20 指标上改进了 12.8% 和 14.8%。
Jun, 2016
本文研究在基于会话的推荐系统中,如何通过跨会话信息传递的层次循环神经网络模型,实现对用户兴趣的个性化推荐,数据实验表明该方法优于单纯使用基于会话的神经网络推荐方法。
我们提出了一种新的上下文递归神经网络,可以在输入和输出层中考虑相关信息,将上下文嵌入与项目嵌入相结合,并在模型动态性中将隐藏单元转换参数化为上下文信息的函数,从而在下一事件预测任务上显示出良好的提高效果。
本文提出一种将协同过滤视为序列预测问题的解决方案,应用了循环神经网络中的 LSTM 模型,并将其与标准的最近邻和矩阵分解方法在电影推荐方面进行了比较,表明 LSTM 在项目覆盖和短期预测方面具有竞争力,大大优于其他方法。
Aug, 2016
该研究介绍了针对会话推荐的 RNN 模型的新型排名损失函数,与其他方法相比,这些损失函数表现出更好的性能,并且可以通过进一步细化和改进,实现相对于先前的 RNN 解决方案提高了 35% 的 MRR 和 Recall @20,比经典的协作过滤方法提高了 53% 的性能。
本文介绍了基于深度学习的推荐系统方法,特别是基于循环神经网络、transformers 和 attention 机制的方法。通过多次实验和改进 Neural Attentive Recommendation Machine (NARM),我们的研究表明优化后的 NARM 是所有现有基准方法中表现最好的。
Mar, 2021
本文对于近三十年来产生和实践了重要的循环神经网络(RNN),LSTM 和 BRNN 等模型的研究进行综述,旨在提供一个自成体系的最前沿阐述和历史视角,并引用了相关研究文献。
May, 2015
本研究提出了一个利用用户评论的神经序列推荐模型,以考虑长期偏好和短期时序,通过使用评论提取方面感知表示来编码每个用户或项目,并在联合级别和个人级别上采用新颖的分层注意力机制来捕捉顺序模式,并在三个真实世界数据集上取得显着的性能改进。
Jul, 2019