基于端到端学习的推荐意图聚类
介绍 Intent Contrastive Learning(ICL)的方法,该方法是一个通用的学习范式,将潜在的用户意图变量纳入 SR 模型,通过自监督学习(SSL)来优化模型并改善模型的鲁棒性。在四个真实数据集上的实验表明,该学习范式的性能超越了传统方法,同时提高了模型的稳健性。
Feb, 2022
我们提出了一种基于多意图解缠的对比学习序列推荐方法(MIDCL),通过识别动态多样的意图,针对用户行为进行推荐,实现了超越大多数现有基准方法的性能,并为基于意图的预测和推荐研究带来了更可解释的案例。
Apr, 2024
本文介绍了一种应用图神经网络和对比学习框架来提取用户偏好的新方法,该方法结合了软聚类架构,极大地减少了推断过程的计算成本,实验表明该模型能以低计算成本学习用户偏好,并具有较高的准确性,我们将其称为 EfficientRec。
Jan, 2024
提出了一种用于顺序推荐的对比学习多任务模型 CL4SRec,在传统的下一个项目预测任务的基础上,从原始用户行为序列中提取更有意义的用户模式,并进一步有效地编码用户表示,通过构建自我监督信号和数据增强等手段,来解决数据稀疏性和参数优化问题,并在四个公共数据集上实现了业界领先的性能。
Oct, 2020
通过利用自我监督的推荐算法,本文提出了一种名为 RecDCL 的方法,它采用对比学习,解决了数据稀疏性和特征维度的问题,并在推荐任务中取得了优于现有模型的效果。
Jan, 2024
本研究提出一种新的意图发现方法,通过多任务预训练和对比损失优化聚类来学习语义表述以扩展对话系统中支持的意图类别。实验结果表明,该方法在半监督和无监督场景下均优于现有方法。
May, 2022
通过整合大型语言模型与推荐系统的表示学习,我们提出了一个模型不可知的框架 RLMRec,旨在增强现有的推荐器,并提高其对于用户行为和偏好的语义理解,同时通过交叉视角对齐框架,将 LLM 的语义空间与协同关系信号的表示空间相对应。
Oct, 2023
本研究提出了 Retrieval for In-Context Learning (RetICL),一种可学习的方法,用于模拟和最佳选择逐个该如何为 in-context learning 选择任务例子。它将顺序示例选择问题作为马尔可夫决策过程,使用 LSTM 设计示例检索器模型,并使用 PPO 进行训练。我们在数学问题求解数据集上验证了 RetICL,表明它优于启发式和可学习的基线,并在 TabMWP 数据集上实现了最先进的准确性。我们还使用案例研究展示了 RetICL 隐含学习了数学问题求解策略的表示方式。
May, 2023
多行为推荐通过基于用户的多样行为(如浏览、加入购物车和购买)提供更准确的选择来优化用户体验。本研究提出一种新颖模型:基于知识感知的多意图对比学习模型(KAMCL),利用知识图谱中的关系构建意图,从意图角度挖掘用户多行为之间的关联,并通过对比学习方案缓解数据稀缺问题,进一步增强用户表示。对三个真实数据集进行广泛实验证明了我们模型的优越性。
Apr, 2024