XRec: 可解释的推荐系统的大型语言模型
通过使用大型语言模型 (LLMs),我们提出了简单而有效的两阶段解释性推荐框架 LLMXRec,旨在进一步提高解释质量。与大多数现有的基于 LLM 的推荐系统不同,LLMXRec 侧重于先前推荐模型与基于 LLM 的解释生成器之间的紧密协作。通过采用一些关键的微调技术,包括参数高效的指导微调和个性化提示技术,我们能够生成可控且流畅的解释,以实现解释推荐的目标。我们提供了三个不同的角度来评估解释的有效性,并在几个基准推荐模型和公开可用的数据集上进行了大量实验。实验证据不仅在有效性和效率方面取得了积极的结果,还揭示了一些以前未知的结果。为了方便在这个领域的进一步探索,我们开源了完整的代码和详细的原始结果。
Dec, 2023
提出了一种高效的全方位基于语言模型的推荐系统,能够在冷和热场景下表现出卓越的性能,并利用协同知识和高质量用户 / 物品嵌入来生成自然语言输出。
Apr, 2024
通过整合大型语言模型与推荐系统的表示学习,我们提出了一个模型不可知的框架 RLMRec,旨在增强现有的推荐器,并提高其对于用户行为和偏好的语义理解,同时通过交叉视角对齐框架,将 LLM 的语义空间与协同关系信号的表示空间相对应。
Oct, 2023
使用大型语言模型 (LLM) 为基础的生成式推荐 (GenRec) 方法,通过解释上下文、学习用户偏好和生成相关推荐,充分利用大型语言模型编码的丰富知识,为推荐系统带来革命性的潜力和未来发展方向。
Jul, 2023
本文提出使用大型语言模型与 Chat-Rec 范例的对话推荐系统(CRS)来提高传统推荐系统的互动性与可解释性,并演示了其在学习用户喜好和在零样本评级预测任务的表现改进方面具有的有效性。
Mar, 2023
为了提高用户满意度和建立信任,推荐系统内提供解释尤为重要,特别是对为用户定制的推荐物品进行解释。在这个研究领域中,主要方法是生成基于文本的解释,主要侧重于应用大型语言模型(LLMs)。然而,由于时间限制和计算资源限制,对于可解释性推荐来说,细化 LLMs 的工作并不可行。作为替代方案,当前的方法是训练提示而不是 LLMs。在这项研究中,我们开发了一个模型,利用用户和项目输入的 ID 向量作为 GPT-2 的提示。我们在多任务学习框架内使用联合训练机制来优化推荐任务和解释任务。这种策略能更有效地探索用户的兴趣,提高推荐的效果和用户满意度。通过实验,在 Yelp、TripAdvisor 和 Amazon 数据集上,我们的方法在解释能力评估指标上分别达到 1.59 DIV、0.57 USR 和 0.41 FCR,相比于四种现有技术,表现出卓越性能。此外,我们发现所提出的模型能够确保在这三个公共数据集上文本质量的稳定。
Jan, 2024
本文提出了一种新方法 RecXplainer,基于用户对推荐项目属性的偏好生成了更细粒度的推荐解释,并使用真实数据集进行了实验进行了评估,结果表明 RecXplainer 能够更好地捕捉用户的喜好,并且相比六种基线方法,RecXplainer 在提供推荐解释方面有更显著的效果。此外,作者还提出了十种新的推荐解释评估度量标准。
Nov, 2022
使用大型语言模型作为替代模型,模仿和理解目标推荐系统模型的行为,利用三种对齐方法,即行为对齐、意图对齐和混合对齐,在语言和潜在空间进行对齐训练,从而实现了高度可信的推荐解释生成。
Nov, 2023
通过使用充满协作语义的交互图,我们提出了一种名为 GAL-Rec 的方法,通过模仿图神经网络(GNNs)的意图来提高语言模型驱动的推荐模型对用户 - 物品协作语义的理解能力,从而充分利用大型语言模型的学习能力,独立解决推荐系统中的复杂图形,实验证明 GAL-Rec 显著增强了协作语义的理解能力,并提高了推荐性能。
Jun, 2024
最近几年,推荐系统 (Recommender Systems) 在自然语言处理 (Natural Language Processing) 领域迎来了巨大的变革,得益于大型语言模型 (Large Language Models) 的出现。这些模型,如 OpenAI 的 GPT-3.5/4 和 Meta 的 Llama,在理解和生成类似人类的文本方面展示了前所未有的能力,从而在个性化和可解释性推荐领域引发了范式转变,因为大型语言模型提供了处理大量文本数据以增强用户体验的多功能工具集。为了全面了解现有的基于大型语言模型的推荐系统,本综述旨在分析推荐系统如何从大型语言模型的方法中受益。此外,我们还描述了个性化解释生成 (Personalized Explanation Generating) 任务中的主要挑战,包括冷启动问题、公平性和偏见问题。
Nov, 2023