推荐作为指令跟随: 一个拥有大型语言模型的推荐方法
使用大型语言模型作为替代模型,模仿和理解目标推荐系统模型的行为,利用三种对齐方法,即行为对齐、意图对齐和混合对齐,在语言和潜在空间进行对齐训练,从而实现了高度可信的推荐解释生成。
Nov, 2023
本文概论了基于大型语言模型的推荐系统,提出了两种主要类型(分别为判别型 LLM 推荐 DLLM4Rec 和生成型 LLM 推荐 GLLM4Rec),分别从方法、技术和性能等方面对现有的 LLM 推荐系统进行了系统的分类和评估,并指出了主要挑战和有价值的发现。
May, 2023
大规模语言模型(LLMs)在重新塑造推荐系统中的重要性得到强调,将其价值归因于传统推荐系统中缺乏的独特推理能力。与缺乏直接用户交互数据的传统系统不同,LLMs 在推荐物品方面表现出卓越的熟练度,展示了其理解语言细微差别的能力,这标志着推荐领域的一个基本范式转变。在充满活力的研究领域中,研究人员积极利用 LLMs 的语言理解和生成能力重新定义推荐任务的基础。本文详细探讨了 LLMs 在推荐框架中的固有优势,包括细微的语境理解、在不同领域之间无缝切换、采用统一的方法、利用共享数据库的全面学习策略、透明的决策制定和迭代改进。尽管具有改变潜力,但仍存在挑战,包括对输入提示的敏感性、偶尔的误解以及意外的推荐,这需要对 LLM 驱动的推荐系统进行持续的完善和演进。
Feb, 2024
借助大型语言模型(LLMs)预训练的能力来提升推荐系统的性能,采用 LLMs 作为物品编码器,通过 LEARN 框架将开放世界知识与协同知识相结合,以解决冷启动和长尾用户推荐中的性能问题。
May, 2024
为了提高用户满意度和建立信任,推荐系统内提供解释尤为重要,特别是对为用户定制的推荐物品进行解释。在这个研究领域中,主要方法是生成基于文本的解释,主要侧重于应用大型语言模型(LLMs)。然而,由于时间限制和计算资源限制,对于可解释性推荐来说,细化 LLMs 的工作并不可行。作为替代方案,当前的方法是训练提示而不是 LLMs。在这项研究中,我们开发了一个模型,利用用户和项目输入的 ID 向量作为 GPT-2 的提示。我们在多任务学习框架内使用联合训练机制来优化推荐任务和解释任务。这种策略能更有效地探索用户的兴趣,提高推荐的效果和用户满意度。通过实验,在 Yelp、TripAdvisor 和 Amazon 数据集上,我们的方法在解释能力评估指标上分别达到 1.59 DIV、0.57 USR 和 0.41 FCR,相比于四种现有技术,表现出卓越性能。此外,我们发现所提出的模型能够确保在这三个公共数据集上文本质量的稳定。
Jan, 2024
最近几年,推荐系统 (Recommender Systems) 在自然语言处理 (Natural Language Processing) 领域迎来了巨大的变革,得益于大型语言模型 (Large Language Models) 的出现。这些模型,如 OpenAI 的 GPT-3.5/4 和 Meta 的 Llama,在理解和生成类似人类的文本方面展示了前所未有的能力,从而在个性化和可解释性推荐领域引发了范式转变,因为大型语言模型提供了处理大量文本数据以增强用户体验的多功能工具集。为了全面了解现有的基于大型语言模型的推荐系统,本综述旨在分析推荐系统如何从大型语言模型的方法中受益。此外,我们还描述了个性化解释生成 (Personalized Explanation Generating) 任务中的主要挑战,包括冷启动问题、公平性和偏见问题。
Nov, 2023
电子商务和网络应用的蓬勃发展使得推荐系统成为我们日常生活中重要的一部分,但是现有基于深度神经网络的方法在理解用户兴趣、捕捉文本信息以及推广到不同场景等方面仍存在限制。近期的研究借助大型语言模型的崛起旨在改进推荐系统,本文系统回顾了已有的大型语言模型驱动的推荐系统,介绍了使用大型语言模型作为特征编码器学习用户和物品表示的方法以及在预训练、微调和提示等三个范式下的最新进展,并对这一新兴领域的未来方向进行了全面的讨论。
Mar, 2024
通过使用 Item-Language Model(ILM) ,我们提出了一种解决当前推荐系统方法中所面临的关键问题的方法,该方法既可以对用户交互信号进行编码,也可以利用预训练的 Large-language Models(LLMs)处理这些编码。
Jun, 2024