CoRAL:协作检索增强大型语言模型改进长尾推荐
本文提出了一种名为 PALR 的新框架,旨在将用户历史行为与大型语言模型相结合,生成用户喜欢的商品。实验结果表明,与现有方法相比,我们的解决方案在各种连续推荐任务上表现优异。
May, 2023
我们提出了一种名为 ReLLa 的新框架,即检索增强的大型语言模型,用于零样本和少样本推荐任务,通过语义用户行为检索和检索增强指导调优技术,提高了大型语言模型在推荐系统中的推荐性能和对用户行为序列的理解能力。
Aug, 2023
通过使用充满协作语义的交互图,我们提出了一种名为 GAL-Rec 的方法,通过模仿图神经网络(GNNs)的意图来提高语言模型驱动的推荐模型对用户 - 物品协作语义的理解能力,从而充分利用大型语言模型的学习能力,独立解决推荐系统中的复杂图形,实验证明 GAL-Rec 显著增强了协作语义的理解能力,并提高了推荐性能。
Jun, 2024
研究通过引入大型语言模型增强顺序推荐系统的性能,以应对长尾用户和长尾商品的挑战,并提出了融合语义信息和协同信号的双视图建模方法来解决这些问题。同时,通过使用检索增强的自蒸馏技术,对用户偏好表示进行改进。实验证明,所提出的增强框架相比现有方法表现更优。
May, 2024
通过提出一种名为增强检索增强机器学习(RRAML)的新型框架,将大型语言模型的推理能力与用户提供的数据库中的检索信息相结合,有效地解决了 API 文本输入的上下文限制和外部数据源可用性的局限性。
Jul, 2023
提出了一种高效的全方位基于语言模型的推荐系统,能够在冷和热场景下表现出卓越的性能,并利用协同知识和高质量用户 / 物品嵌入来生成自然语言输出。
Apr, 2024
通过整合精细调整的大型语言模型与具有逻辑推理、规划和交互式约束求解能力的强大符号推理引擎,本研究介绍了 Cora,一个基于神经符号人工智能平台构建的协作研究助手,该助手旨在高风险领域执行复杂的研究和探索任务。本研究讨论了此类领域中的多步推理挑战,批评了现有的基于大型语言模型的方法的局限性,并展示了 Cora 的神经符号方法如何有效应对这些问题。我们提供了系统架构概述、知识提取和形式推理的关键算法,并展示了初步评估结果,突显了 Cora 与知名的大型语言模型和 RAG 方法相比的优越性能。
Jun, 2024
我们提出了 SLCoLM 模型协作框架,通过任务特定的预训练语言模型作为导师,将任务知识传递给大型语言模型,并在关系提取任务中进行指导,从而缓解了数据长尾问题。实验结果表明,本论文中的方法有助于提取长尾关系类型的关系提取任务。
Feb, 2024
借助大型语言模型(LLMs)预训练的能力来提升推荐系统的性能,采用 LLMs 作为物品编码器,通过 LEARN 框架将开放世界知识与协同知识相结合,以解决冷启动和长尾用户推荐中的性能问题。
May, 2024
R-LLMs improve factual question-answering by combining pre-trained large language models with retrieval systems; RaLLe is an open-source framework that facilitates the development, evaluation, and optimization of R-LLMs for knowledge-intensive tasks, enhancing performance and accuracy.
Aug, 2023