SumRec:一个使用开放领域对话的推荐框架
本文提出使用大型语言模型与 Chat-Rec 范例的对话推荐系统(CRS)来提高传统推荐系统的互动性与可解释性,并演示了其在学习用户喜好和在零样本评级预测任务的表现改进方面具有的有效性。
Mar, 2023
本研究提出了一种新的集成推荐和对话生成的统一框架来解决对话推荐系统中资源匮乏和一般性问题,使用大规模预训练语言模型可以生成流利和多样的回复,并利用基于实体导向知识图的知识感知偏差来增强推荐性能。模型实验表明,RecInDial 模型明显优于现有技术水平。
Oct, 2021
对话式推荐系统必须理解用户偏好和意图的丰富多样的自然语言表达,而这些表达通常以间接方式传达(例如:“我在控制体重”)。这些复杂的话语使得检索相关物品变得具有挑战性,尤其是当只使用通常不完整或过时的元数据时。幸运的是,许多领域都有丰富的商品评价,这些评价涵盖标准的元数据类别并提供与用户兴趣相匹配的复杂意见(例如:“适合约会的高档场所”)。然而,直到最近,大尺度语言模型让我们能够揭示用户偏好表达和用户生成评价之间的常识联系。进一步而言,大尺度语言模型还能够实现半结构化对话状态跟踪、复杂意图和偏好理解,以及生成推荐、解释和问题回答等新颖范式。因此,我们引入了一种名为 RA-Rec 的新技术,一种以大尺度语言模型为驱动的检索增强型对话状态跟踪系统,用视频、开源 GitHub 存储库和可交互的 Google Colab 笔记本展示了这项技术。
May, 2024
使用大型语言模型递归生成摘要 / 记忆,从而提高长期记忆能力,进而解决开放领域对话系统中遗忘重要信息的问题。实验证明,该方法可以在长对话环境中生成更加一致的回应。
Aug, 2023
通过捕获用户在网站上导航过程中的高频截图,利用多模态大型语言模型(MLLM)从这些截图中提取用户偏好的有价值洞察,基于预定义的关键词生成用户行为摘要,并将该摘要作为输入传递给 LLM 综合优化设置,从而产生量身定制的推荐,我们的实验证明了 InteraRec 在提供有价值和个性化的优惠方面的有效性。
Feb, 2024
本文研究了在开放式对话系统中将相关信息作为上下文的问题,并提出了一种替换上下文部分的简易方法以增加模型跟踪先前相关信息的能力,以期提高答案生成任务的效果。
Oct, 2022
本文提出了一种基于 BART 的统一框架,针对面向对话推荐的两个任务(推荐和响应生成)设计了单一模型,另外还构建了一个电影领域的轻量级知识图谱,在自动化和人类评估方面都取得了最先进的表现。
Mar, 2022
本研究提出了一种新颖的端到端框架,即评论增强的会话推荐器(RevCore),其中外部信息(例如评论)被无缝地整合以丰富物品信息并协助生成连贯和信息丰富的响应。
Jun, 2021
该论文探讨了从上下文中提取内部知识来进行个性化推荐的方法,包括实体级别和上下文级别的表示,以及一个时间感知关注机制和使用预训练的 BART 模型来初始化生成模块,结果表明这种方法在多种数据集上的表现优于使用更多外部领域特定知识的方法,并且具有诸多优点和适用场景。
Sep, 2022
本文提出了一种 IR 式方法,将对话表示为查询,将物品表示为待检索的文档,扩展了用于检索的文档表示,并使用 BM25 检索器进行比较,证明了该方法比使用复杂外部知识的基线模型效果好,同时通过用户中心建模和数据增强来解决 CRS 的冷启动问题。
May, 2023