图谱与LLM相遇:用于强健会话理解的新型协同过滤方法
本研究提出了一种自学习系统,使用用户-系统交互反馈信号自动纠正对话式人工智能系统中出现的各种组件错误,并通过吸收马尔可夫链模型挖掘这些反馈信号中的共同模式,进行可扩展的改进,实现了大规模对话式人工智能系统的自主学习,能显著降低过多次错误和缺陷。
Nov, 2019
这篇文章旨在通过大型语言模型对用户活动进行细致和透彻的理解,从而提高推荐平台上用户的个性化体验和更深层次的理解。通过提取兴趣轨迹并通过大型语言模型进行描述,我们证明了这种方法可以为用户提供深入、可解释和可控的理解,为用户体验提供新的可能性。
May, 2023
本文提出了一种使用大语言模型的通用交互式查询重写框架,旨在提高透明性和意图理解能力,并改变传统的意图理解方法;在初步实验的支撑下,通过自然语言表达、交互和推理机器意图,取得了显著的排序性能提升。
Jun, 2023
通过利用大型语言模型作为查询重写器,并结合精心设计的指令,我们定义了四个重写的关键属性,提出了基于大型语言模型的查询重写方法。我们还介绍了LLMs的重写能力的提炼,并采用“先重写后编辑”的方法来处理初始查询重写。实验结果在QReCC数据集上表明,信息丰富的查询重写可以显著提高检索性能,特别是在检索器稀疏的情况下。
Oct, 2023
通过RetPO框架,使用Retrievers' Feedback构建了一个大规模数据集,属于对话语境下的问题重述,并通过该数据集对较小的语言模型进行了微调,从而在两个最新的对话式搜索基准测试中实现了最新、显著超越包括GPT-3.5在内的现有基准。
Feb, 2024
LLMs在会话推荐系统中通过熟练索引物品内容、理解复杂的对话环境和生成相关物品标题, 正在颠覆会话式推荐系统,然而,控制推荐物品的分布仍然是一个挑战。因此,我们提出了一个Reindex-Then-Adapt(RTA)框架,用于转换LLMs中的多令牌物品标题为单个令牌,并相应地调整这些单个令牌的概率分布,以有效地控制对话式推荐中的推荐物品分布。该框架结合了LLMs和传统推荐系统的优势,在理解LLMs中复杂的查询的同时,高效地控制推荐物品的分布。我们的框架在三个不同的会话式推荐数据集和两个适应设置中都展示出了改进的准确度指标。
May, 2024
对话式推荐系统必须理解用户偏好和意图的丰富多样的自然语言表达,而这些表达通常以间接方式传达(例如:“我在控制体重”)。这些复杂的话语使得检索相关物品变得具有挑战性,尤其是当只使用通常不完整或过时的元数据时。幸运的是,许多领域都有丰富的商品评价,这些评价涵盖标准的元数据类别并提供与用户兴趣相匹配的复杂意见(例如:“适合约会的高档场所”)。然而,直到最近,大尺度语言模型让我们能够揭示用户偏好表达和用户生成评价之间的常识联系。进一步而言,大尺度语言模型还能够实现半结构化对话状态跟踪、复杂意图和偏好理解,以及生成推荐、解释和问题回答等新颖范式。因此,我们引入了一种名为RA-Rec的新技术,一种以大尺度语言模型为驱动的检索增强型对话状态跟踪系统,用视频、开源GitHub存储库和可交互的Google Colab笔记本展示了这项技术。
May, 2024
本研究针对现有基于大型语言模型的推荐系统忽略或低效建模用户-项目高阶交互的问题,提出了增强型推荐模型ELMRec。该模型通过增强整体词嵌入来显著提升对图构建交互的理解,并提出了一种重新排序解决方案,使得ELMRec在直接推荐和序列推荐中均超越了最先进的方法。
Sep, 2024