以 GPT 为基准的推荐解释文本
为了提高用户满意度和建立信任,推荐系统内提供解释尤为重要,特别是对为用户定制的推荐物品进行解释。在这个研究领域中,主要方法是生成基于文本的解释,主要侧重于应用大型语言模型(LLMs)。然而,由于时间限制和计算资源限制,对于可解释性推荐来说,细化 LLMs 的工作并不可行。作为替代方案,当前的方法是训练提示而不是 LLMs。在这项研究中,我们开发了一个模型,利用用户和项目输入的 ID 向量作为 GPT-2 的提示。我们在多任务学习框架内使用联合训练机制来优化推荐任务和解释任务。这种策略能更有效地探索用户的兴趣,提高推荐的效果和用户满意度。通过实验,在 Yelp、TripAdvisor 和 Amazon 数据集上,我们的方法在解释能力评估指标上分别达到 1.59 DIV、0.57 USR 和 0.41 FCR,相比于四种现有技术,表现出卓越性能。此外,我们发现所提出的模型能够确保在这三个公共数据集上文本质量的稳定。
Jan, 2024
利用大型语言模型,本研究引入了两种机制,即生成式同伴预测机制(GPPM)和生成式简介同伴预测机制(GSPPM),以扩大同伴预测机制的应用范围至基于文本的报告,并理论上证明当语言模型预测足够准确时,该机制能够激励高质量的反馈。在实证研究中使用了 Yelp 评论数据集和 ICLR OpenReview 数据集,结果表明在 ICLR 数据集上,该机制能够根据期望得分区分人工编写的评论、GPT-4 生成的评论和 GPT-3.5 生成的评论,并且 GSPPM 比 GPPM 更有效地惩罚产生自语言模型的评论。
May, 2024
本文介绍了一种基于 ChatGPT 的 BookGPT 书籍推荐系统,利用大型语言模型技术实现了书籍的评分、用户评分和书籍概述等三项典型任务。同时,本文还讨论了 BookGPT 在书籍推荐场景中的优缺点,并分析了后续 LLM 在这些场景中的机遇和改进方向。
May, 2023
本文探讨利用人类书写的样例以几乎无监督的方式创作自由文本解释的任务,发现高质量的提示有助于提高语言模型的生成效果,同时人类研究表明 GPT-3 生成的解释在某些情况下能够胜过人工生成的解释;作者还结合 GPT-3 与学习自评价的筛选器对生成的解释进行过滤,结果表明这一方法能够实现较高水平的解释过滤。
Dec, 2021
这篇研究论文探讨了解释的重要性和基于对话的方法,使用了大型语言模型(LLMs)来增强专家解释者在对话环境中的能力,并通过评估不同策略的效果来了解 LLMs 在生成解释性回应方面的能力。
Jun, 2024
本文提出了一种新颖的使用方面标记的技术,可以从评论文本中生成个性化的推荐解释,允许用户通过批判文本解释来修改推荐条件,在两个真实数据集上的实验证明,该方法可以在单步和多步批判中适应用户的偏好,是一种新型的无监督批判方法。
May, 2020
本研究通过对使用大型语言模型对仇恨言论生成解释的分析框架的提出以及对 2400 位受访者的调查,发现生成的解释在语言流畅性、信息量、说服力和逻辑准确性方面都获得了高评价,但不同提示策略会影响解释的说服力,可能会导致对内容是否仇恨的错误判断。因此,在内容审核中应谨慎使用大型语言模型 - generated 的解释。
May, 2023
ChatGPT 的自解释性能与传统方法相媲美,在成本较低的情况下,且具有许多有趣的特性,促使我们重新思考当前在 ChatGPT(类似的 LLM)时代的模型可解释性实践。
Oct, 2023
本文研究了将 GPT-3 等大型语言模型与说明相结合是否能够提高上下文学习效果,发现对于涉及文本推理的自然语言推理和问答任务,使用不同样式的说明对 OPT、GPT-3(davinci)和 InstructGPT(text-davinci-001)等四个 LLM 的性能仅会带来小至中等的准确性提高,而 text-davinci-002 能够带来更实质性的提高,并且 LLM 产生的说明可能不支持、甚至与模型预测不一致,但这些说明仍有助于验证模型的预测,在此观察基础上,文章通过训练校准器使用自动提取的评分评估说明的可靠性,从而在全部数据集上实现后处理性能的提高。
May, 2022