解释与征服:个性化的基于文本的评论实现透明度
本文提出了一种新颖的使用方面标记的技术,可以从评论文本中生成个性化的推荐解释,允许用户通过批判文本解释来修改推荐条件,在两个真实数据集上的实验证明,该方法可以在单步和多步批判中适应用户的偏好,是一种新型的无监督批判方法。
May, 2020
本文介绍了一种使用深度学习方法改进推荐系统表现的模型 - DeepCoNN,即使用神经网络学习目标用户所有评论的一个潜在表示形式,第二个潜在表示与目标物品的所有评论文本匹配,将这些表示组合起来,同时介绍了一种名为 TransNets 的模型,它通过引入表示目标用户 - 目标项目对的额外潜在层来扩展 DeepCoNN 模型,并通过训练时间对此层进行规化,使其类似于目标用户评论的潜在表示,证明 TransNets 及其扩展显着提高了之前的最新状态。
Apr, 2017
我们提出了一种个性化 Transformer 模型(PETER)来解决用户和物品 ID 无法与单词在相同的语义空间中表示的问题,通过在目标解释中使用 ID 来预测单词,并赋予 ID 语言意义,从而使其实现个性化。我们的实验结果表明,我们的小型未预训练模型在生成任务上优于微调 BERT,这凸显了我们设计的重要性和实用性。
May, 2021
本文研究如何通过构建一种可扩展的实体矫正系统 PENTATRON,利用参数化的基于转换器的语言模型学习客户和设备之间的交互模式以及非参数化的个性化实体索引来计算正确的查询,从而帮助下游组件理解最佳响应,提高准确率。通过实验表明,该系统可以使关键指标(精确匹配)提高多达 500.97%。
Oct, 2022
为了提高用户满意度和建立信任,推荐系统内提供解释尤为重要,特别是对为用户定制的推荐物品进行解释。在这个研究领域中,主要方法是生成基于文本的解释,主要侧重于应用大型语言模型(LLMs)。然而,由于时间限制和计算资源限制,对于可解释性推荐来说,细化 LLMs 的工作并不可行。作为替代方案,当前的方法是训练提示而不是 LLMs。在这项研究中,我们开发了一个模型,利用用户和项目输入的 ID 向量作为 GPT-2 的提示。我们在多任务学习框架内使用联合训练机制来优化推荐任务和解释任务。这种策略能更有效地探索用户的兴趣,提高推荐的效果和用户满意度。通过实验,在 Yelp、TripAdvisor 和 Amazon 数据集上,我们的方法在解释能力评估指标上分别达到 1.59 DIV、0.57 USR 和 0.41 FCR,相比于四种现有技术,表现出卓越性能。此外,我们发现所提出的模型能够确保在这三个公共数据集上文本质量的稳定。
Jan, 2024
本文介绍了一种使用自然语言解释规定归纳偏好的方法,并使用多级别自然语言推理模型 BERT 以及少量标记数据,在三种关系提取任务上提高了基础模型的 F1 分数,并减少了所需标记的数据量。
May, 2020
研究提出了 TransRev 方法,将情感分析、推荐系统和多关系学习相结合,学习出用户、物品和评论的向量表示,并通过加权平均来进行评论预测。TransRev 在多个基准数据集上表现优于现有的推荐系统。
Jan, 2018
我们研究了现代模型生成的电影推荐的文本解释如何帮助用户,以及探讨用户对这些文本解释的不同组成部分的喜好和厌恶,特别是与现有的人类电影评论相比。我们发现,参与者对电影之间的排名以及对从未看过的电影评论的个人质量评分没有显著差异。然而,当评论是关于他们之前看过的电影时,参与者标记为更好的评论。此外,我们还探讨了参与者认为每个质量重要的电影评论文本的具体方面。总的来说,我们证明了现代 LLMs 是有希望作为推荐解释的来源,我们打算在未来进一步探索可个性化的文本解释。
Sep, 2023
通过利用改进的解释,在语义相似性任务和模型中进行深入分析和语料库级别洞察,并使用分层相关传播(LRP)来验证结果解释的有效性,本研究探索了驱动语义相似性的特征相互作用。
May, 2024
通过建立个性化故事评估模型 PERSE,该研究拟解决大语言模型在开放式文本生成方面评估表现困难的问题,并通过两个新数据集 Per-MPST 和 Per-DOC 进行实验,研究结果表明该模型在故事评分和优先级预测方面均优于 GPT-4。
Oct, 2023