本研究提出一种增量用户嵌入建模方法,通过使用转换编码器将用户的最近交互历史的嵌入动态集成到累积历史向量中,从而实现个性化用户表示的学习,并成功将其应用于 Reddit 数据集的个性化多类分类任务中,并在评论历史编码和任务建模方面相应地实现 9% 和 30% 的相对提升。
Feb, 2022
利用用户嵌入来上下文化大型语言模型,实现显著性能提升。
Feb, 2024
通过利用预训练语言模型 (PLMs) 对用户的长期参与历史进行编码,本研究引入了一个名为 SPAR 的基于内容的推荐框架,有效解决了从长期用户参与历史中提取整体用户兴趣的挑战,并通过利用大型语言模型 (LLM) 来提取全球兴趣,通过在会话级别上编码用户历史,实现了用户和物品特征的充分融合,从而在实际模型部署中既能有效预测用户参与,又能保持双方的独立表示,其在两个基准数据集上的广泛实验表明,超过了现有最先进的方法。
本文探讨了如何通过语言建模提高推荐系统的效果,研究表明将语言建模应用到特定任务的用户历史记录可以带来显著的性能优势,并且可以提供广泛的迁移学习能力,适用于各种领域和系统。
Dec, 2022
这篇文章旨在通过大型语言模型对用户活动进行细致和透彻的理解,从而提高推荐平台上用户的个性化体验和更深层次的理解。通过提取兴趣轨迹并通过大型语言模型进行描述,我们证明了这种方法可以为用户提供深入、可解释和可控的理解,为用户体验提供新的可能性。
May, 2023
大语言模型(LLM)革命中,嵌入是各种系统的关键组成部分。在本文中,我们迈出了迈向构建强大统一的嵌入模型的第一步,证明了多种语言(自然语言和编程语言)的预训练变换器解码器在有限英文数据微调后能够实现普遍嵌入。我们对各任务进行了全面实践和彻底评估,结果表明这是一条有希望的道路,可以应用于不同任务和语言。
Oct, 2023
利用大型语言模型丰富和重写输入文本,改善嵌入模型的性能,并在特定领域取得显著改进。
Apr, 2024
本文针对搜索个性化提出一种新的嵌入式方法,利用用户的专业兴趣空间对用户进行嵌入和学习,实现对用户兴趣的表达和搜索个性化,并在商业网页搜索引擎的查询日志实验中,证明本方法的性能比其他强基线模型更好。
Dec, 2016
通过提示缓存改善大型语言模型的推理效率,专注于通过嵌入相似性预测单轮问答任务的提示缓存的准确性,并提出了基于蒸馏的方法来优化嵌入,实验结果显示我们的模型在缓存效率上优于之前的嵌入模型。
本文提出了一种基于深度神经网络的列表式建模结构,用于对匿名用户的每个会话生成推荐结果,并设计了会话嵌入方法来预先训练会话表示,证明了该方法的有效性。
Jul, 2017