用户画像识别和新服务适配推荐
本研究提出三种利用用户交互记录中的会话信息来改进推荐系统性能的方法,并应用于基于 BERT 的顺序推荐模型,既可以在保证模型整体简洁性的同时,提升推荐结果。
Apr, 2022
本文介绍了 SIGIR 2021 Workshop on E-commerce Data Challenge 中获胜的 Session-based recommendation 算法解决方案,该方案受自然语言处理技术启发,由两个 Transformer 架构 - Transformer-XL 和 XLNet - 的整合组成,通过联合表格事件、文本和图像向量构建多模型特征来解决该任务。同时,文章还对模型的预测效果进行了分析。
Jul, 2021
我们提出了一种个性化 Transformer 模型(PETER)来解决用户和物品 ID 无法与单词在相同的语义空间中表示的问题,通过在目标解释中使用 ID 来预测单词,并赋予 ID 语言意义,从而使其实现个性化。我们的实验结果表明,我们的小型未预训练模型在生成任务上优于微调 BERT,这凸显了我们设计的重要性和实用性。
May, 2021
通过利用预训练语言模型 (PLMs) 对用户的长期参与历史进行编码,本研究引入了一个名为 SPAR 的基于内容的推荐框架,有效解决了从长期用户参与历史中提取整体用户兴趣的挑战,并通过利用大型语言模型 (LLM) 来提取全球兴趣,通过在会话级别上编码用户历史,实现了用户和物品特征的充分融合,从而在实际模型部署中既能有效预测用户参与,又能保持双方的独立表示,其在两个基准数据集上的广泛实验表明,超过了现有最先进的方法。
Feb, 2024
本文提出了一种结构,利用共同模式和个体行为来为每个用户量身定制推荐,模拟结果表明该结构可以学习可解释的个性化用户行为,并经验证实验数据集 Nielsen Consumer Panel 的结果,建议方法相对于现有技术有高达 27.9%的性能提升。
Sep, 2022
本研究提出了一种适用于电子商务用户数据的 BERT 模型的自监督预训练表示学习方法,将用户行为数据看作是句子中的单词,并采用统一结构同时学习长期、短期和用户属性。实验证明,该方法在三个不同的实际任务中都能带来显著的改进,尤其是与任务特定建模和多任务表示学习相比。
Feb, 2022
本文介绍基于语言使用进行人格预测的交叉性研究,报道了用于文本数据的最全面的心理语言学特征和混合模型的两个主要改进,实验结果表明,这些模型优于同一数据集上的现有工作,并通过对心理语言学特征的不同类别进行消融实验来量化其影响。
Apr, 2022
本研究提出一种增量用户嵌入建模方法,通过使用转换编码器将用户的最近交互历史的嵌入动态集成到累积历史向量中,从而实现个性化用户表示的学习,并成功将其应用于 Reddit 数据集的个性化多类分类任务中,并在评论历史编码和任务建模方面相应地实现 9% 和 30% 的相对提升。
Feb, 2022
本文研究在基于会话的推荐系统中,如何通过跨会话信息传递的层次循环神经网络模型,实现对用户兴趣的个性化推荐,数据实验表明该方法优于单纯使用基于会话的神经网络推荐方法。
Jun, 2017