任务关系感知的连续用户表示学习
本论文中,我们提出了第一个可持续不断地学习用户表示的模型,并通过在深度用户表示模型中迭代删除旧任务的不太重要的权重的方式来解决灾难性遗忘问题。在两个现实世界的数据集上的九项任务上进行的广泛实验表明,Conure 大大超过了标准模型,并且在对每个任务单独培训或通过合并所有任务数据同时进行训练的模型方面表现出竞争力或有时更好的表现。
Sep, 2020
该论文提出了一种名为 Deep User Perception Network(DUPN)的方法,通过采用 LSTM 和注意力机制来建模用户行为序列,学习不同任务通用的用户表示,以达到更加有效的个性化推荐,离线和在线实验结果表明 DUPN 在五个不同的任务上都表现出 better results,Taobao 上的大规模操作任务也得到了部署。
May, 2018
该研究提出一种基于自监督学习的用户建模网络 SUMN,该网络能够将行为数据编码成通用的用户表示形式,进而实现个性化服务推荐和用户画像预测。实验表明该方法优于现有的无监督表示方法,并且能够与监督方法竞争。
Dec, 2020
提出了 Task Agnostic Representation Consolidation (TARC),一种用于连续学习的两阶段训练范式,将自监督训练和有监督学习交织在一起,旨在解决深度神经网络(DNNs)中的遗忘问题。实验证明,该训练法可以轻松地添加到基于记忆或基于正则化的方法中,并为更具挑战性的 CL 设置提供一致的性能提升,同时实现更稳健和良好校准的模型。
Jul, 2022
我们提出了一个新颖的框架,用于大规模推荐系统中用户的表示,旨在以一种广义的方式有效地表示多样化的用户喜好。我们的方法采用了一种两阶段的方法,结合表示学习和迁移学习。表示学习模型使用自编码器将各种用户特征压缩成表示空间。在第二阶段,特定于任务的下游模型通过迁移学习利用用户表示,而不是单独地整理用户特征。我们进一步改进了这种方法的输入特征,以增加灵活性并实现对用户事件(包括新用户体验)的近实时反应。此外,我们提出了一种新的解决方案,以管理此框架在生产模型中的部署,允许下游模型独立工作。我们通过大规模系统中的严格离线和在线实验验证了我们框架的性能,展示了其在多个评估任务中的显着功效。最后,我们展示了所提出的框架如何显著降低基础设施成本,相比于其他方法。
Mar, 2024
本研究提出了一种通用框架,名为 SUPERMOE,用于从多个任务中获得高质量的用户表示,具体方法是通过 MoE 变压器对用户行为序列进行编码,利用任务指标设计了新的损失函数,实验结果表明 OUR 方法在公共数据集和私有真实世界业务场景上取得了最佳性能。
Jul, 2022
本研究提出一种增量用户嵌入建模方法,通过使用转换编码器将用户的最近交互历史的嵌入动态集成到累积历史向量中,从而实现个性化用户表示的学习,并成功将其应用于 Reddit 数据集的个性化多类分类任务中,并在评论历史编码和任务建模方面相应地实现 9% 和 30% 的相对提升。
Feb, 2022
提出一种多任务学习的方法,通过元数据构建可组合且可解释的表示,从而改进多任务学习性能,并在一个包含 50 个不同机器人操作任务的具有挑战性的多任务基准 Meta-World 上实现了最先进的结果。
Feb, 2021
本研究通过构建模型 ShopperBERT 对九个预训练任务训练得出的预训练嵌入进行广泛的下游任务如用户画像、定向和推荐等方面的有效应用,并与从零开始的学习策略进行了比较,结果表明前者的优势明显,尤其针对冷启动问题。
May, 2021