ICMLJul, 2022

使用稀疏专家混合模型学习大规模通用用户表示

TL;DR本研究提出了一种通用框架,名为 SUPERMOE,用于从多个任务中获得高质量的用户表示,具体方法是通过 MoE 变压器对用户行为序列进行编码,利用任务指标设计了新的损失函数,实验结果表明 OUR 方法在公共数据集和私有真实世界业务场景上取得了最佳性能。