Sep, 2021
UserBERT:对比用户模型预训练
UserBERT: Contrastive User Model Pre-training
Chuhan Wu, Fangzhao Wu, Yang Yu, Tao Qi, Yongfeng Huang...
TL;DR本文提出了一种名为 UserBERT 的对比式用户模型预训练方法,将两种自监督任务应用于未标记的用户行为数据的用户模型预训练中,并使用中等难度的负采样框架以更好地进行对比式预训练。实验结果表明,UserBERT 能有效地改善各种用户模型。