BriefGPT.xyz
Ask
alpha
关键词
moe transformer
搜索结果 - 1
ICML
使用稀疏专家混合模型学习大规模通用用户表示
本研究提出了一种通用框架,名为 SUPERMOE,用于从多个任务中获得高质量的用户表示,具体方法是通过 MoE 变压器对用户行为序列进行编码,利用任务指标设计了新的损失函数,实验结果表明 OUR 方法在公共数据集和私有真实世界业务场景上取得
→
PDF
2 years ago
Prev
Next