AAAIFeb, 2022
多任务推荐中的跨任务知识蒸馏
Cross-Task Knowledge Distillation in Multi-Task Recommendation
Chenxiao Yang, Junwei Pan, Xiaofeng Gao, Tingyu Jiang, Dapeng Liu...
TL;DR提出了一种交叉任务知识蒸馏框架,通过引入辅助任务和校准蒸馏方法,解决了多任务学习中涉及的任务冲突、不一致和同步优化的问题,在实现细粒度推荐、跨任务知识转移等方面有显著效果。