BriefGPT.xyz
Ask
alpha
关键词
stratified distillation strategy
搜索结果 - 1
无偏知识蒸馏推荐
本文提出了一种新的知识蒸馏方法,即分层蒸馏策略,用于解决推荐系统中已有的知识蒸馏方法中存在的推荐偏差问题。该方法通过对热门物品进行分层处理,提取每个组中的排名知识,用于监督学生模型的学习,避免了推荐结果的不准确和不公平。
PDF
2 years ago
Prev
Next