本文提出了一种新的知识蒸馏方法,即分层蒸馏策略,用于解决推荐系统中已有的知识蒸馏方法中存在的推荐偏差问题。该方法通过对热门物品进行分层处理,提取每个组中的排名知识,用于监督学生模型的学习,避免了推荐结果的不准确和不公平。
Nov, 2022
本研究提出了一种名为 HetComp 的知识蒸馏框架,用于将异构模型的整体知识转移给一个轻量级模型,以减少资源成本和推理延迟,该框架使用动态知识构建和自适应知识传输提供逐步更难的排序信息,并通过全面实验表明该框架能够显著提高精度和泛化性能。
Mar, 2023
在学习排名问题时,我们提出了一种基于知识蒸馏的技术,称为 RD,通过使用更小的模型在保持模型性能的同时提高在线推理的效率,该技术在公共数据集和推荐模型上实现了旨在设计的目的。
Sep, 2018
本文提出了一种新的知识蒸馏框架,DE-RRD,用于推荐系统,该框架使得学生模型能够从教师模型中编码的潜在知识和教师的预测中学习。实验证明,DE-RRD 的性能优于现有的竞争对手,并且具有更快的推断时间。
Dec, 2020
该论文提出了关系知识蒸馏方法(RKD),用于将数据示例之间的相互关系转移给学生模型,进而提高其在度量学习等任务中的性能,尤其是在标准基准数据集上取得了超越其老师的表现。
Apr, 2019
本文提出了一种新的知识蒸馏模型 —— 协作蒸馏模型 (CD),该模型采用概率排序感知采样、转换误差函数以处理反馈不足以及提供两个训练方法 (即教师指导和学生指导),在推荐领域中取得了 2.7-33.2% 和 2.7-29.1% 的命中率 (HR) 和标准化折现累计增益 (NDCG) 方面的优异表现。
Nov, 2019
本文研究了一种改进模型压缩方法,通过强化学习动态调整知识蒸馏中教师模型的权重,从而提高了学生模型性能,适用于自然语言处理任务。
在本研究中,我们提出了一种将知识蒸馏应用于迁移学习的机器学习架构,称为 TL + KD,并对它与传统 TL 的图像分类效果进行了量化和定性比较。结果表明,在微调过程中,使用较大的教师网络提供指导和知识可以改善学生网络以实现更好的验证性能,同时研究了不同场景下的性能表现。
Oct, 2022
本文探讨了相对知识蒸馏涉及到潜在空间中的几何,引入一种基于图的方案,有效地从大型神经网络导出知识并传递到小型网络中,提高了性能表现和精度。
本文提出了 Dual Correction strategy for Distillation (DCD),该方法通过梯度对齐实现知识转移,将评分信息从教师模型传递到学生模型,以更高效地训练推荐系统,同时解决了每个模型预测错误时所出现的问题,并通过用户和物品两个方面来处理稀疏隐式反馈,实验结果表明,该方法优于现有的基线模型。
Sep, 2021