Sep, 2018

RDPD: 通过模仿使用富数据支持贫数据

TL;DR该研究开发和提出了一种知识蒸馏(KD)方法(RDPD)来利用从丰富的私有数据训练的高复杂模型的蒸馏知识来增强在贫数据环境中训练的预测模型,在三个真实数据集上评估 RDPD ,并证明其蒸馏模型在所有数据集上一致优于所有基线模型,特别是在 PR-AUC 上比仅使用低质量数据训练的模型提高 24.56%,在ROC-AUC上提高了12.21%,并且比现有技术的 KD 模型优化了5.91%的 PR-AUC 和 4.44%的 ROC-AUC.