Oct, 2020
利用跨架构知识蒸馏改进高效神经排序模型
Improving Efficient Neural Ranking Models with Cross-Architecture Knowledge Distillation
Sebastian Hofstätter, Sophia Althammer, Michael Schröder, Mete Sertkan, Allan Hanbury
TL;DR该研究探讨了如何提高基于 BERT 和非 BERT 的不同命令匹配体系结构的目标性能,提出了一种跨体系结构教授的知识蒸馏过程,使用 Margin-MSE 损失相对输出分数进行适应,从而显著提高再排序效果。同时,研究发布了教师 - 分数培训文件的软件包,以造福社区。