ICMLJul, 2023
预训练深度模型在标签稀缺的学习排序中胜过 GBDT
Pretrained deep models outperform GBDTs in Learning-To-Rank under label scarcity
Charlie Hou, Kiran Koshy Thekumparampil, Michael Shavlovsky, Giulia Fanti, Yesh Dattatreya...
TL;DR该论文研究了无监督预训练是否能提高在标注数据远远少于非标注数据情况下的 LTR 问题中的性能,并通过使用特定于排序的改进方法,在无监督预训练的深度学习模型中表现出比 GBDT 和其他非预训练模型更好的性能,并且在排名异常数据方面也通常具有显着更好的稳健性。