SIGIRApr, 2022
LoL: 伪相关反馈的查询重构损失与比较正则化损失的比较
LoL: A Comparative Regularization Loss over Query Reformulation Losses for Pseudo-Relevance Feedback
Yunchang Zhu, Liang Pang, Yanyan Lan, Huawei Shen, Xueqi Cheng
TL;DR提出了一种名为 Loss-over-Loss (LoL) 的框架,该框架通过在训练期间比较不同查询的重制损失来区分相关和不相关信息,并通过惩罚使用更多反馈但获得更大损失的修订来实现比较正则化,以提高伪相关反馈的效率。