ICMLFeb, 2022

深度学习中基于 NDCG 替代函数的大规模随机优化及证明收敛性

TL;DR本文提出了一种优化排序度量 NDCG(即归一化折扣累计增益)和其变种方法的方法,包括创新的组成式方法和双层组成式优化问题,以及利用初始热身和停止梯度算子的实用策略。该方法使用可证明收敛保证的有效随机算法,并通过多个数据集上的实验,展示了在 NDCG 方面优于之前的排序方法的效果。