PiRank: 可扩展的可微排序学习
文中提出了一种基于序列或主动排名的算法,该算法基于嘈杂的成对比较将一组n个项目排名并将这些项根据其得分分成预先指定大小的集合;本文针对这种算法进行了分析,证明了在某些情况下具有最优性并且不需要任何假设,比如在参数模型下进行的排名。
Jun, 2016
本研究旨在通过自适应挑选子集并收集偏好反馈,在Plackett-Luce模型下解决PAC排名问题,提出了新的pivot trick技巧,从而实现了在一定概率下识别n个项目的ε-最优排名,(m-1)/ m降低的样本复杂度和对称排名算法的阶无法提高的。
Oct, 2018
本文利用一种基于神经网络的成对学习排序方法,即DirectRanker,展示了它在RankNet架构上的泛化能力。经过数学证明,我们的模型具有自反性、反对称性和传递性,从而实现了简化训练和提高的性能。在LETOR MSLR-WEB10K、MQ2007和MQ2008数据集上的实验结果表明,我们的模型在结构上固有的简单性和仅使用成对方法的情况下优于许多最先进的方法。
Sep, 2019
本文提出了首个具有O(n log n)时间和O(n)空间复杂度的可微分排序和排名操作,并通过在排列凸包上的投影和使用保序优化减少来实现此操作。实验证明,该方法比现有方法快一个数量级,并展示了两个新颖的应用程序:可微Spearman秩相关系数和最小修剪的平方。
Feb, 2020
该研究提出了一个用于直接优化排名度量的高效框架——CatBoost,并介绍了两种重要的技术:随机平滑和基于部分积分的新梯度估计,证明了经典平滑方法可能会引入偏差,并提出了一个通用解决方案进行去偏差,该算法保证全局收敛性并在多个学习排名数据集上优于现有方法。
Mar, 2020
该研究提出可微分的排序网络来训练神经网络,能够在排序约束条件下进行端到端的训练,此方法能够在不需要绝对数值监督的情况下,实现对神经网络的训练和优化,并探究多层神经网络训练时可能产生的梯度消失和模糊化等问题,证明了拟制的依次比较和比特位排序网络在大规模数据集上的优越表现。
May, 2021
本文介绍PL-Rank-3算法,该算法具有可比较于最佳排序算法的计算复杂度,并且可以在任何标准排序可行的情况下应用于学习排序领域。该算法能够通过无偏梯度估计提高优化时间,而不损失性能。
Apr, 2022