一种有效的排名归类简化方法
我们提出了一种基于池泛型主动学习的不同工具,该工具基于学习器计算假设损失和某个固定“关键”假设之间差异的估计器能力,进而得到一些显著意义上的主动学习界限,尤其对于那些只依赖于不一致性系数限制的方法在某些问题上无法提供有用边界的情况下。
Oct, 2011
本文提出使用一种广泛的强适当损失类来实现针对二分排序问题的非两两代理规则界限,并通过最近的结果进一步获得了低噪声条件下的更紧密的代理规则界限。
Jul, 2012
本研究探讨了一种在线学习算法,使用新颖的 Top-1 反馈模型,评估对多样性兴趣用户的固定排名商品排名能力,并证明了其对于几种流行的排名度量具有最小化后悔的能力。
Oct, 2014
本研究提出了一种名为TopPush的高效方法,用于优化双分图排名中排名准确性,其在训练实例数量上具有线性的计算复杂度,并且该方法的实证研究表明它与当前现有的最先进方法具有高竞争力且速度可提高10到100倍,并使用新颖的分析方法界定所提出方法的排名精度和泛化误差。
Oct, 2014
本研究旨在通过成对比较的数据形式,使用 Copeland 计数算法实现对 n 个项目的排序,使其具有计算效率高,鲁棒性强,接近信息论极限等特点,并将结果扩展到汉明距离度量下的近似恢复问题和任意错误要求条件下的恢复问题。
Dec, 2015
提出了一种新的 quicksort-flavored 算法,可以在大量训练数据集上优化非可分离损失函数。已证明,该方法适用于包括 AP 和 NDCG 基础上的损失函数,并且对于我们的方法渐近计算复杂度不能提高。我们展示了该方法在优化结构化铰链损失上的效果并且得到了比简单的可分离损失函数更好的结果,同时需要相当的训练时间。
Apr, 2016
本研究旨在通过自适应挑选子集并收集偏好反馈,在Plackett-Luce模型下解决PAC排名问题,提出了新的pivot trick技巧,从而实现了在一定概率下识别n个项目的ε-最优排名,(m-1)/ m降低的样本复杂度和对称排名算法的阶无法提高的。
Oct, 2018
本研究探讨了在线偏好聚合的自然模型,使用广义Min-Sum-Set-Cover问题作为形式化模型,将排序降维到双重随机矩阵空间,并应用在线梯度下降技术以在多项式时间内实现GMSSC低遗憾学习,以提高学习效率。
Nov, 2020
提出了一种新的可微的代理损失函数PiRank,它使用基于NeuralSort的连续、温度控制放松来排序操作符,最终在公共互联网规模的学习排序基准测试中明显提高了可比较方法的性能。
Dec, 2020