直接优化排序度量
该研究提出了一个用于直接优化排名度量的高效框架 ——CatBoost,并介绍了两种重要的技术:随机平滑和基于部分积分的新梯度估计,证明了经典平滑方法可能会引入偏差,并提出了一个通用解决方案进行去偏差,该算法保证全局收敛性并在多个学习排名数据集上优于现有方法。
Mar, 2020
本文针对协作排名问题展开研究,通过基于凸优化的算法和 AltSVM 这种大规模非凸实现方式,实现从用户提供的两两偏好比较结果中预测他们对未曾见过物品的偏好,该算法展现出了在多个协作过滤数据集中 NDCG 和排名性能的许多中等规模基线的表现优势。
Jul, 2015
本文提出了一种基于最小二乘代理损失的方法来解决标签排名问题,并针对本方法采用了具体的特征映射 / 嵌入来转换排名 / 排列为向量表示,旨在提高结构化预测的效率和准确性,在部分排名情况下有着良好的表现。
Jul, 2018
本研究提出一种学习排序的公式,并针对文档相似性和排名上下文,提出几种可扩展的算法,优化满足用户需求的数量,是从文献中的 “排名老虎机” 和 “Lipschitz bandits” 两个多臂老虎机模型推广的。经实验证明,我们的算法学习速度比以前的方法快几个数量级。
May, 2010
本文提出了一种优化随机排名中凸性目标函数的效率高、计算成本少、具有强理论保证,且适用于公平性暴露等所有凸顺滑目标函数的在线算法,可将复杂的曝光公平性标准纳入推荐中。
Sep, 2022
本研究提出两种技术来改进基于成对排名的多标签图像分类:(1)我们提出了一种新的损失函数,平滑且容易优化;(2)我们将标签决策模块纳入模型,估算每个视觉概念的最优置信阈值。我们在三个大规模数据集(VOC2007、NUS-WIDE 和 MS-COCO)上展示了我们方法的有效性,并取得了文献中报道的最佳结果。
Apr, 2017
本文采用高维回归问题的解析解取代计算开销大的 SLIM 方法,通过重新缩放处理 item-popularities 偏差,得到了稀疏解的性质,并且在三个公共数据集的实验中,相对于 SLIM 在准确度和训练时间上均有显著提高,同时在高度个性化推荐方面,还优于多种最新的非线性自动编码器等模型。
Apr, 2019
该论文提出了一种基于物理学原理的模型和高效算法,用于推断有向网络中节点的层次排名,并介绍了一种更精确的排名方式,并提供了一种对强度进行统计显著性检验的方法,应用于预测边的存在性和方向,并在实际和合成数据上分析展示出算法的效率与可扩展度。
Sep, 2017
使用图 Helmholtzian 和组合 Hodge 理论,基于边缘流的成对排名可以解析为两个正交成分,其中一个表示 L2 最优全局排名,而另一个表示无旋转流,同时还可以通过线性最小二乘回归计算离散的 Hodge 分解。
Nov, 2008
该研究提出了一种面向结构预测问题的列表学习框架,通过直接对整个翻译列表进行建模,学习可以更好地适应给定列表样本的参数,并提出了更加敏感于排名错误的顶级增强列表损失函数。研究结果表明,该列表学习框架和顶级增强列表损失函数均可以显著提高翻译质量。
Jul, 2017