多标签排序问题的可学习性
本研究提出一种学习排序的公式,并针对文档相似性和排名上下文,提出几种可扩展的算法,优化满足用户需求的数量,是从文献中的“排名老虎机”和“Lipschitz bandits”两个多臂老虎机模型推广的。经实验证明,我们的算法学习速度比以前的方法快几个数量级。
May, 2010
本文介绍了一种新的基于二阶下降方法的多标签/排名算法,该算法依赖于置信上界以平衡探索和开发,在部分对抗性环境下进行分析并展示了 O(T^{1/2} log T) 的遗憾度边界,证明了相对于现有结果在多个方面的改进,通过对真实世界的多标签数据集进行测试,我们对比了全信息的基线,经常获得可比较的性能。
Jun, 2012
本研究探讨了一种在线学习算法,使用新颖的 Top-1 反馈模型,评估对多样性兴趣用户的固定排名商品排名能力,并证明了其对于几种流行的排名度量具有最小化后悔的能力。
Oct, 2014
提出了一种新的基于批处理的排名估算器和平滑的排名敏感损失函数的个性化排名框架,该框架比先前的工作具有更稳定和准确的排名近似,并且可以通过显式使用并行计算来加速训练,在三个物品推荐任务上取得一致的准确性改进和时间效率优势。
Nov, 2017
本文提出了一种基于最小二乘代理损失的方法来解决标签排名问题,并针对本方法采用了具体的特征映射/嵌入来转换排名/排列为向量表示,旨在提高结构化预测的效率和准确性,在部分排名情况下有着良好的表现。
Jul, 2018
提出了一种新的可微的代理损失函数PiRank,它使用基于NeuralSort的连续、温度控制放松来排序操作符,最终在公共互联网规模的学习排序基准测试中明显提高了可比较方法的性能。
Dec, 2020
通过使用多个检索模型作为负样本生成器,引入大规模的噪声标签和多样性负样本进行训练,提出了一种鲁棒的排序模型R^2anker,实验结果显示该模型表现优于现有工具。
Jun, 2022
利用大型语言模型(LLMs)对一组项进行排名已成为推荐和检索系统中的常见方法。本文通过引入适用于评估各种项目类型和条件的多条件排名的基准MCRank,对LLMs进行了分析,表明随着项目和条件数量以及复杂性的增长,性能显著下降。为克服这一限制,我们提出了一种新颖的分解推理方法EXSIR,通过提取和排序条件,然后迭代地对项目进行排名,显著提高了LLMs的性能,达到了现有LLMs的12%的改进。我们还对LLMs在各种条件类别下的性能进行了详细分析,检验了分解步骤的有效性。此外,我们将我们的方法与Chain-of-Thought和编码器类型的排名模型等现有方法进行了比较,展示了我们方法的优越性以及MCR任务的复杂性。我们已发布了我们的数据集和代码。
Mar, 2024
使用语言模型比较并排序排名的矛盾问题,我们提出了一种使用LLM-RankFusion的方法,它有效地减少了排序的不一致性,提高了排名质量。
May, 2024