学习排序
我们提出了一种基于池泛型主动学习的不同工具,该工具基于学习器计算假设损失和某个固定“关键”假设之间差异的估计器能力,进而得到一些显著意义上的主动学习界限,尤其对于那些只依赖于不一致性系数限制的方法在某些问题上无法提供有用边界的情况下。
Oct, 2011
本篇论文介绍了一种基于有界入度的节点排序的图搜索算法,以解决根据数据学习贝叶斯网络结构的问题,实验结果表明该算法在得分和运行时间方面优于贪婪爬山法。
Jul, 2012
本研究探讨了一种在线学习算法,使用新颖的 Top-1 反馈模型,评估对多样性兴趣用户的固定排名商品排名能力,并证明了其对于几种流行的排名度量具有最小化后悔的能力。
Oct, 2014
本研究探讨了对于多代理系统中的单峰树型偏好如何通过尽可能少的询问获取其偏好信息,并且发现查询复杂度与叶子数、路径覆盖数和路径距离等参数密切相关。在此基础上,还探讨了基于单峰树型偏好的弱Condorcet赢家查询复杂度相对较低的问题。
Apr, 2016
本研究旨在通过自适应挑选子集并收集偏好反馈,在Plackett-Luce模型下解决PAC排名问题,提出了新的pivot trick技巧,从而实现了在一定概率下识别n个项目的ε-最优排名,(m-1)/ m降低的样本复杂度和对称排名算法的阶无法提高的。
Oct, 2018
提出了一种新的可微的代理损失函数PiRank,它使用基于NeuralSort的连续、温度控制放松来排序操作符,最终在公共互联网规模的学习排序基准测试中明显提高了可比较方法的性能。
Dec, 2020
提出了第一个通用MAB框架来捕捉在线学习排序(ONL2R)和基于位置点击模型的所有关键要素,并开发了基于贪婪和UCB算法的统一策略(GreedyRank和UCBRank),分别适用于个性化和相等的排序处理,证明了这两个算法在不同问题设置下的高效性。
Nov, 2023
线性效用函数从成对比较查询中的可学习性研究。具体来说,我们考虑两个学习目标:首先是预测成对比较的样本外响应,其次是近似恢复效用函数的真实参数。我们证明在线性效用在被动学习设置下是高效可学习的,无论查询响应是否受到噪声干扰,并且在分布足够“好”的条件下,即使存在Tsybakov噪声。相比之下,我们证明对于一大类数据分布而言,在没有强建模假设的情况下,即使查询响应是无噪声的,效用参数也无法被学习。接下来,我们分析主动学习设置下的学习问题。在这种情况下,我们证明即使对于第二个目标,也可以高效学习,并提出了适用于无噪声和有噪声查询响应设置的算法。因此,我们的结果展示了成对偏好查询中被动学习和主动学习之间的质的可学习差距,展示了选择成对查询进行效用学习的价值。
May, 2024
学习基于有噪声的配对比较的项目顺序,在无法分配具体标签的情况下很有用,尤其是在标注者必须进行主观评估的情况下。本研究在具有上下文属性的有序项目中研究了配对偏好反馈的主动学习,提出了两种算法来贪婪地最小化排序错误,证明了这些算法相对于非上下文排名方法和主动偏好学习基线具有更好的样本效率。
May, 2024