最小化排名区间和的学习
该论文探讨了一种基于Sinkhorn规范化的DSM排名函数学习技术,通过 SinkProp 算法,该技术可应用于各种基于梯度的排序学习模型,并展示了在多个信息检索数据集上的实用性。
Jun, 2011
本文提出使用一种广泛的强适当损失类来实现针对二分排序问题的非两两代理规则界限,并通过最近的结果进一步获得了低噪声条件下的更紧密的代理规则界限。
Jul, 2012
该论文介绍了一种基于单调重定位的学习排序方法,它最小化了训练得分的所有单调递增转换和参数化预测函数之间的差异,该方法可轻松实现,可高效并行,同时也具有全局最优保证。
Oct, 2012
本文研究了在线学习算法中带有成对损失函数的泛化性能,并提出了一种数据依赖性较小的界限来衡量在线学习算法的平均风险产生的序列的模型偏差,同时针对常见的机器学习问题,如基于排名和监督度量学习提出了实际应用案例。
Jan, 2013
研究多分类学习问题的替代损失函数的一致性属性,提出了分类校准和凸校准维度的概念和理论,并应用于分析各种损失矩阵和证明在子集排名下某些类型的凸校准替代损失不存在。
Aug, 2014
本文旨在解决半监督二分类集合聚合问题,以最小化在未标记数据上产生的预测损失,并找到了一类最小-最大最优预测。结果是一组半监督集合聚合算法,能像线性学习一样高效,但无需放松任何限制。它们的决策规则采用决策理论中熟悉的形式,将Sigmoid函数应用于集合边缘的概念,而不需要通常在基于边缘的学习中做出的假设。
Oct, 2015
本研究探讨了在线偏好聚合的自然模型,使用广义Min-Sum-Set-Cover问题作为形式化模型,将排序降维到双重随机矩阵空间,并应用在线梯度下降技术以在多项式时间内实现GMSSC低遗憾学习,以提高学习效率。
Nov, 2020
本文介绍一种新的工具,用于可视化和显示加权排名聚合方法的排名信息。我们使用重量集分解来研究解决这种问题时产生的信息。这种方法可以将聚合排名中被折叠的信息转化成一种有用、可解释、直观的决策支持工具。
May, 2022