通过强制适当的损失函数,为二分排名设置代理后悔边界
本文介绍了一种将排名学习问题有效降至二元分类问题的算法,该算法保证平均成对错误率不超过二进制分类算法误差,适用于更广泛的排名损失函数类,且其时间复杂度在实际应用中较为高效。
Oct, 2007
本文提供了用于鉴定基于替代损失函数的学习方法渐近一致性的充分条件,并证明了指数损失和逻辑损失与AUC一致,但铰链损失是不一致的。基于这个结果,本文还推导了一些与AUC一致的损失函数,进一步揭示了指数损失和逻辑损失的相容界限以及在非噪声设置下许多替代损失函数的相容界限,并发现AdaBoost和RankBoost具有相同的指数代理损失。
Aug, 2012
本文研究了在线学习算法中带有成对损失函数的泛化性能,并提出了一种数据依赖性较小的界限来衡量在线学习算法的平均风险产生的序列的模型偏差,同时针对常见的机器学习问题,如基于排名和监督度量学习提出了实际应用案例。
Jan, 2013
本研究旨在通过成对比较的数据形式,使用 Copeland 计数算法实现对 n 个项目的排序,使其具有计算效率高,鲁棒性强,接近信息论极限等特点,并将结果扩展到汉明距离度量下的近似恢复问题和任意错误要求条件下的恢复问题。
Dec, 2015
本文提出了一个理论框架来进行结构化预测,其将多标签,排序回归和图匹配等任务的损失统一了起来,并可以获得条件随机场和二次代理等现有代理方法上的新结果。
Feb, 2019
该研究在在线结构预测中应用了Fenchel-Young loss以及随机解码方法,并通过引入利用替代差距框架获得了有限的代价后悔界限,对多类别分类问题中的在线多类别分类进行了改进,得到了精确度以域直径的对数因子优化的有限代价后悔界限。
Feb, 2024
考虑了预测-优化模式的决策制定方法,通过在历史数据上训练监督学习模型,再利用该模型在新环境中进行未来的二进制决策以最大化预测奖励,提出了一种新的损失函数Empirical Soft Regret (ESR)来显著改善模型训练中的奖励,该方法在新闻推荐和个性化医疗决策问题上明显优于现有算法。
Jun, 2024
基于条件遗憾的关系,我们提出了一种通用框架来建立增强的H一致性边界,这些边界不仅包括现有结果的特例,还能在各种情况下导出更有利的边界,例如:标准多类分类、Tsybakov噪声条件下的二元和多类分类以及二部排序。
Jul, 2024