关键词surrogate loss functions
搜索结果 - 12
- 多专家延迟回归
学习与多个专家共同推迟预测的框架,关于回归问题的推迟框架和新型代替损失函数的研究。
- $H$- 一致性保证用于回归
我们对回归的 H 一致性界限进行了详细研究,提出了适用于回归的 H 一致性界限的新定理,并针对对称分布和有界假设集的平方损失函数的代理损失函数证明了一系列新的 H 一致性界限,包括 Huber 损失、所有的 lp 损失 (p≥1)、平方 ε - Top-k 分类与基数感知预测
我们研究了 top-k 分类的细节,该任务是预测输入的 $k$ 个可能的类别,超越单一分类预测。我们证明了多类别分类中的几种普遍代理损失函数,如 comp-sum 和约束损失,具有相对于 top-k 损失的 H 一致性界限。这些界限保证了与 - 多标签学习的连续勒贝格测度
我们提出了一种基于一致勒贝格测度的多标签学习器(CLML),证明了在贝叶斯风险框架下,CLML 可以实现理论上的一致性。实证证据支持了我们的理论,证明了:(1)CLML 可以始终获得最先进的结果;(2)勒贝格测度的设计是主要的性能因素,因为 - ICML有效学习预测人类能力的辅助模型
这篇论文介绍了在专家推迟决策的场景下,利用学习算法提高决策准确性的方法,通过分析一系列代理损失函数的理论性质,设计并使用最小量的数据训练出高效准确的决策系统。
- PiRank: 可扩展的可微排序学习
提出了一种新的可微的代理损失函数 PiRank,它使用基于 NeuralSort 的连续、温度控制放松来排序操作符,最终在公共互联网规模的学习排序基准测试中明显提高了可比较方法的性能。
- IJCAI预测与优化的对比损失和解决方案缓存
本文提出了基于噪声对比法的伪损失函数方法和解决缓存方案的方法,以优化组合优化问题的预测和优化方法中的训练时间和准确性的平衡。实验证明,该方法在计算成本的一小部分之内即可与现有技术匹配。
- 依赖于组的标签噪声下的公平分类
研究了在训练标签被随机噪声污染和误差率依赖于保护子组的成员函数的情况下如何训练公平分类器,发现简单地强制使用人口统计差异措施达到平等,会降低分类器的准确性和公平性。通过使用指定的替代损失函数和替代约束条件对经验风险最小化进行优化可以减少标签 - 多类损失矩阵的凸校准维度
研究多分类学习问题的替代损失函数的一致性属性,提出了分类校准和凸校准维度的概念和理论,并应用于分析各种损失矩阵和证明在子集排名下某些类型的凸校准替代损失不存在。
- 有序回归方法的一致性
通过特征函数的导数在 0 处的刻画,给一类替代性损失函数提供 Fisher Consistency 特性的证明。
- AUC 两两优化的一致性
本文提供了用于鉴定基于替代损失函数的学习方法渐近一致性的充分条件,并证明了指数损失和逻辑损失与 AUC 一致,但铰链损失是不一致的。基于这个结果,本文还推导了一些与 AUC 一致的损失函数,进一步揭示了指数损失和逻辑损失的相容界限以及在非噪 - 关于替代损失函数和 f - 分布
本研究针对使用量化器降维的二元分类问题,从损失函数的角度提出了实现贝叶斯一致性的条件,扩展了 Ali-Silvey 函数和 surrogate loss 函数之间的对应关系。这一结果为选择在联合估计判别函数和量化器时实现贝叶斯一致性的 su