多标签 F 度量的凸校准代理
该研究论文使用决策论和贝叶斯风险分析方法,提出了一种在二值分类、多标签分类和结构化输出预测等问题中,优化 F-measure 评价指标的方法,并提出了一个新的算法,它不仅计算效率高,而且在任何分布下都是贝叶斯最优的。
Oct, 2013
研究多分类学习问题的替代损失函数的一致性属性,提出了分类校准和凸校准维度的概念和理论,并应用于分析各种损失矩阵和证明在子集排名下某些类型的凸校准替代损失不存在。
Aug, 2014
研究了一些非线性性能度量的理论属性,包括 F - 度量,Jaccard 指数等,将这些性能度量优化问题归约为具有未知成本的成本敏感分类问题,并提出了一种具有可证明保证的算法来获得近似最优分类器以解决 F - 度量优化问题。
May, 2015
我们提出了一种基于一致勒贝格测度的多标签学习器(CLML),证明了在贝叶斯风险框架下,CLML 可以实现理论上的一致性。实证证据支持了我们的理论,证明了:(1)CLML 可以始终获得最先进的结果;(2)勒贝格测度的设计是主要的性能因素,因为 CLML 优化了一个简单的前馈模型,而没有额外的标签图、扰动条件或语义嵌入;(3)结果的分析不仅可以区分 CLML 的有效性,还可以凸显代理损失函数和期望损失函数之间的不一致性。
Feb, 2024
本文提出一种自适应线性化技术,实现了基于 TPR 和 TNR 的点随机更新,通过提出 SPADE 和 STAMP 方法,可以应对实际中出现的数据标签不平衡及其他特殊要求,并获得了显着的速度优势和精准度,同时确保了收敛性。
May, 2015
本文研究了基于经验效用最大化和决策理论的方法学习最大化 F-measures 的分类器,分析了它们的理论基础与联系,并通过合成和真实数据集探究了它们的适用条件和优缺点,实验结果发现在具有准确模型的情况下,两种方法在大量的训练和测试集上是渐近等价的,但在实际应用中,基于经验效用最大化的方法对模型错误的鲁棒性更强,而决策理论方法更适用于处理稀有类和常见领域适应问题。
Jun, 2012
本文提出了一种新的损失函数 FLoss,可以用来训练 CNN 网络,同时在评估时使用 F-Measure,能够使网络产生极性激活,从而获得高质量的显著性图。实验结果表明,相比于传统的交叉熵损失函数,本文的方法在几个流行数据集上均取得了更好的性能表现。
May, 2018
本文旨在解决机器学习中的评估指标通常难以作为损失函数的问题,通过重新审视代理损失学习,并提出了一种基于排名相关性优化的方法来最大化代理损失和度量之间的关系进行代理损失学习。实验证明,该方法在图像分类、神经机器翻译等各种任务上都获得了显着的效率和性能提升,并在人体姿态估计和机器阅读理解任务上优于现有方法。
Feb, 2022
本文提出了一种可微分而高效的算法来逼近加权 F - 测量度量函数,通过引入空间信息,不牺牲准确性的情况下可以使用比现有方法更简单的模型,加快推断速度并减轻前 / 后处理的需要,对于许多任务可以比传统指标的先进状态匹配(或提高)性能,且在加权 F - 测量方面显著提高了性能。
Aug, 2017