具有更强一致性保证的多标签学习
本文提出了一个基于Wasserstein距离的多标签学习损失函数,基于概率度量体提供了一种自然的概念。该算法可以有效鼓励模型在输出空间中使用所选度量的平滑性,并用Yahoo Flickr Creative Commons数据集上的标签预测问题验证了性能。
Jun, 2015
本文提出了一种称为分布平衡损失函数的新方法,用于解决多标签识别问题中遇到的长尾类分布、标签共现和负标签占主导的问题,并通过实验验证了该方法的有效性。
Jul, 2020
本文探讨设计针对F-Measure的凸罚函数问题,提出了F-Measure的凸罚函数方法,将多标签F-Measure学习问题分解为$s^2+1$个二进制分类概率估计问题,并提供了差错传递边界的定量证明,与Dembczynski等人的算法有关,并进行了实验证实了论文理论结果。
Sep, 2020
本文通过提出一种Leveraged Weighted损失函数,并推导出该函数的风险一致性,并在实验中得到验证,证明了其在面对部分标签学习中的高效性,从而提供了关于Leverage参数选择的指导。
Jun, 2021
该论文提出两种简单且有效的基于强大损失设计的方法,通过减少假负例的影响及使用基于缺失标签的最大似然标准来改进多标签学习的性能,从而在大量多标签图像分类数据集上实现了新的最先进的损失函数。
Dec, 2021
本文介绍了一种新颖的任务,即Partial labeling and Long-Tailed Multi-Label Classification(PLT-MLC),并提出了一种端到端的学习框架CO-MIC-Balance(Correction,Modification,Balance),用于同时解决长尾分布和部分标签的多标签分类问题,该框架通过比较预测置信度和类特定阈值来修正丢失的标签,使用多聚焦的修饰符损失来同时解决头部尾部不平衡和正负不平衡,并使用平衡分类器来保持所有样本的稳定性。实验结果表明,该方法在新创建的PLT-MLC数据集上具有更高的有效性和鲁棒性。
Apr, 2023
本文旨在理解和解决多标签学习中常用的宏平均(Macro-AUC)评价指标的理论问题。通过对PASCAL VOC、Yahoo、和MS COCO数据集的实验结果和理论分析,发现数据集的类别不平衡是影响宏平均评价指标泛化范围的关键因素,并提出一种更通用的McDiarmid型浓度不等式。结果表明,相较于基于单变量损失函数的算法,基于成对损失函数和重新加权的损失函数更加稳健。
May, 2023
本文提出了一种新颖的互补标签学习方法,不依赖于均匀分布假设或普通标签训练集,将互补标签学习表达为一组负无标签二元分类问题,并采用风险一致性方法和风险修正方法解决过拟合问题,实验证明我们的方法优于现有方法。
Nov, 2023
我们提出了一种基于一致勒贝格测度的多标签学习器(CLML),证明了在贝叶斯风险框架下,CLML可以实现理论上的一致性。实证证据支持了我们的理论,证明了:(1)CLML可以始终获得最先进的结果;(2)勒贝格测度的设计是主要的性能因素,因为CLML优化了一个简单的前馈模型,而没有额外的标签图、扰动条件或语义嵌入;(3)结果的分析不仅可以区分CLML的有效性,还可以凸显代理损失函数和期望损失函数之间的不一致性。
Feb, 2024
我们对学习延迟的替代损失函数进行了全面的研究,引入了一类由非递增函数Ψ参数化的广泛替代损失,并在温和条件下建立了其实现的H一致性。对于基于分类误差的成本函数,我们进一步展示了在假设集对称且完备(常见的神经网络和线性函数假设集满足此属性)时,这些损失具有H一致性界限。我们的结果还解决了先前工作(Mozannar et al., 2023)中提出的一个开放问题,通过证明了一个特定替代损失的实现H一致性和贝叶斯一致性。此外,我们还确定了Ψ的选择,以实现任何通用成本函数的H一致性替代损失,从而同时实现了贝叶斯一致性、实现的H一致性和H一致性界限。我们还研究了学习延迟中H一致性界限与实现的H一致性之间的关系,突出了与标准分类的关键差异。最后,我们对我们提出的替代损失进行了经验评估,并将其与现有基准进行了比较。
Jul, 2024