该研究提出一种新的方法,即利用互补标签进行多类别分类的学习,探讨该方法在应用中的可行性以及解决互补标签信息量不足难题的方法,并通过实验证明了该方法的实用性。
May, 2017
本文提出了一个框架,它使用没有偏见的转移概率估计,提供了一个通用的方法来修改传统的损失函数,并扩展标准的深度神经网络分类器,从而使其能够学习偏差的互补标签,并且确保了使用互补标签学习分类器收敛于使用真实标签学习的最优分类器。综合实验表明,本文方法优于当前最先进的方法。
Nov, 2017
本文提出了一种基于互补标签学习的框架,通过无偏估计分类风险来进行模型选择,且适用于线性/非线性模型或凸/非凸损失函数,实验表明该方法优于现有方法。
Oct, 2018
本文提出一种新的问题设置方法,允许每个例子有多个补充标签(MCLs)并探讨两种学习MCLs的方法:对MCLs进行分解以便使用任何带有CLs的学习方法,或者使用一个无偏风险估计值并将每组MCLs一起处理.
Dec, 2019
本文提出了一种名为补充标签学习的弱监督学习框架,能从任意数量的补充标签和无标签样本中进行无偏估计的分类风险,并能使用任意损失函数和模型进行训练,同时通过实验验证了该方法的有效性。
Jan, 2020
提出了一个监督学习框架,可以同时处理普通标签学习和补充标签学习。对于补充标签学习和普通标签学习相应的一对多和成对分类的损失函数,满足一定的可加性和对偶性,提供了一个直接桥接这些现有监督学习框架的框架。进一步推导了满足可加性和对偶性的任何损失函数的分类风险和误差界。
Feb, 2020
本文提出了一种基于熵最大化损失和非对称伪标签方法的单正类多标记学习方法,能够有效改善SPML问题中假阴性标签的影响,提高多标签分类准确性,实验结果表明该方法在四个基准数据集上取得了最新的最佳表现。
Mar, 2022
本文提出了一种从互补标签得到正确的概率估计,实现孪生标签学习的方法,并利用该方法证明了概率估计的正确性,解决了一些当前方法的限制,同时还提出了一种新的验证模型的方式。
Sep, 2022
本文提出了一种用于 Positive-Unlabeled 学习的标签分布一致性方法,通过对齐无标签数据和基础事实标签分布的期望值,实现了一定程度的学习监督,并进一步采用信息熵最小化和 Mixup 正则化来避免无标签数据上标签分布相同的平凡解法和缓解经验确认偏差。
Dec, 2022
通过分析互补标签对普通分类器训练的影响,本文提出了一种新颖的技术——互补标签增强,能有效地提高互补标签的共享效率并改善现有互补标签学习模型在实验上的表现。
May, 2023