从互补标签学习到概率估计的转化
本文提出一种新的问题设置方法,允许每个例子有多个补充标签(MCLs)并探讨两种学习MCLs的方法:对MCLs进行分解以便使用任何带有CLs的学习方法,或者使用一个无偏风险估计值并将每组MCLs一起处理.
Dec, 2019
本文提出了一种名为补充标签学习的弱监督学习框架,能从任意数量的补充标签和无标签样本中进行无偏估计的分类风险,并能使用任意损失函数和模型进行训练,同时通过实验验证了该方法的有效性。
Jan, 2020
提出了一个监督学习框架,可以同时处理普通标签学习和补充标签学习。对于补充标签学习和普通标签学习相应的一对多和成对分类的损失函数,满足一定的可加性和对偶性,提供了一个直接桥接这些现有监督学习框架的框架。进一步推导了满足可加性和对偶性的任何损失函数的分类风险和误差界。
Feb, 2020
本文提出一种基于 (heuristics) 启发式规则构造损失函数 (loss functions) 的弱监督学习 (weak supervision) 方法,命名为 'Losses over Labels (LoL)',可以更多地利用启发式规则中专家知识和判断依据进行训练,有效提高文本和图像分类任务中的性能。
Dec, 2022
通过人工对补充标签的注释,本文设计了两个基于CIFAR10和CIFAR100的数据集,分析了收集数据集的经验转移矩阵,证明了各种CLL算法是否能够从实际世界中的补充数据集中学习。
May, 2023
通过分析互补标签对普通分类器训练的影响,本文提出了一种新颖的技术——互补标签增强,能有效地提高互补标签的共享效率并改善现有互补标签学习模型在实验上的表现。
May, 2023
本文提出了一种新颖的互补标签学习方法,不依赖于均匀分布假设或普通标签训练集,将互补标签学习表达为一组负无标签二元分类问题,并采用风险一致性方法和风险修正方法解决过拟合问题,实验证明我们的方法优于现有方法。
Nov, 2023
本研究解决了现有部分标签学习方法在测试集中新类出现时的不足,提出了一种带有理论保证的无偏风险估计器。这种方法能够通过区分已知类和未标记数据的分布来估计增强类的分布,并通过添加风险惩罚正则项来缓解过拟合问题。实验结果表明,该方法在多个基准和真实数据集上表现出色。
Sep, 2024