隐私标签的多标记学习
本文提出了一种名为正例与未标注多标签分类(PU-MLC)的新方法,通过在训练时直接丢弃训练集中的负标签来减少嘈杂的标签所带来的不良影响,并通过引入自适应重平衡因子和自适应温度系数来缓解标签分布中的灾难性不平衡和概率平滑问题。大量的实验证明了 PU-MLC 方法在 MS-COCO 和 PASCAL VOC 数据集上取得了显着的改进。
Jun, 2023
使用自适应估计技术估计正负样本比率,通过随机标签屏蔽技术优化训练过程,提出了一种通用的 Partial Label Masking 方法,从而平衡类别样本不均导致的性能下降问题,该方法在多标签和单标签分类数据集上,比现有方法表现更好。
May, 2021
该论文提出两种简单且有效的基于强大损失设计的方法,通过减少假负例的影响及使用基于缺失标签的最大似然标准来改进多标签学习的性能,从而在大量多标签图像分类数据集上实现了新的最先进的损失函数。
Dec, 2021
本文介绍了一种弱监督的多标签学习方法,可以有效地学习到精细的概念,并通过伪标签来训练分类器和引导主动学习策略。实验结果表明,该方法能够精确地恢复缺失的地面真实值,并显著提高了预测性能。
Sep, 2021
本文介绍了在部分标签学习中引入了一种新的合作分类器和 "相互监督" 范式,以帮助现有的部分标签学习方法识别和纠正错误标记的样本,并通过模糊机制来防止对特定标签的过度自信,从而显著提高了多种经典和基于深度学习的部分标签学习方法的性能和消歧能力。
Dec, 2023
本文研究了单正多标签学习(Single Positive Multi-label Learning - SPML)的问题,提出了基于期望风险最小化的广义损失框架,用于生成软伪标签,并设计了一种能够处理正负样本不平衡同时灵活协调假阳性和假阴性的新型鲁棒损失函数。实验证明,该方法能够显著提高 SPML 性能,在四个基准测试上胜过绝大多数最先进的方法。
May, 2024
本研究提出了一个新的部分标签学习的设置,其中只标注了训练图像的子集,每个图像只有一个正标签,其余训练图像保持未标注状态。通过使用端到端的深度神经网络 PLMCL,可以同时学习产生对部分标注和未标注的训练图像都具有信心的伪标签。通过考虑伪标签更新的速度,使用新的基于动量的法则来更新软伪标签,以帮助防止在早期训练阶段陷入低信心的局部最小值。此外,还提供了适应不同标签的逐渐递增学习的自适应 “自信度调度器”。实验结果表明,我们的 PLMCL 方法在三个不同数据集上的多标签分类中,表现比许多现有的基于多标签分类方法更好。
Aug, 2022
利用不可靠偏标签强健对比学习方法增强模型对不可靠偏标签的鲁棒性,并结合基于 KNN 的候选标签集校正以及基于一致性正则化的标签消歧来提高标签质量和增强 URRL 框架中的表示学习能力。实验证明该方法在不同数据集上的性能超过了现有方法,并从期望最大化算法的角度对此方法进行了理论分析。
Aug, 2023
这篇论文介绍了一种新颖的概率方法,名为 Partial Multi-label Learning(部分多标签学习),在这种方法中,每个训练实例对应一组候选标签,其中只有一部分是正确的;与现有方法相比,它不需要次优的消岐,因此可以应用于任何深度架构;在人工和真实数据集上进行的实验证明,Partial Multi-label Learning 在候选集中噪声高的情况下表现出色,优于现有方法。
Mar, 2024