使用部分标签学习深度卷积神经网络进行多标签分类
研究了如何使用部分标签对神经网络进行训练,解决多标签分类中的标签不平衡问题,并提出了伪标注技术、新的损失函数和动态训练方案来优化模型性能。在多个公开数据集上进行了广泛实验,结果显示该方法优于现有的一些最先进方法,甚至在部分标注情况下超越了使用完整标签训练的方法。
Jul, 2023
研究一种新的多标签图像分类问题,针对训练数据需要手动标注出所有适用标签的挑战,探索使用缺失标签进行学习的特殊情况,并尝试通过线性分类器和端到端微调深度网络提出新的损失函数来解决这个问题。结果表明,在一些情况下,使用更少的标签进行训练可以接近全部标签训练的性能水平。
Jun, 2021
本研究提出了一个新的部分标签学习的设置,其中只标注了训练图像的子集,每个图像只有一个正标签,其余训练图像保持未标注状态。通过使用端到端的深度神经网络 PLMCL,可以同时学习产生对部分标注和未标注的训练图像都具有信心的伪标签。通过考虑伪标签更新的速度,使用新的基于动量的法则来更新软伪标签,以帮助防止在早期训练阶段陷入低信心的局部最小值。此外,还提供了适应不同标签的逐渐递增学习的自适应 “自信度调度器”。实验结果表明,我们的 PLMCL 方法在三个不同数据集上的多标签分类中,表现比许多现有的基于多标签分类方法更好。
Aug, 2022
本研究提出了一种标签高效的方法,针对部分注释的数据(即每个图像不都有所有任务标签),在多个密集预测任务上联合学习,通过保留输入图像的高级信息,并成功利用任务关系对多任务学习进行监督学习的多任务训练程序。我们严格证明了我们的方法可以有效地利用具有未标记任务的图像,并且在三个标准基准测试中优于现有的半监督学习方法和相关方法。
Nov, 2021
综述了深度学习在多标签学习中的最新进展,包括深度神经网络、转换器、自编码器以及卷积和循环结构的体系结构,并提出了对现有方法的比较分析,以提供有洞察力的观察和促进该领域未来的研究方向。
Jan, 2024
我们提出了基于强化学习的 RLAC 框架,通过结合强化学习的探索能力和监督学习的开发能力,解决了多标签正负样本学习问题,并在多个任务中进行实验证明了我们框架的泛化和有效性。
Jun, 2024
通过结合卷积结构和近似 top-k 排名目标,利用深度神经网络的特征,改进了多标签图像注释,并在 NUS-WIDE 数据集上实现了比传统视觉特征高大约 10% 的性能表现,提出了一种有效的方法。
Dec, 2013
本文研究了多标签学习的不完整标签分配问题,提出了一种名为 MPU 的方法,该方法基于正数和未标记随机梯度下降和堆叠模型,可以同时有效且高效地考虑丢失的标签和标签之间的关联性,从而更好地解决了大规模多标签学习问题。
Jul, 2014