May, 2024

使用广义鲁棒损失提升单一正标签多标签分类

TL;DR本文研究了单正多标签学习(Single Positive Multi-label Learning - SPML)的问题,提出了基于期望风险最小化的广义损失框架,用于生成软伪标签,并设计了一种能够处理正负样本不平衡同时灵活协调假阳性和假阴性的新型鲁棒损失函数。实验证明,该方法能够显著提高 SPML 性能,在四个基准测试上胜过绝大多数最先进的方法。