基于相似度的确定性多标签学习
本研究提出了 AMuLaP 方法,利用一对多标签映射和基于统计的算法自动选择少样本文本分类的标签映射,并在 GLUE 基准测试上展示出竞争性能。
Apr, 2022
Scalable Label Distribution Learning (SLDL) is proposed for multi-label classification, where different labels are described as distributions in a latent space with asymmetric correlation, independent of the number of labels, resulting in little computational consumption.
Nov, 2023
提出了一种无需训练数据的多标签图像识别新框架,利用预训练大型语言模型(LLM)的知识学习提示,使预训练的视觉 - 语言模型(VLM)如 CLIP 适应多标签分类。通过向 LLM 提问获取关于对象的特性和背景的综合知识,为学习提示提供宝贵的文本描述。然后,通过考虑多标签依赖性,提出了一种层次化的提示学习方法,在对象具有相似属性或更有可能共现时,共享特定类别提示标记的子集。由于 CLIP 在视觉和语义上具有显著的对准性,从文本描述学习到的层次化提示被应用于推理过程中的图像分类。我们的框架为探索多个预训练模型之间的协同作用提供了一种新途径。在三个公共数据集(MS-COCO、VOC2007 和 NUS-WIDE)上进行的大量实验证明,我们的方法比现有方法取得更好的结果,尤其是在 MS-COCO 上的零样本多标签识别方法的 mAP 上超过 4.7%。
Mar, 2024
综述了深度学习在多标签学习中的最新进展,包括深度神经网络、转换器、自编码器以及卷积和循环结构的体系结构,并提出了对现有方法的比较分析,以提供有洞察力的观察和促进该领域未来的研究方向。
Jan, 2024
本文介绍了一种弱监督的多标签学习方法,可以有效地学习到精细的概念,并通过伪标签来训练分类器和引导主动学习策略。实验结果表明,该方法能够精确地恢复缺失的地面真实值,并显著提高了预测性能。
Sep, 2021
我们提出了一个新的弱监督标签设置,即真假标签(TFLs),通过预训练的视觉语言模型(VLMs)生成的 TFLs 可以实现高准确性。我们理论上推导了一种风险一致估计器,以探索和利用 TFLs 的条件概率分布信息。此外,我们提出了一种基于卷积的多模态提示检索(MRP)方法,以弥合 VLMs 的知识与目标学习任务之间的差距。实验结果证明了所提出的 TFL 设置和 MRP 学习方法的有效性。
May, 2024
本文提出 Class-distribution-Aware Pseudo Labeling (CAP) 方法,通过设计基于类感知阈值的规则学习框架来控制每个类别的伪标签的数量,并约束伪标签的类别分布接近真实分布,旨在解决半监督多标签学习问题。实验结果证明了 CAP 方法可以有效解决半监督多标签学习问题并提高泛化能力。
May, 2023
本文提出了一种基于图标签增强的新的多实例多标签分类学习框架(GLEMIML)以提高分类性能和利用标签的重要性。GLEMIML 首先通过建立图识别实例之间的相关性,然后通过非线性映射将从特征空间挖掘到的隐含信息迁移到标签空间,从而恢复标签的重要性,并通过匹配和交互机制训练增强的数据,GLEMIML (AvgRank:1.44) 在多个基准数据集上表现出比 SOTA 方法 (AvgRank:2.92) 更好的结果。
Apr, 2023
提出了一种名为 proposed 的新框架,即类别先验引导的单正多标签学习,通过引入类别先验估计器并基于该估计值推导出一种无偏风险估计器,实验证明该方法在十个多标签学习基准数据集上比现有方法更加有效和优越。
Sep, 2023
研究一种新的多标签图像分类问题,针对训练数据需要手动标注出所有适用标签的挑战,探索使用缺失标签进行学习的特殊情况,并尝试通过线性分类器和端到端微调深度网络提出新的损失函数来解决这个问题。结果表明,在一些情况下,使用更少的标签进行训练可以接近全部标签训练的性能水平。
Jun, 2021