从逻辑标签中学习标签分布
该论文提出了一种新的机器学习范例 —— 标签分布学习(LDL),并设计了一个名为 Contrastive Label Enhancement(ConLE)的方法,该方法利用对比学习策略将特征和逻辑标签融合到统一的投影空间中,生成高层次特征,然后通过一种有效的训练策略获得标签分布,该方法在 LDL 基准数据集上进行了广泛实验,表明其在效果和优越性方面具有很大的潜力。
May, 2023
本文提出了一种名为标签分布学习的新型学习范式,旨在解决标签重要性分布的问题。文章提出了六种工作 LDL 算法,并选择了六种代表性和多样化的评估措施,比较了这些算法的性能。实验结果表明,算法设计对 LDL 问题的特征非常重要,实现了性能上明显的优越性。
Aug, 2014
本文提出了基于不同 iable 决策树的标签分布学习森林(LDLF),旨在解决标签分布学习的限制假设与表征学习方面存在局限性等问题,并在多项实验和计算机视觉应用中验证了其有效性。
Feb, 2017
标签分布学习 (Label Distribution Learning, LDL) 为样本分配软标签,但是当标签分布是不完整的 (Incomplete LDL, InLDL) 时,往往会导致性能退化。本文提出了一种合理的替代方法来解决这个问题,利用标签分布本身的先验信息和加权方案,无需显式正则化即可获得准确的标签分布并表现竞争力。
Aug, 2023
LDL 是一种轻量级防御标签攻击的深度神经网络(DNN)模型的方法,通过构建高维球体防止攻击者正确确定样本是否属于训练集,并在实验中表现出比重新训练 DNN 模型的防御措施更优效果。
Dec, 2022
该论文提出一种名为 DLDL(Deep Label Distribution Learning)的方法,通过最小化深度 ConvNets 预测和 ground-truth 标签分布之间的 Kullback-Leibler 散度来学习标签分布,有效地利用标签模糊性,并在训练集较小的情况下防止网络过度拟合,显著提高了年龄估计和头部姿态估计的结果,同时还改进了多标签分类和语义分割任务的识别性能。
Nov, 2016
本文介绍了一种在无标注训练样本的情况下,通过使用深度神经网络,并引入一种新正则化层 Batch Averager,将有标注数据的深度神经网络转换为无标注学习(LLP)的方法。本文还提出了一种协同训练算法,以支持可能由图片和文本组成的数据域。作者通过 Twitter 用户的 tweets 和个人资料图片,预测 Twitter 用户的性别和种族 / 民族信息,并发现深度 LLP 方法在文本和图片分类方面均优于基线方法,并且协同训练算法可以将文本和图片分类的绝对 F1 值分别提高 4%和 8%。最后,采用文本和图片分类器的集合进一步平均提高了绝对 F1 值 4%。
Sep, 2017
Scalable Label Distribution Learning (SLDL) is proposed for multi-label classification, where different labels are described as distributions in a latent space with asymmetric correlation, independent of the number of labels, resulting in little computational consumption.
Nov, 2023