标签分布学习森林
本文提出了一种名为标签分布学习的新型学习范式,旨在解决标签重要性分布的问题。文章提出了六种工作 LDL 算法,并选择了六种代表性和多样化的评估措施,比较了这些算法的性能。实验结果表明,算法设计对 LDL 问题的特征非常重要,实现了性能上明显的优越性。
Aug, 2014
本研究针对标签分布学习中标签增强方法的不足,提出了一种联合模型从逻辑标签中直接学习 LDL 模型,证实该方法对多个数据集能够直接构建可靠的 LDL 模型,同时比现有标签增强方法更准确地预测标签分布。
Mar, 2023
该论文提出了一种新的机器学习范例 —— 标签分布学习(LDL),并设计了一个名为 Contrastive Label Enhancement(ConLE)的方法,该方法利用对比学习策略将特征和逻辑标签融合到统一的投影空间中,生成高层次特征,然后通过一种有效的训练策略获得标签分布,该方法在 LDL 基准数据集上进行了广泛实验,表明其在效果和优越性方面具有很大的潜力。
May, 2023
该研究提出了一个名为 MLDF 的多标签深度森林方法,该方法利用度量感知特征重用和度量感知层增长机制同时解决了多标签问题中的两个难点:模型复杂性约束和性能度量优化。实验证明,与基准数据集上的其他方法相比,我们的提议不仅击败了六个度量标准,而且在多标签学习中具有标签相关性发现和其他期望的属性。
Nov, 2019
LDL 是一种轻量级防御标签攻击的深度神经网络(DNN)模型的方法,通过构建高维球体防止攻击者正确确定样本是否属于训练集,并在实验中表现出比重新训练 DNN 模型的防御措施更优效果。
Dec, 2022
该论文提出一种名为 DLDL(Deep Label Distribution Learning)的方法,通过最小化深度 ConvNets 预测和 ground-truth 标签分布之间的 Kullback-Leibler 散度来学习标签分布,有效地利用标签模糊性,并在训练集较小的情况下防止网络过度拟合,显著提高了年龄估计和头部姿态估计的结果,同时还改进了多标签分类和语义分割任务的识别性能。
Nov, 2016
该研究提出了两种基于深度可微随机森林方法的年龄估计模型:Deep Label Distribution Learning Forest 和 Deep Regression Forest,通过对分割节点和叶节点进行交替优化学习更好的树形参数估计,取得了三个年龄估计数据集上最优的性能表现。
Jul, 2019
标签分布学习 (Label Distribution Learning, LDL) 为样本分配软标签,但是当标签分布是不完整的 (Incomplete LDL, InLDL) 时,往往会导致性能退化。本文提出了一种合理的替代方法来解决这个问题,利用标签分布本身的先验信息和加权方案,无需显式正则化即可获得准确的标签分布并表现竞争力。
Aug, 2023