利用一致性正则化学习标签比例
该论文研究了从标签比例中学习的问题,针对现有基于深度学习的方法中优化目标与给定比例不一致的问题,通过对分类器施加比例验证的连续训练阶段以及引入混合策略和 Symmetric Crossentropy 方法来降低标签噪声,提高了分类性能。
May, 2021
该文章针对基于 Label Proportions 的学习环境提出了一个新的学习框架 ——Empirical Proportion Risk Minimization,利用该学习框架可以构建更好的学习算法,在政治学、营销、医疗保健和计算机视觉等领域有广泛应用。
Feb, 2014
在隐私设置和弱监督下,我们提出了一种新的基线技术 DLLP 的不规则性,以及与 LLP 下的通用性边界争论相结合的基于自我监督目标的新公式,该方法在 87% 的实验配置中比基线模型取得更好的结果,实验涵盖了长篇和短篇文本的大规模模型,并使用多个度量标准进行评估。
Oct, 2023
本文以相互污染模型为基础,对标签比例学习进行了研究,提出了一种新的实验设置并首次建立了一致的学习流程。研究结果还包括非独立抽样计划下的无偏损失和泛化误差界限。
Jun, 2020
提出了一种基于袋级数据增强的学习方法 MixBag,该方法可应用于实例级数据增强技术和使用比例损失的任何学习方法,并通过实验证明了其优势和有效性。
Aug, 2023
弱监督学习问题中的主题是来自标签比例的学习,研究了多种实现分类损失的标准,包括经典的实证比例风险最小化、去偏差的比例平方损失和最近提出的 EasyLLP 学习规则,这些规则在可实现和不可知设置中均取得了 “乐观速率”,并且在样本复杂度上接近最优(log 因子)。
Jun, 2024
通过学习标签比例 (LLP),我们提出了一种新的算法框架,其中迭代地执行伪标签和嵌入改进两个主要步骤,利用 Gibbs 分布和 Belief Propagation,在不牺牲计算效率的情况下,取得了标签比例学习问题上的显著改进。
Oct, 2023
学习标签比例(LLP)是一个机器学习问题,有许多现实应用。本文提出了解决 LLP 中的若干问题的方法,包括生成各种依赖结构和包特征的特定变体数据集,模型选择和评估步骤的准则,以及对一组知名 LLP 算法的广泛基准测试结果。
Oct, 2023
基于标签比例(LLP)的学习是一种监督学习的推广,通过一些包含特征向量集合或袋子(实例),以及每个袋子的平均实例标签来提供训练数据,目标是训练一个良好的实例分类器。在本文中,我们展示了使用 LTFs 能够在给定某些具有一定标签比例的随机袋子时,通过访问这些数据对线性阈值函数(LTFs)进行有效学习的可能性。我们的算法使用次高斯浓度界限估计均值和协方差矩阵,并展示了如何应用于有效采样袋子以近似法向量。通过在袋子设置中提供新的泛化误差界限,我们展示了如何识别具有较低误差的假设 LTF。
Oct, 2023