使用非负风险估计器的正无标记学习
本文介绍了使用正样本和未标注样本进行 PU 学习的方法,即使正样本在数据分布中不具有代表性,也可以通过只固定负类分布来解决正偏差问题。通过将负 - 未标注学习与未标注 - 未标注学习相结合或利用递归风险估计方法,可以解决正偏差问题。然后,作者提出一种通用的方法来解决 PU 风险评估的过度配合问题。实验结果表明,无论数据集如何,这两种方法都是有效的。
Feb, 2020
基于正样本和未标记数据的学习(PU 学习)是一种积极研究的机器学习任务,目标是基于包含部分标记的正样本和未标记实例的训练数据集训练一个二元分类模型。本研究提出了一个优化算法,通过建立标签机制、估计倾向性分值和进行参数优化,以实现风险一致性和更有效的方法。
Dec, 2023
本文提出一种新的分类框架来解决二元分类中负数据种类过于多无法完全标注的情况,并引入一种基于实验风险最小化的方法来解决这个问题,方法中使用的每个示例的权重是通过受到正例样本 - 未标记负例样本学习的启发式预处理步骤计算的,并针对所提出的方法导出了估计误差边界。实验结果表明,该算法不仅在正 - 未标记负学习场景中,也在几个基准数据集上的普通正 - 未标记负学习场景中均具有有效性。
Oct, 2018
该论文介绍了一种用于正负标记样本不明确的情景下,从正样本和无标记样本中学习出二分类器的新方法 —— 使用变分原理的方法,可以直接从给定的数据中定量评估贝叶斯分类器的建模误差,并进一步提高该方法的鉴别性能和数值稳定性,还可以通过引入最大化分类间隔的损失函数来使方法更加有效。
Jun, 2019
我们提出了一种元学习方法,用于正负样本未标记分类,从而提高仅使用 PU 数据获得的二元分类器在未知目标任务中的性能。该方法使用包含正向、负向和未标记数据的相关任务,在使用 PU 数据调整模型之后,最小化了测试分类风险。通过使用神经网络将每个实例嵌入到任务特定空间中,我们以密度比率估计 PU 密度的形式估计了贝叶斯最优分类器,其解可作为闭式解求得。经验证明,该方法在一个合成数据集和三个真实数据集上表现优于现有方法。
Jun, 2024
本文主要探讨 PU(和 NU)学习相对于 PN 学习的上界估计误差,并发现了简单的条件,当先验概率和 P 与 N 数据的大小给定时,PU 或 NU 学习具有无限 U 数据将优于 PN 学习。
Mar, 2016
本文提出了一种用于 Positive-Unlabeled 学习的标签分布一致性方法,通过对齐无标签数据和基础事实标签分布的期望值,实现了一定程度的学习监督,并进一步采用信息熵最小化和 Mixup 正则化来避免无标签数据上标签分布相同的平凡解法和缓解经验确认偏差。
Dec, 2022
提出了一种新的自主 - 无监督 (Self-PU) 学习框架,该框架无缝地集成了自我训练和无监督学习以解决 Positive-Unlabeled(PU)学习问题,并在 Alzheimer 的疾病分类中实现了显着改善。
Jun, 2020
我们提出了一种新的正未标化学习框架,通过预定义无关的表示学习来学习特征空间,然后采用伪标记技术将未标注样本进行分类,利用嵌入的集中性质。该方法在多个标准正未标化基准数据集上明显优于现有的方法,并且不需要先验知识或类先验的估计。值得注意的是,即使标注数据稀缺,我们的方法仍然有效,而大多数正未标化学习算法则表现不佳。我们还提供了简单的理论分析,解释了我们所提出算法的动机,并为我们的方法建立了泛化保证。
Feb, 2024
本文介绍了一种解决正样本与未标记数据(常称为 PU 学习)的二元(正负)分类器学习问题的方法,通过学习基于神经网络的数据表示来实现未标记数据的投影,形成可以使用简单的聚类技术轻松识别的两个(正和负)簇,加强了学习的未标记数据簇之间的分离,实现了对模拟 PU 数据的改进性能的实验证明。
Oct, 2023