本文提出基于分布对齐和数据增广锚定的混合增广半监督学习算法 ReMixMatch ,通过学习增广策略提高数据效率,实验结果表明其比之前算法更为高效。
Nov, 2019
本文提出了一种名为 JoCoR 的鲁棒学习范例,该范例旨在通过 Co-Regularization 减少两个网络在训练期间的多样性,实验证明该方法在学习具有噪声标签的数据中优于当前许多最先进的方法。
Mar, 2020
本文提出了一种新的深度学习范式 Co-Teaching,它通过同时运用两个神经网络,自我纠正,相互辅助学习,从而提高了模型在嘈杂标签下的稳健性。
Apr, 2018
提出了一个深度学习神经网络的标签检查和修正方法,该方法结合了小损失选择和噪声校正的思想,采用两个不同的网络来通过小损失选择方法训练,并根据两网络的分类误差和同意误差的评估来度量训练数据的置信度,在真实和人工数据集上测试表明该方法优于基准方法。
Feb, 2022
CoMatch 是一种新的半监督学习方法,它通过学习数据的两种表示(类概率和低维嵌入)相互作用来统一主流方法并解决其局限性,并在多个数据集上实现了最先进的性能。
Nov, 2020
提出了一种名为 Co-teaching + 的稳健学习范例,它将 “Update by Disagreement” 策略与原始的 Co-teaching 相结合,以解决由于与同伴网络达成一致而导致 Co-teaching 退化为自训练的 MentorNet 的问题。实证结果表明,Co-teaching + 在训练模型的稳健性方面比许多最先进的方法优秀。
Jan, 2019
This paper proposes a method to improve the robustness of deep learning models in the presence of noisy labels by utilizing unsupervised learning and cluster regularization.
Jul, 2023
提出了一种名为 DivideMix 的新型深度学习框架,通过利用半监督学习技术来将训练数据动态分成一个包含清晰样本的标记集合和一个包含噪声样本的未标记集合,并在半监督的方式下同时对标记与未标记数据进行训练,使用 MixMatch 策略在标记和未标记样本上分别执行标记共修整和标记共猜测以进行标签协同改进。在多个基准数据集上的实验显示出 DivideMix 比现有最先进的方法具有显着的改进。
Feb, 2020
本文研究了深度神经网络中不平衡分类和嘈音容忍性,并提出了一种名为原型锚定学习(PAL)的方法,将其纳入各种学习分类方案中,以应对不完美的注释。
Jun, 2022
本篇论文从分布级别和实例级别两个不同但互补的视角提出了一个简单而有效的 LabelMatch 框架,用于解决自我训练期间存在的标签不匹配问题,并通过 Proposal Self-assignment 机制确定准确的伪标签来促进学生和教师之间的匹配。在 MS-COCO 和 PASCAL-VOC 数据集上的实验结果表明,所提出的框架明显优于其他现有方法。