通过半监督深度学习与主动学习相结合的方法,使用尽可能少的标记样本,同时利用熵最小化对未标记样本进行训练,在 MNIST 数据集上仅使用 300 个标记样本实现 2.06% 的误差率和 1000 个标记样本实现 1.06% 的误差率。该方法可以获得高准确性的敏捷标注过程,同时节省标记成本。
Mar, 2018
本文探讨利用卷积神经网络进行半监督学习的问题,提出利用随机数据增强、dropout、随机最大池化等技术来提高分类器的鲁棒性及稳定性,并设计了一种利用多次前馈预测结果来减小随机性差异的无监督损失函数,并在多个基准数据集上进行验证。
Jun, 2016
本文提出了一种半监督学习框架,为无标签图像对增加循环一致性限制,在监督丢失和无监督训练中实现了最先进的语义匹配性能。
Jan, 2019
本文提出了一种利用局部相似性的弱估计,通过单个最优化问题提取具有一致性关系的样本批次,将视觉相似性学习作为分类任务的序列,并使 CNN 巩固群体内和群组间的传递性关系,学习所有样本的单个表示。
Feb, 2018
本文介绍一种基于深度分割模型集成的半监督学习方法,利用有标注的图片训练模型子集,并使用未标注的图片协同训练模型,同时使用对抗样本来保持多样性,实现语义图像分割的性能提升,在两个医学图像数据集上取得最先进的结果。
Mar, 2019
提出基于伪标签生成的半监督图像分类方法,利用 mixup 增广和每个 mini-batch 至少有数量的有标注样本的限制解决了伪标签带来的过度拟合问题,并在多个数据集上取得了最新的结果。
Aug, 2019
本篇文章研究了半监督深度学习的最新方法,重点是针对标记和未标记数据集之间分布差异的情况设计的半监督深度学习模型,致力于解决传统深度学习流水线在实际使用环境下对数据的高需求,并希望鼓励社区应对该方面的挑战。
Mar, 2022
本文研究在有标记和无标记图像的情况下学习分类器的半监督图像识别问题。我们提出了 Deep Co-Training 方法,该方法基于 Co-Training 框架,并通过对抗样本促进视角差异性以防止多个深度神经网络之间的折叠。在 SVHN、CIFAR-10/100 和 ImageNet 数据集上进行测试,结果表明我们的方法大幅优于先前的最先进方法。
该研究提出了一种适用于部分标记数据的对比损失函数 SemiCon,并通过利用无标签数据流训练的基于记忆的方法来证明了其有效性。在 Split-CIFAR10 和 Split-CIFAR100 数据集上,与现有的半监督方法相比,我们的方法在可用很少的标签时效果更佳,只使用了 2.6%的标签和 10%的标签,就可以获得与最新的监督方法相似的结果。
Jul, 2022
本文提出了一种适用于深度卷积神经网络的在线构建图形的半监督学习算法,以利用未标记数据提高监督学习的泛化能力。与传统的半监督学习方法相比,我们的方法使用基于网格输出的动态构建图形来更新网络,获得更好的效果。
Nov, 2015