未来学习:一种新颖的自训练语义分割框架
文章提出了一种利用一些有限的像素注释数据和一些无标签数据进行半监督语义分割的方法,并在 PASCAL VOC 2012,PASCAL-Context,和 Cityscapes 数据集上实现了最新的半监督学习的最佳性能。
Aug, 2019
本文介绍了一种互动训练(Dynamic Mutual Training,DMT)的方法,可以通过两种不同模型之间的互动来确定伪标签的错误,从而提高半监督学习的性能。在图像分类和语义分割任务中,DMT均取得了最新的表现。
Apr, 2020
本文提出了一种半监督学习的方法,即自我训练范式,通过用标注数据训练教师模型并在大量未标注数据上生成伪标签,以较少的监督实现像素级准确模型,并在Cityscapes,CamVid和KITTI数据集上取得了最优表现,同时,在具有挑战性的跨域泛化任务上表现更佳,最后,为了减轻大量伪标签带来的计算负担,提出了一种快速训练计划来加速分割模型的训练。
Apr, 2020
该研究提出了一种分阶段的自我训练框架,使用伪掩模的统计信息来降低预测概率的不确定性以及通过多任务模型在一定程度上强制执行分割一致性,从而实现半监督语义分割的性能并表现出与现有方法相当。
Dec, 2020
提出了一种半监督语义分割的框架,采用自监督单目深度估计和利用场景几何形状强数据扩增的方式,结合深度特征差异和难度级别,通过学生-教师框架选择最有用的样本进行语义分割的注释,实现了在Cityscapes数据集上半监督语义分割的最好结果。
Dec, 2020
本文提出了一种分布对齐与随机采样方法(DARS), 用于生产能够匹配标记数据的真实分类分布的无偏伪标签,同时也提出了一种渐进式数据增强和标签策略,以促进使用伪标签训练模型。实验结果表明,该方法在Cityscapes和PASCAL VOC 2012数据集上的表现优于现有的前沿方法。
Jul, 2021
提出了一种PrevMatch框架,通过最大化利用训练过程中获得的时间知识,有效地缓解了复杂的训练流程和计算负担所带来的限制,同时在各种评估协议上始终优于现有方法,特别是在DeepLabV3+和ResNet-101网络设置下,在只有92个标注图像的Pascal VOC数据集上,与现有最先进方法Diverse Co-training相比,mIoU提升了1.6,同时训练速度增快了2.4倍,并且结果表明PrevMatch能够稳定地优化,特别适用于性能较差的类别。
May, 2024
该研究针对三维分割领域缺乏标注数据的问题,提出了一种贝叶斯自训练框架,以实现有效的半监督三维语义分割。通过使用随机推断生成初始伪标签并基于点的估计不确定性进行过滤,研究展示了在多个数据集上,半监督方法的最先进结果,显著提升了密集三维视觉定位的性能。
Sep, 2024