无监督微调
本文研究无监督领域自适应,提出了一种将源域和目标域之间的表示进行对齐的方法,从而使目标域数据的分类准确性更高。该方法利用自监督任务对两个域进行训练并成功地泛化到目标域。在实验中,我们获得了四个标准基准测试中的最先进结果,并在分割适应性方面取得了有竞争力的结果。
Sep, 2019
本论文提出了一种源目标选择性联合微调方案,通过识别和使用一组特定的训练样本以及联合微调共享卷积层来改善深度学习任务的性能,该方案在多个视觉分类任务中以单一模型获得了最先进的性能。
Feb, 2017
本文提出一种新的自监督学习框架,可以解决在设计和比较不同任务、模型和数据域时的限制问题,通过这个框架设计一种新的自监督任务,在 PASCAL VOC 2007、ILSVRC12 和 Places 数据集上,取得了显著的最先进表现,并将自监督学习和监督学习之间的对象检测 mAP 误差从 5.9% 缩小到 2.6%。
May, 2018
本文提出 Bi-tuning,一种细调深度学习模型的新方法,能同时利用监督和无监督预训练,并综合使用有标签数据的判别信息和无标签数据的数据结构,相较于现有策略,在精度上有了长足的提升。
Nov, 2020
引入一种新的预训练程序,利用有监督对比学习来区分每个预训练数据集中的特征,进而通过将目标数据与预训练数据集的学习动态更加紧密地对齐,以提高目标数据的准确预测。
Nov, 2023
本文研究了无监督预训练在少标签数据迁移中的表现,发现在少标签数据迁移中,聚类质量对迁移表现有很重要的影响;此外,我们提出仅将部分无标签目标领域纳入无监督预训练中即可提高聚类质量,减少与有监督预训练之间的迁移性能差距,并提出新的渐进式少标签迁移算法,以在有限的注释预算下最大化迁移性能。实验结果表明,我们的提出方法可以显著提升无监督预训练在少标签数据迁移中的表现。
Jul, 2021
运用一种新的理论框架,研究无监督预训练对细调模型泛化能力的影响,并通过分析两个具体场景的泛化上限,提出了一种新的预训练正则化方法,从而促进了细调模型的泛化能力。
Mar, 2024
研究表明在无标签目标数据存在特定要求 (如封闭集和标签分布一致) 或实际应用场景 (如 OOB 和标签分布转移) 的情况下,基于无源数据的领域自适应 (SFUDA) 方法具有很大的限制。通过实验证明,使用源预训练模型和少量标记数据的微调方法是一种可靠的解决方案,实验结果表明这种方法的性能优于其他方法。}
Apr, 2023
本论文研究了无监督域适应问题,提出了使用 mixup 公式在领域之间强制应用训练约束,并引入特征级一致性正则化器来促进跨域约束,有条件混合和领域对抗学习,显著提高了图像分类和人类活动识别的重要任务的最新表现。
Jan, 2020