Feb, 2022

细心增广:对于组合问题的对比学习

TL;DR通过引入 label-preserving augmentations 和对 contrastive pre-training 进行科学研究,我们发现可以利用有标签的数据集中仅 1% 的数据就可以训练出与全监督学习具有可比性的表示方法,并且这些表示方法更易于从新领域中进行更大规模的推广应用。