ICLRMar, 2023

ArCL:通过增强鲁棒性表示来增强对比学习

TL;DR本文开发了一个理论框架以分析自我监督对比学习的可转移性,结果表明对比学习的下游表现在很大程度上取决于数据增强的选择,但对比学习无法学习域不变特征,即其可转移性受到限制。基于这些理论洞见,我们提出了一种新的方法 ArCL,它保证学习域不变特征,并可以轻松地与现有的对比学习算法集成。我们在几个数据集上进行实验,显示了 ArCL 显着提高了对比学习的可转移性。