Nov, 2023

通过学习速度感知抽样使自监督学习对于偶发相关性具有鲁棒性

TL;DR我们研究了自监督学习 (Self-supervised learning) 在存在假相关性 (spurious correlations) 的情况下,说明了尽管存在其他重要的预测特征,通过捕捉与敏感属性相关的引人注目的特征子集,可以最小化自监督学习的训练损失。在这个问题上,我们通过观察自监督学习的学习动态发现,与这种相关性冲突的样本的学习速度较慢。基于这些发现,我们提出了一个学习速度感知的自监督学习 (LA-SSL) 方法,其中我们以与学习速度反相关的概率采样每个训练数据。我们在三个数据集上评估了 LA-SSL,这些数据集之间存在不同属性的假相关性,结果表明它提高了预训练表示在下游分类任务上的鲁棒性。