Feb, 2021

不需要对比样本的自监督学习动态理解

TL;DR在自监督学习中,我们提出一种名为 DirectPred 的新方法,该方法直接基于输入的统计信息而非梯度训练来设置线性预测器。在 ImageNet 上,该方法的表现与采用 BatchNorm 的更复杂的两层非线性预测器相当,且在 300 个 epoch 的训练中优于线性预测器 2.5%(在 60 个 epoch 中达到 5%)。同时,通过研究非对比性 SSL 在简单线性网络中的非线性学习动态,我们为这些方法的学习和避免表征崩溃提供了理论洞察力。