Sep, 2023

基于评分规则最小化的概率自监督学习

TL;DR本文提出了一种通过 Scoring Rule Minimization 进行的新型概率自监督学习方法(ProSMIN),利用概率模型增强表示质量和减少崩溃表示,我们的方法通过两个神经网络(在线网络和目标网络)协作学习彼此的多样表示分布,通过知识蒸馏,通过以不同增强视图呈现的输入样本,训练在线网络预测目标网络同一样本的表示,两个网络通过基于适当评分规则的新损失函数进行训练,我们为 ProSMIN 的收敛提供了理论证明,证明了其修改后的评分规则的严格适当性,这一见解验证了该方法的优化过程,并有助于提高表示质量的鲁棒性和效果,在如 InageNet-O 和 ImageNet-C 等大规模数据集上的各种下游任务上评估了我们的概率模型,ProSMIN 在精度和校准方面表现出卓越的能力,超越了自监督基线,在广泛的实验中证明了其可伸缩性和实际适用性。