Dec, 2023

带有重新平衡的对比损失的长尾学习

TL;DR通过将受监督的对比损失整合到基于交叉熵的通信中,解决了长尾学习问题。具体而言,使用Rebalanced Contrastive Learning (RCL)方法来提高长尾分类准确度,通过实现几个关键方面,即特征空间均衡、类内紧凑性和正则化。在Balanced Contrastive Learning (BCL) Framework中实施RCL,实验结果表明RCL提供了对BCL框架的丰富嵌入以及更高的准确度。同时,RCL作为一个独立的损失函数,也实现了与最先进方法相当的准确度水平。