Sep, 2020

具有无限可能性的联合对比学习

TL;DR本文探讨在对比学习中通过新的概率模型进行的有效修改。通过推导一个特殊形式的对比损失函数,即联合对比学习(JCL),JCL 在搜索不变特征时具有更紧的约束条件。我们提出了对这种形式的上界的研究,这种上界允许端到端的训练方式中的解析性解决方案。尽管 JCL 在多个计算机视觉应用中实用,但我们也从理论上揭示了支配 JCL 行为的某些机制。我们证明了所提议的公式具有固有的机制,强烈倾向于在每个实例特定的类别内保持相似性,因此在搜索不同实例之间的辨别特征时仍具有优势。我们在多个基准上评估了这些提议,展示了对现有算法的显著改进。