Feb, 2024

$f$-MICL:理解和推广基于 InfoNCE 的对比学习

TL;DR该研究论文通过将 KL-based mutual information 推广为 $f$-Mutual Information in Contrastive Learning ($f$-MICL),使用 $f$-divergences,并设计了一种更好的 Gaussian 相似度来回答两个问题:是否可以超越基于 KL 的目标函数?除了流行的 cosine 相似度外,是否可以设计出更好的相似度函数?在多个任务和数据集上进行实证评估,发现 $f$-MICL 普遍优于基准,并且 $f$-divergence 的选择与任务和数据集有关。