Dec, 2023

通过自我加强误差缓解的噪声对应学习

TL;DR通过引入一种名为自我加强误差抑制(SREM)的新型噪声对应关系学习框架,通过将样本匹配视为批处理中的分类任务,我们生成给定样本的分类 logits,通过能量不确定性优化样本筛选,并使用交换分类熵估计所选干净样本的模型灵敏度,从而改善交叉模态检索的准确性和稳定性。同时,我们提出了交叉模态偏向性互补学习,以利用在难负例训练中被忽视的负匹配,进一步提高模型的优化稳定性和抑制自我加强错误。在具有挑战性的基准测试中进行的广泛实验证实了 SREM 的有效性和高效性。